Ortsbasierte Dienste - wireless-earth
Ortsbasierte Dienste - wireless-earth
Ortsbasierte Dienste - wireless-earth
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Ortsbasierte</strong> <strong>Dienste</strong><br />
Seminar 01919 im Sommersemster 2003<br />
Fachbereich Informatik, Praktische Informatik II<br />
FernUniversität<br />
in Hagen<br />
Fachbereich Informatik<br />
Postfach 940<br />
D- 58084 Hagen
2 Vorwort<br />
Mobile vernetzte Benutzer können oft auf eine Vielzahl von Informationsdiensten zurückgreifen,<br />
die beispielsweise durch Mobilfunkbetreiber angeboten werden. Berücksichtigen solche<br />
<strong>Dienste</strong> den Standort des Benutzers, spricht man von ortsbasierten <strong>Dienste</strong>n (engl.: locationbased<br />
Services). Typische Beispiele für ortsbasierte <strong>Dienste</strong> sind Navigationssysteme, elektronische<br />
Karten, Fahrplanauskünfte oder elektronische Touristenführer. Ortsinformationen<br />
können darüber hinaus dazu benutzt werden, um andere Informationsquellen "aufzubessern".<br />
Augmented Reality (AR) ist dabei ein wichtiges Stichwort. In Augmented-Reality-Systemen<br />
werden virtuelle Objekte in die reale Welt eingeblendet. Dies eröffnet Anwendungsmöglichkeiten<br />
z.B. für die Industrie oder für Architekten. Durch ortsbasierte <strong>Dienste</strong> verspricht man<br />
sich (nicht zuletzt auf dem kommerziellen Sektor) diverse Vorteile - allerdings ist die Entwicklung<br />
solcher <strong>Dienste</strong> noch sehr aufwendig, insbesondere da die Bestimmung des Ortes<br />
eines mobilen Benutzers notwendig ist. Darüber hinaus stellt Augmented Reality weitere Anforderungen<br />
an die Präzision der Positionsbestimmung, die Displaytechnologie und das<br />
Hardwaredesign. In diesem Seminar sollen die Grundlagen von ortsbasierten <strong>Dienste</strong>n, auch<br />
im Hinblick auf die Verwendung mit Augmented Reality, untersucht werden.<br />
Die vorliegenden Ausarbeitungen sind anlässlich eines Seminars im Sommersemester 2003 an<br />
der Fernuniversität Hagen entstanden. Im Seminar wurden u.a. die folgenden Themen behandelt:<br />
Positionsbestimmung, geografische Adressierung, Geo-Datenbanken, Sicherheitsaspekte,<br />
Augmented Reality und Plattformen für ortsbasierte <strong>Dienste</strong>.<br />
Jörg Roth und Dominic Heutelbeck, Juni 2003
3 Inhalt<br />
Positionsbestimmung innerhalb von Gebäuden ......................................................................... 5<br />
Jörg Schwerdtfeger<br />
1 Grundlegende Techniken zur Positionsbestimmung ........................................................................................................5<br />
2 Anwendungen in der Praxis............................................................................................................................................11<br />
3 Ausblick .........................................................................................................................................................................15<br />
Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation ............................... 17<br />
Johann Zeiser<br />
1 Einleitung.......................................................................................................................................................................17<br />
2 Positionsbestimmung mit Satellitennavigation...............................................................................................................18<br />
3 Global Positioning System (GPS) ..................................................................................................................................21<br />
4 Verfahren zur verbesserten Positionsbestimmung..........................................................................................................24<br />
5 Weitere Systeme und Entwicklungen.............................................................................................................................26<br />
6 Anwendung ....................................................................................................................................................................27<br />
Geoinformationssysteme und Geo-Datenbanken im Überblick............................................... 31<br />
Joachim Marwinski<br />
1 Geodaten ........................................................................................................................................................................31<br />
2 Was leisten GIS? ............................................................................................................................................................39<br />
3 Geodatenbanken.............................................................................................................................................................43<br />
4 Ausblick .........................................................................................................................................................................44<br />
Beispiele ortsbasierter <strong>Dienste</strong> .................................................................................................47<br />
Edgar Merl<br />
1 Einleitung.......................................................................................................................................................................47<br />
2 Cyberguide .....................................................................................................................................................................48<br />
3 GUIDE ...........................................................................................................................................................................54<br />
4 Ausblick und aktuelle Projekte.......................................................................................................................................58<br />
<strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk......................................................................................... 61<br />
Andreas Werlemann<br />
1 Einleitung.......................................................................................................................................................................61<br />
2 Technische Voraussetzungen .........................................................................................................................................61<br />
3 Verfahren der Positionsbestimmung...............................................................................................................................63<br />
4 Inhalte ortsbasierter <strong>Dienste</strong>...........................................................................................................................................66<br />
5 Fazit und Ausblick .........................................................................................................................................................69<br />
“Nexus“ .................................................................................................................................... 73<br />
Lothar Meschewski<br />
1 Motivation......................................................................................................................................................................73<br />
2 Einführung in das Projekt Nexus....................................................................................................................................73<br />
3 Besondere Aspekte von Nexus.......................................................................................................................................74<br />
4 Probleme ........................................................................................................................................................................80<br />
5 Ausblick .........................................................................................................................................................................80<br />
6 Danksagung....................................................................................................................................................................81<br />
Sicherheit und Datenschutz für Mobile Anwendungen ........................................................... 83<br />
Hagen Barlag<br />
1 Der Begriff Sicherheit ....................................................................................................................................................83<br />
2 Datenschutz....................................................................................................................................................................87<br />
3 Fazit................................................................................................................................................................................94<br />
Sicherheitsproblematik am Beispiel der Location Server Infrastructure ................................. 97<br />
Stephan Drautz<br />
1 Vorstellung von LSI .......................................................................................................................................................97<br />
2 Sicherheitsrelevante Aspekte im Bezug auf die LSI.....................................................................................................101<br />
3 Bedrohungsanalyse.......................................................................................................................................................104<br />
4 Sicherheitsstrategien.....................................................................................................................................................107<br />
5 Fazit..............................................................................................................................................................................108
4 Inhalt<br />
Geographische Adressierung in Computernetzen .................................................................. 111<br />
Adalbert Spakowski<br />
1 Einleitung.....................................................................................................................................................................111<br />
2 Adressierungsmodell....................................................................................................................................................112<br />
3 GEOcast – ein zentral administrierbarer Ansatz...........................................................................................................112<br />
4 GPS-Multicast Ansatz ..................................................................................................................................................116<br />
5 Domain Name Service – Ansatz...................................................................................................................................118<br />
6 ContextCast – ein Peer to Peer Ansatz .........................................................................................................................118<br />
7 Zusammenfassung / Ausblick.......................................................................................................................................123<br />
Mathematische Grundlagen für Augmented-Reality Systeme............................................... 125<br />
Alexander Lorenz<br />
1 Einleitung.....................................................................................................................................................................125<br />
2 Transformationen .........................................................................................................................................................126<br />
3 Affine Darstellung........................................................................................................................................................126<br />
4 Registrierungsfehler .....................................................................................................................................................130<br />
5 Abschließender Kommentar.........................................................................................................................................135<br />
Wearable Computer und Augmented Reality Anwendungen ................................................ 137<br />
Hermann Kollmar<br />
1 Einführung....................................................................................................................................................................137<br />
2 Anwendungsgebiete .....................................................................................................................................................139<br />
3 Ausblick .......................................................................................................................................................................149<br />
Design-Aspekte von Wearable Computern............................................................................ 153<br />
Olaf Geschonke<br />
1 Begriffsbestimmung .....................................................................................................................................................153<br />
2 Akzeptanz von Wearable Computern...........................................................................................................................155<br />
3 Integration ....................................................................................................................................................................156<br />
4 Energieversorgung .......................................................................................................................................................157<br />
5 Ausgabemöglichkeiten .................................................................................................................................................158<br />
6 Eingabemöglichkeiten ..................................................................................................................................................160<br />
7 User-interface...............................................................................................................................................................162<br />
8 Design-Beispiel ............................................................................................................................................................163<br />
Richtungs- Geschwindigkeits- und Beschleunigungsmessung.............................................. 167<br />
Johann Gröbmair<br />
1 Zeit-und Frequenzmessung ..........................................................................................................................................167<br />
2 Räumliche Abtastung ...................................................................................................................................................170<br />
3 Massenträgheit .............................................................................................................................................................173<br />
4 Mechanische Verbindungen .........................................................................................................................................174<br />
5 Feldmessung.................................................................................................................................................................174<br />
6 Hybridformen...............................................................................................................................................................177<br />
7 Schlusswort und Ausblick............................................................................................................................................177<br />
Display Technologien ............................................................................................................ 181<br />
Dirk Schröder<br />
1 Augmented-Reality Systeme ........................................................................................................................................181<br />
2 Durchsicht-Display.......................................................................................................................................................182<br />
3 Video-Durchsicht-Display............................................................................................................................................183<br />
4 Weitere Displaytypen für Augmented-Reality Systeme...............................................................................................184<br />
5 Probleme bei Durchsicht- und Video-Durchsicht Displays..........................................................................................186<br />
6 Anwendungen von Displays in Augmented-Reality Systemen ....................................................................................189<br />
7 Produktübersicht...........................................................................................................................................................193<br />
Wearcomp, Personal Imaging und Mediated Reality ............................................................ 199<br />
Klaus Liedel<br />
1 Einleitung.....................................................................................................................................................................199<br />
2 Technische Realisierung...............................................................................................................................................203<br />
3 Weiterer Ausblick ........................................................................................................................................................204<br />
4 Zusammenfassung und Kritik.......................................................................................................................................205
Positionsbestimmung außerhalb von Gebäuden mit<br />
Satellitennavigation<br />
J. Zeiser<br />
Zusammenfassung: Die Satellitennavigation ermöglicht dem Benutzer überall auf der<br />
Erde außerhalb von Gebäuden seine Position mit guter Genauigkeit zu bestimmen. Die<br />
Entfernungsmessung mittels Signallaufzeiten zwischen dem Benutzer und vier Satelliten<br />
bildet die Basis für die Positionsermittlung. Das amerikanische Global Positioning<br />
System (GPS), das militärischen Ursprungs ist, stellt das bedeutendste System dar. Es<br />
werden zwei <strong>Dienste</strong>, ein frei verfügbarer und ein verschlüsselter Dienst, angeboten.<br />
Erweiterungen wie Referenzstationen nahe dem Benutzer bieten gegebenenfalls die<br />
Möglichkeit die Position genauer zu bestimmen. Neue Empfänger-Chip-Generationen<br />
führen zukünftig zur Integration der Satellitenortung in fast jedes elektronische Gerät, wie<br />
z.B. Handys, PDAs und Uhren.<br />
1 Einleitung<br />
„So wie heutzutage jeder wissen muss, wie spät es ist,<br />
wird in Zukunft niemand ohne die Ermittlung seines<br />
genauen Standorts (Position) auskommen[5].“<br />
Die Kenntnis der genauen Position gewinnt für jeden Menschen zunehmend an Bedeutung.<br />
Dabei wird die Position mittels Koordinaten angegeben. Lokale Anwendungen geben die<br />
Position vorzugsweise im kartesischen Koordinationssystem (X-Y-Z-Koordinate) an. Eine<br />
weltweit eindeutige Position wird hingegen meist mit Längengrad, Breitengrad und Höhe<br />
angegeben (ellipsoidisches Koordinatensystem). Auf Basis von WGS84 (World Geodetic<br />
System 1984) lässt sich bei der Satellitennavigation an jeden Ort der Welt die Position in<br />
beiden Koordinatensystemen bestimmen und in lokale Bezugssysteme umrechnen.<br />
Neben der Satellitennavigation, die aktuell nur die Positionsbestimmung außerhalb von<br />
Gebäuden unterstützt, stellen die Positionsbestimmung innerhalb von Gebäuden und die<br />
netzwerkgestützte Positionsbestimmung die grundlegenden Systeme zur Positionsbestimmung<br />
dar[1].<br />
Positionsbestimmung<br />
Satellitennavigation<br />
Innerhalb von<br />
Gebäuden<br />
Netzwerkgestützt<br />
Hauptsysteme<br />
Überlagerte<br />
Systeme<br />
Infrarot-<br />
Baken<br />
Funk-<br />
Baken<br />
Visuell<br />
Mobil-<br />
Funk<br />
Ultraschall<br />
Funknetze<br />
GPS<br />
GLONASS<br />
GALILEO<br />
DGPS<br />
WAAS<br />
EGNOS<br />
MSAS<br />
Abbildung 1-1: Klassifikation der Systeme zur Positionsbestimmung [1]
18 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />
Die Satellitennavigation wird in Haupt- und Überlagerungssysteme unterteilt. Abbildung 1-1<br />
stellt die Systeme zur Positionsbestimmung dar.<br />
Für zahlreiche Anwendungen ist es wichtig, die aktuelle Position des Benutzers zu kennen.<br />
Die ermittelten Positionsdaten (außerhalb von Gebäuden) können auf unterschiedliche Weise<br />
verwendet werden[1]:<br />
• Die aktuelle Position kann benutzt werden, um den Benutzer zu einem bestimmten Zielort<br />
zu führen (Navigation).<br />
• Der Benutzer kann auf Basis der Position Informationen über den aktuellen Ort oder die<br />
Umgebung abfragen, z.B. elektronischer Touristenführer.<br />
• Die aktuelle Position kann an andere Personen übermittelt werden, um beispielsweise ein<br />
automatisches Hilferufsystem im Notfall einen Arzt zu der Position des Patienten zu<br />
lotsen.<br />
• Verknüpfung mit dem Internet: Abfragen berücksichtigen die aktuelle Position. Z.B.<br />
ermittelt der Link „Ein Restaurant in der Nähe“ je nach Position andere Ergebnisse.<br />
• Militärische Anwendungen: Es können Flugzeuge, Fahrzeuge und Schiffe navigiert oder<br />
Flugkörper in ein Ziel gesteuert werden.<br />
Durch Satellitennavigation kann außerhalb von Gebäuden die Position überall auf der Erde<br />
unabhängig von Witterungsverhältnissen mit hoher Genauigkeit bestimmt werden. Dies stellt<br />
den Ausgangspunkt für weitreichende Anwendungsmöglichkeiten dar.<br />
2 Positionsbestimmung mit Satellitennavigation<br />
2.1 Positionsbestimmung mit drei Satelliten<br />
Um mit Hilfe von Satelliten die Position eines Benutzers bestimmen zu können, wird die<br />
exakte Position der Satelliten und die exakte Entfernung zu den Satelliten verwendet. Drei<br />
Satelliten werden benötigt, um die Position eines Benutzers bestimmen zu können[1]. Die drei<br />
Satelliten bilden durch die ermittelten Entfernungen zum Benutzer drei Kugeloberflächen, die<br />
zwei Schnittpunkte haben. Einen in der Position des Benutzers und einen Schnittpunkt im<br />
Weltraum. Die Position im Weltraum wird ausgeschlossen und damit ist die Position des<br />
Benutzers eindeutig bestimmt. Abbildung 2-1 zeigt den Schnitt der drei Kugeloberflächen mit<br />
der Erdoberfläche und im Schnittpunkt der drei Kugeloberflächen die eindeutige Position des<br />
Benutzers auf der Erde.<br />
S<br />
1<br />
S 2<br />
S 3<br />
R 3<br />
R 1<br />
R 2<br />
Benutzer U<br />
Abbildung 2-1: Positionsbestimmung mit Satelliten
19 J. Zeiser<br />
Die folgenden drei Gleichungen ermöglichen die Position des Benutzers U X U<br />
,Y U<br />
,Z U<br />
zu<br />
bestimmen:<br />
2<br />
2<br />
2<br />
R 1<br />
= (X − X ) + (Y − Y ) + (Z − Z<br />
R 2<br />
=<br />
)<br />
U 1<br />
U 1<br />
U 1<br />
2<br />
2<br />
2<br />
− X ) + (Y − Y ) + (Z Z )<br />
U 2<br />
U 2<br />
U 2<br />
(X −<br />
2<br />
2<br />
2<br />
R 3<br />
= (X − X ) + (Y − Y ) + (Z − Z )<br />
U 3<br />
U 3<br />
U 3<br />
Wobei R i<br />
den Abstand vom Satelliten i zum Benutzer U und X i<br />
,Y i<br />
, Z i<br />
die exakte Position<br />
des Satelliten i darstellen.<br />
2.2 Entfernungsmessung zum Satelliten<br />
Die Entfernung R des Benutzers zum Satelliten wird durch eine Einwegmessung durch-<br />
geführt (Abb. 2-2).<br />
Satellit mit Sender<br />
T Senden<br />
=104800,031222s<br />
Entfernung R<br />
T Empfangen<br />
=104800,111222<br />
T = T Empfangen<br />
- T Senden<br />
= 0,08s<br />
R = 24000km<br />
Benutzer mit Empfänger<br />
Abbildung 2-2: Das Prinzip der Entfernungsmessung - Einwegmessung<br />
Dabei sendet der Satellit ein Signal aus und die Laufzeit T vom Satelliten zum Benutzer wird<br />
gemessen[3]. Da die Ausbreitungsgeschwindigkeit c (Lichtgeschwindigkeit) mit 300000km/s<br />
konstant ist, ergibt sich die Entfernung R=c*T=300000km/s*T.<br />
Das folgende Beispiel zeigt, dass die Zeitmessung sehr genau sein muss. Ein Fehler von nur<br />
1µs führt bereits zu einer Positionsabweichung von ∆R=c*1µs=300m. Aus diesem Grund sind<br />
die Satelliten mit Atomuhren ausgestattet. Damit steht den Satellitensystem eine genaue<br />
Uhrzeit, die sog. Systemzeit, zur Verfügung.<br />
Die Benutzer verwenden hingegen mobile Geräte, die möglichst klein und kostengünstig sein<br />
sollen und daher mit einer Uhr ausgestattet sind, die die benötigte Genauigkeit nicht<br />
erreichen. Es ist auch nicht möglich die Uhren mit den Uhren der Satelliten zu synchronisieren.<br />
Der Zeitfehler zwischen der Uhrzeit des Benutzer-Empfängers und der Systemzeit des<br />
Satellitensystems wird durch einen zusätzlichen vierten Satelliten ausgeglichen.<br />
2.3 Positionsbestimmung mit vier Satelliten, unter der Berücksichtigung des<br />
empfängerseitigen Zeitfehlers<br />
Zur Beschreibung werden folgende Größen benötigt:<br />
T S<br />
stellt die Systemzeit dar, bei der das Signal vom Satelliten S ausgesendet wird.<br />
ist die Systemzeit, bei der das Signal vom Benutzer U empfangen wird.<br />
T U<br />
T ~ =T<br />
S S<br />
+ δT S<br />
bezeichnet die lokal ermittelte Sendezeit, wobei δT S<br />
den Offset der<br />
Satellitenzeit zur Systemzeit darstellt.
20 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />
T ~ =T<br />
U U<br />
+ δT U<br />
bezeichnet die lokal ermittelte Empfangszeit, wobei δT U<br />
den Offset des<br />
Benutzerempfängers zur Systemzeit darstellt.<br />
∆T=T U<br />
-T S<br />
ist die exakte Laufzeit des Signals.<br />
∆ T ~ = T ~ U<br />
- T ~ bezeichnet die ermittelte Laufzeit.<br />
S<br />
Die exakte Entfernung R zwischen dem Satelliten S und Benutzer U entspricht somit<br />
R=c∆T=c(T U<br />
-T S<br />
).<br />
Allerdings ermittelt der Benutzerempfänger eine fehlerhafte Entfernung, die als Pseudo-<br />
Entfernung P bezeichnet wird. Für die Pseudo-Entfernung P zum Satelliten gilt:<br />
P= c∆ T ~<br />
= c( T ~ - T~ )<br />
U S<br />
= c((T U<br />
+ δ T U<br />
) - (T S<br />
+ δ T S<br />
))<br />
= c((T U<br />
- T S<br />
) + (δ T U<br />
- δ T S<br />
))<br />
= R + c(δ T U<br />
- δT S<br />
)<br />
Da die Satelliten mit einer Atomuhr ausgestattet sind und überdies ihre Zeit ständig<br />
überwacht und korrigiert wird, entspricht die Satellitenzeit weitestgehend der Systemzeit.<br />
Daher wird δT S<br />
=0 gesetzt.<br />
Damit ergeben sich entsprechend der vier Satelliten die folgenden Gleichungen:<br />
2<br />
2<br />
2<br />
P 1<br />
= (X − X ) + (Y − Y ) + (Z − Z ) +cδT<br />
U 1<br />
U 1<br />
U 1<br />
U<br />
2<br />
2<br />
2<br />
P 2<br />
= (X − X ) + (Y − Y ) + (Z − Z ) +cδT<br />
U 2<br />
U 2<br />
U 2<br />
U<br />
2<br />
2<br />
2<br />
P 3<br />
= (X − X ) + (Y − Y ) + (Z − Z ) +cδT<br />
U 3<br />
U 3<br />
U 3<br />
U<br />
2<br />
2<br />
2<br />
P 4<br />
= (X − X ) + (Y − Y ) + (Z − Z ) +cδT<br />
U 4<br />
U 4<br />
U 4<br />
U<br />
Da die Positionen der Satelliten X i<br />
,Y i<br />
,Z i<br />
1 ≤ i ≤ 4 bekannt sind und die Pseudo-Entfernung<br />
P i<br />
durch den Empfänger gemessen wird, verbleiben die vier Unbekannten X U<br />
,Y U<br />
,Z U<br />
und<br />
δT U<br />
. Diese können nun durch ein entsprechendes mathematisches Lösungsverfahren aus den<br />
vorliegenden Gleichungen ermittelt werden.<br />
Damit kann durch Hinzunahme eines vierten Satelliten der Zeitfehler auf Empfängerseite<br />
berücksichtigt werden. Allerdings sind die Signale von den Satelliten häufig durch<br />
verschiedene zusätzliche Fehlerquellen (siehe w.u.) gestört.
21 J. Zeiser<br />
3 Global Positioning System (GPS)<br />
3.1 Einleitung<br />
Mit Beginn der 60er Jahre wurde in den USA das US Navy Navigation Satellite System<br />
(NNSS) entwickelt, welches später in TRANSIT umbenannt wurde. In den 70er Jahren wurde<br />
begonnen ein neues System mit der Bezeichnung Navigation System with Timing and<br />
Ranging Global Positioning System (NAVSTAR GPS), nachfolgend als GPS bezeichnet, zu<br />
konzipieren. Das Ziel war zunächst eine globale militärisch nutzbare Echtzeit-Positionierung<br />
sich schnell bewegender Fahrzeuge zu Wasser, zu Lande und in der Luft zu ermöglichen. In<br />
weiterer Folge wurde auch die zivile Nutzung berücksichtigt. Die volle Betriebsbereitschaft<br />
wurde 1995 erklärt. Um eine globale Positionsbestimmung zu gewährleisten wurden 24<br />
Satelliten verwendet (davon sind 21 System- und 3 Reservesatelliten) und sie wurden auf 6<br />
Umlaufbahnen mit je 4 Satelliten positioniert (Abbildung 3-1).<br />
Abbildung 3-1: Konstellation der Satelliten (6 Umlaufbahnen mit je 4 Satelliten) [3]<br />
3.2 GPS-Segmente<br />
Das GPS-System lässt sich in drei unterschiedliche Segmente gliedern, welche in ihrer<br />
Funktionalität aufeinander abgestimmt sind:<br />
• Weltraumsegment (Spacesegment)<br />
• Kontrollsegment (Controllsegment)<br />
• Benutzersegment (Usersegment)<br />
Weltraumsegment<br />
Monitorstationen<br />
Kontrollsegment<br />
MCS<br />
Benutzersegment<br />
Abbildung 3-2: Die drei Segmente des GPS-Systems
22 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />
Das Weltraumsegment<br />
Die Satelliten mit ihrer Konstellation und Charakteristika, wie Bahnhöhe, Bahnneigung, .. ,<br />
definieren das Weltraumsegment. Aktuell sind 29 Satelliten im Einsatz. Sie bewegen sich mit<br />
einer Geschwindigkeit von ca. 3,87 km/s in einer Höhe von ca. 20200km und benötigen für<br />
einen Umlauf 12 Stunden. Es sind jeweils 5 bis 11 Satelliten gleichzeitig sichtbar.<br />
Beispielsweise waren in Deutschland, genau genommen in Leipzig, am Montag den<br />
21.April.2003 um 10:58:01 Uhr 9 Satelliten sichtbar[4].<br />
Aktuell sind sog. II/IIA- und IIR-Block Satelliten im Einsatz. Im Jahr 2004 kommt eine<br />
modifizierte Variante des IIR-Typs zum Einsatz mit der Bezeichnung IIR-M. Eine neue<br />
Satelliten-Generation mit der Bezeichnung IIF ist für 2006 vorgesehen.<br />
Das Kontrollsegment<br />
Die GPS-Satelliten werden über unterschiedliche Bodenstationen in ihrer Funktionalität<br />
überwacht und gesteuert. Das Kontrollsegment besteht aus einer Master Control Station<br />
(MCS), Monitorstationen und Bodenantennen. Die Monitorstationen haben eine präzise feste<br />
Position und eine Atomuhr, die mit der Systemzeit synchronisiert ist. Sie empfangen Signale<br />
der Satelliten und berechnen Korrekturdaten. MCS sammelt die Korrekturdaten der<br />
Monitorstationen, berechnet daraus Korrekturinformationen für die Satelliten (z.B. Systemzeit,<br />
Position und Bahndaten) und sendet die Informationen über Bodenstationen zu den<br />
Satelliten.<br />
Das Benutzersegment<br />
Es umfasst die Benutzer mit ihren GPS-Empfängern. Dem Benutzer werden die Position,<br />
Geschwindigkeit und die Uhrzeit zur Verfügung gestellt. Es werden eine Vielzahl von GPS-<br />
Empfängern angeboten - fortschreitende Miniaturisierung und Preisverfall. Neben den<br />
Standalon-Geräten stehen Geräte zum Anschluß an PDAs, Notebooks oder zum Einbau in<br />
Fahrzeugen zur Verfügung. Mittlerweilen gibt es auch bereits Uhren mit integrierten GPS.<br />
(Die Empfänger beginnen preislich ab 150.- €. Stand: 2003)<br />
3.3 GPS-<strong>Dienste</strong><br />
Die Satellitennavigation basiert auf dem Einweg-Verfahren. Die Satelliten senden ein Signal<br />
aus und der Benutzerempfänger ermittelt daraus die Position.<br />
Dabei stellen die Satelliten 2 <strong>Dienste</strong> bereit:<br />
• Standard Positioning Service (SPS): Dieser Dienst stellt für alle Benutzer (insbesondere<br />
zivile Nutzer) frei zur Verfügung und wurde früher als Coarse/Acquisition(C/A)-Code<br />
bezeichnet. In früheren Zeiten (bis zum 1.5.2000) wurde dieser Dienst durch die sog.<br />
Selective Availability (SA) künstlich verfälscht, damit hat die US-Armee verhindert<br />
anderen Streitkräften eine zu genaue Positionsbestimmung zu ermöglichen.<br />
• Precise Positioning Service (PPS): Dieser Dienst ist verschlüsselt und damit nur autorisierten<br />
Benutzern zugänglich, wie die US-Armee und die Nato-Verbänden (früher als<br />
Precision(P)-Code bezeichnet).<br />
Tabelle 3-1 gibt die Genauigkeiten dieser <strong>Dienste</strong> an. Die Genauigkeiten sind dabei mit einer<br />
Wahrscheinlichkeit von 95% angeben, d.h. 95% der Messungen über einen Zeitraum von 24<br />
Stunden befinden sich innerhalb der angegebenen Messgenauigkeit.
23 J. Zeiser<br />
Dienst Genauigkeit horizontal Genauigkeit vertikal<br />
PPS 22 m 27,7 m<br />
SPS mit SA 100 m 156 m<br />
SPS ohne SA 25 m 43 m<br />
Tabelle 3-1: Genauigkeiten bei der Positionsbestimmung [1]<br />
Die Träger-Signale für diese <strong>Dienste</strong> sind im L-Band (1 bis 2GHz) angesiedelt. (Die<br />
Korrektursignale der MCS, die vom Boden zum Satelliten gesendet werden, arbeiten<br />
hingegen im S-Band (2 bis 4GHz)).<br />
Die Grundfrequenz der Atomuhren (10.23 MHz) stellt sowohl für die beiden Trägerfrequenzen<br />
L1 (1575.42 MHz) und L2 (1227.6 MHz) als auch für den SPS-Code (1.023<br />
MHz) und den PPS-Code (10.23 MHz) die Ausgangsfrequenz dar[3]. Der PPS-Code wird auf<br />
beide Träger L1 und L2 aufmoduliert. Der SPS-Code wird hingegen nur auf L1 zur<br />
Verfügung gestellt. Die GPS-Nachrichten werden mit 50 Hz auf beiden Signalen bereitgestellt.<br />
Abbildung 3-4 veranschaulicht dies.<br />
L1: 1575.42 MHz<br />
* 154<br />
* 120<br />
Grundfrequenz<br />
10.23 MHz<br />
L2: 1227.60 MHz<br />
* 0.1<br />
* 1<br />
SPS: 1.023 MHz<br />
+<br />
GPS-Navigationsnachricht: 50 Hz<br />
+<br />
PPS: 10.23 MHz<br />
L1-Signal<br />
L2-Signal<br />
Abbildung 3-4: Die Signalstruktur bei GPS<br />
Damit der Empfänger ein Signale einem Satelliten zuordnen kann, sendet jeder Satellit einen<br />
eindeutigen Code aus, genannt Pseudo Random Noise (PRN). Der Empfänger kennt alle<br />
PRN-Codes und kann sie aus den überlagerten Signalen aller Satelliten herausfiltern. (Die<br />
PRNs sind so entworfen worden, dass sie sich nicht gegenseitig stören.) Das PRN-Signal<br />
ermöglicht dem Empfänger die Signallaufzeit und damit die Entfernung zum Satelliten zu<br />
ermitteln.<br />
Die Messung der Signallaufzeit erfolgt durch Verschiebung des eigenen PRN im Empfänger.<br />
Abb. 3-5 a.) stellt das vom Satelliten gesendete und Abb. 3-5 b.) das empfangene PRN-Signal<br />
dar. Der Empfänger produziert ein internes PRN-Referenz-Signal Abb. 3-5 c.)[3]. Der<br />
Empfänger verschiebt es solange bis es sich mit dem empfangenen Signal deckt. Die<br />
gemessene Signallaufzeit enthält dabei eine Empfängeruhrzeit-Abweichung (von der<br />
Systemzeit) ∆t U<br />
. Diese Abweichung wird durch Verwendung des vierten Satelliten (siehe<br />
w.o.) bereinigt.
24 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />
Abbildung 3-5: Signallaufzeitmessung [3]<br />
Weitere Entwicklungen bei den GPS-Signalen[6]:<br />
Die IIR-M-Block Satelliten werden ein neues Militärsignal (M-Code) zur Verfügung stellen.<br />
Es wird sowohl auf L1 als auch auf L2 gesendet. Weiters wird dann auch auf L2 ein ziviles<br />
Signal (LC2) bereit gestellt. LC2 ermöglicht neben höherer Verfügbarkeit und genauerer<br />
Positionierung auch die GPS-Ortung in Gebäuden und Waldgebieten.<br />
Mit der Einführung der IIF-Satelliten wird ein neuer rein ziviler Kanal L5 (1176.45 MHz)<br />
unterstützt, damit stehen für zivile Anwendungen drei Kanäle offen.<br />
4 Verfahren zur verbesserten Positionsbestimmung<br />
In die Messungen gehen zahlreiche Fehler ein, die bedeutendsten sind: Uhrenfehler (Satellit),<br />
Abweichung von der Umlaufbahn, Troposphäre, Ionosphäre und Multipath-Fehler. Um eine<br />
höhere Genauigkeit zu erreichen, wurden daher zusätzliche Verfahren entwickelt.<br />
4.1 Differential Global Positioning System (DGPS)<br />
Beim DGPS-Verfahren werden dabei zusätzliche Stationen auf der Erdoberfläche<br />
eingerichtet. Solche Stationen werden als Referenzstationen bezeichnet. Abbildung 4-1 zeigt<br />
das Prinzip.<br />
Die exakte Position der Referenzstation ist bekannt. Führt nun die Station eine Positionsbestimmung<br />
mit GPS durch, so ergibt sich gegenüber der exakten Position eine Differenz.<br />
Anhand dieser Differenz werden Korrekturdaten ermittelt und an die Benutzer im Bereich der<br />
Referenzstation übermittelt. Das Verfahren beruht auf der Überlegung, dass die Benutzer in<br />
der Nähe der Referenzstation ähnliche Fehler haben. Die Korrektur erfolgt mit Hilfe der<br />
Pseudo-Entfernung.<br />
Dabei ermittelt die Referenzstation zu jeden Satelliten i die Pseudo-Entfernung P i<br />
. Die exakte<br />
Entfernung zum Satellit i stellt R i<br />
dar. Der Benutzer empfängt nun von der Referenzstation<br />
für jeden Satelliten i einen Korrekturwert ∆P i<br />
=P i<br />
-R i<br />
.
25 J. Zeiser<br />
Abbildung 4-1: Differenzielles GPS auf Basis einer Referenzstation [3]<br />
Der Benutzer zieht den empfangenen Korrekturwert von seiner Pseudo-Entfernung zu den<br />
Satelliten i ab und erhält damit eine durch die Referenzstation korrigierte Position<br />
P U<br />
korr i<br />
=P U i<br />
-∆P i<br />
. Die Genauigkeit hängt maßgeblich von der Entfernung zum Korrektursender<br />
ab.<br />
In Deutschland wird der kostenpflichtige Satellitenpositionierungsdienst (SAPOS) der<br />
deutschen Landesvermessung angeboten[4]. SAPOS richtet einen permanent betriebenen,<br />
multifunktionalen DGPS-Dienst ein. Dieser Service wird mit hoher Zuverlässigkeit<br />
flächendeckend verfügbar sein. Grundlage des Systems bildet ein Netz von GPS-Referenzstationen.<br />
Es werden u.a. zwei Echtzeit-<strong>Dienste</strong> (EPS und HEPS) mit folgender Genauigkeit<br />
angeboten: Der Dienst EPS-SAPOS bietet bei einer Entfernung bis 500km von der<br />
Basisstation eine Genauigkeit von 1 bis 3m und der Dienst HEPS-SAPOS sogar eine<br />
Genauigkeit von 1-5cm allerdings nur bis 25km Entfernung.<br />
4.2 Wide Area Augmention System (WAAS)<br />
WAAS wird in den USA eingesetzt und arbeitet ähnlich wie DGPS. Mit Hilfe von Monitorstationen<br />
mit exakten Positionen werden Korrekturdaten berechnet, die an die Benutzer<br />
gesendet werden. Die Übertragung erfolgt mit geostationären Satelliten (Abbildung 4-2).<br />
4 GPS-Satelliten<br />
geostationärer Satellit<br />
(Inmarsat)<br />
Korrekturdaten<br />
Benutzer<br />
Monitorstationen<br />
MCS<br />
Abbildung 4-2: Das Prinzip von WAAS
26 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />
Die Monitorstationen empfangen permanent GPS-Signale und geben diese Daten an die MCS<br />
weiter. Diese berechnet die Korrekturdaten und sendet sie an den geostationären Satelliten.<br />
Dieser Satellit sendet auf der L1-Frequenz mit einem freien PRN-Code die Korrekturdaten an<br />
die Benutzer.<br />
5 Weitere Systeme und Entwicklungen<br />
GLONASS (Global Navigation Satellite System)<br />
GLONASS wurde von den Streitkräften der ehemaligen UDSSR entwickelt und bildet das<br />
russische Gegenstück zum amerikanischen GPS-System.<br />
EGNOS (European Geostationary Navigation Overlay Service)<br />
Dieses System stellt die erste Stufe eines europäischen Satellitennavigationssystems dar. Es<br />
stellt Korrekturdaten zu den Systemen GPS und GLONASS zur Verfügung und ist zum<br />
WAAS der USA kompatibel. EGNOS ist derzeit noch im Testbetrieb und soll 2004 voll<br />
operationsfähig sein (Genauigkeit ~3m).<br />
MSAS (Multi-Functional Satellite Augmentation System)<br />
Es wird von Japan u.a. asiatischen Ländern aufgebaut und soll 2005 betriebsbereit sein.<br />
WAAS, EGNOS und MSAS werden miteinander kompatibel sein.<br />
GALILEO<br />
Die zweite Stufe eines europäischen Navigationssystems stellt GALILEO dar. Es ist ein<br />
eigenständiges von GPS und GLONASS unabhängiges System. GALILEO soll höher<br />
entwickelt, leistungsfähiger und sicherer sein als das amerikanische GPS.<br />
GALILEO beruht auf einer Konstellation von dreißig Satelliten, die sich auf einer<br />
Umlaufbahn in 24 000 km Höhe befinden, die gesamte Erdkugel abdecken und durch ein<br />
Netz von Bodenstationen kontrolliert werden. Jeder Satellit ist mit einer Atomuhr ausgerüstet,<br />
die eine äußerst genaue Zeitbestimmung und eine auf einen Meter genaue Standortbestimmung<br />
jedes beweglichen oder unbeweglichen Objekts ermöglicht.<br />
Phasen<br />
• Entwicklungsphase 2002-2005<br />
• Errichtungsphase 2006-2007<br />
• Betriebsphase ab 2008<br />
<strong>Dienste</strong><br />
GALILEO bietet mehrere Dienstleistungsebenen mit offenem oder mehr oder weniger<br />
eingeschränktem Zugang an:<br />
• ein offener und kostenloser Basisdienst (Open Service - OS), insbesondere bestimmt für<br />
Anwendungen für die breite Öffentlichkeit und für Dienstleistungen von allgemeinem<br />
Interesse. Dieser Dienst ist vergleichbar mit dem zivilen GPS-Signal, das für solche<br />
Anwendungen kostenlos ist, allerdings mit einer verbesserten Qualität und Zuverlässigkeit;<br />
• ein kommerzieller Dienst (Commercial Service – CS), der die Entwicklung von<br />
Anwendungen für den kommerziellen Systembetrieb gestattet und der somit gegenüber
27 J. Zeiser<br />
dem Basisdienst – insbesondere was die Funktionsgarantie angeht – ein höheres<br />
Leistungspotential bietet;<br />
• einen „Safety-of-Life"-Dienst (SoL) sehr hoher Qualität und Integrität für sicherheitskritische<br />
Anwendungen wie z. B. den Luft- oder den Seeverkehr;<br />
• einen „Search-and-Rescue"-Dienst (SAR), der die Hilfssysteme in auftretenden Not- und<br />
Rettungssituationen deutlich verbessern soll;<br />
• einen Öffentlichen regulierten Dienst (Public Regulated Service PRS), der verschlüsselt<br />
ist und resistent gegenüber Störungen und Interferenzen und in erster Linie für die<br />
Erfordernisse der öffentlichen Einrichtungen im Bereich des Zivilschutzes, der nationalen<br />
Sicherheit und der Wahrung des Rechts bestimmt ist, die einen hohen Grad an <strong>Dienste</strong>kontinuität<br />
benötigen.<br />
6 Anwendung<br />
„Die Entwicklungsaussichten sind enorm. Wie auch schon beim Mikrocomputer<br />
vor 20 Jahren oder beim Internet vor 10 Jahren können wir uns heute die meisten<br />
Anwendungsmöglichkeiten wahrscheinlich noch gar nicht vorstellen[5].“<br />
In diesem Sinn ist die aktuelle Entwicklung bei den GPS-Chips überaus vielversprechend. Ein<br />
GPS-Modul kann zukünftig auf einem Chip mit 49 Quadrat-Millimeter realisiert werden und<br />
wird zu einem Preis von 10.- $ erhältlich sein. Damit ist die technische und ökonomische<br />
Voraussetzungen erfüllt, GPS flächendeckend in Handys, PDAs und Uhren einzubauen und<br />
somit ist die Integration der Satellitenortung in fast jedes elektronische Gerät zu erwarten.<br />
Aber bereits heute ist GPS in vielen Bereichen, wie z.B. Wissenschaft und Forschung,<br />
Wirtschaft und Industrie, Land- und Forstwirtschaft, Touristik und Freizeit, Militär usw., im<br />
Einsatz.<br />
Anwendungsbeispiele aus verschiedenen Anwendungsbereichen:<br />
• Straßen- und Seeverkehr<br />
Navigation und Routenplanung, sowohl in privaten als auch in Unternehmensbereich<br />
• Geodatenerfassung<br />
• Flächennutzung und Planung in Land- und Forstwirtschaft<br />
• Militär<br />
• Maschinensteuerungs- und -leitsysteme<br />
• Touristik und Freizeit<br />
Outdoor-Branche, Schwammerlsuchen<br />
Diese wenigen Anwendungsbeispiele lassen bereits die Breite und Vielfalt der aktuellen<br />
Einsatzgebiete erkennen. Aufgrund der zu erwartenden technischen und kostenmäßigen<br />
Verbesserungen bei den GPS-Empfängern, lässt die Zukunft eine spannende Entwicklung der<br />
Positionsbestimmung mit Satellitennavigation erwarten.
28 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />
Abkürzungen<br />
CS<br />
Commercial Service<br />
C/A-Code Coarse/Acquisition-Code<br />
DGPS<br />
Differential Global Positioning System<br />
EGNOS<br />
European Geostationary Navigation Overlay Service<br />
GLONASS Global Navigation Satellite System (bzw. Globalnaya Navigationnaya<br />
Sputnikovaya Sistema)<br />
GPS<br />
Global Positioning System<br />
INMARSAT International Maritime Satellite Organisation<br />
MCS<br />
Master Control Station<br />
MSAS<br />
Multi-Functional Satellite Augmentation System<br />
NAVSTAR GPS Navigation System with Timing and Ranging Global Positioning<br />
System<br />
NNSS<br />
Navy Navigation Satellite System<br />
OS<br />
Open Service<br />
PPS<br />
Precise Positioning Service<br />
PRS<br />
Public Regulated Service<br />
PRN<br />
Pseudo Random Noise<br />
P-Code<br />
Precision-Code<br />
SA<br />
Selective Availability<br />
SAPOS<br />
Satellitenpositionierungsdienst<br />
SAPOS EPS Satellitenpositionierungsdienst Echtzeit Positionierungs-Service<br />
SAPOS HEPS Satellitenpositionierungsdienst Hochpräziser Echtzeit Positionierungs-<br />
Service<br />
SAR<br />
Search- and Rescue<br />
SoL<br />
Safety-of-Life<br />
SPS<br />
Standard Positioning Service<br />
WAAS<br />
Wide Area Augmention System<br />
WGS84 World Geodetic System 1984
29 J. Zeiser<br />
Referenzen<br />
[1] J. Roth: Mobile Computing<br />
FernUniversität Hagen, Hagen, 2003<br />
[2] M. Bauer: Vermessung und Ortung mit Satelliten: NAVSTAR-GPS und andere<br />
satellitengestützte Navigationssysteme<br />
Wichmann Verlag, Heidelberg, 1997<br />
[3] W. Mansfeld: Satellitenortung und Navigation: Grundlagen und Anwendung<br />
globaler Satellitennavigationssysteme<br />
Vieweg Verlag, Braunschweig, 1998<br />
[4] „GPS-Informations- und Beobachtungssystem“, Bundesamt für Kartographie<br />
und Geodäsie Außenstelle Leipzig, 24.4.2003<br />
http://gibs.leipzig.ifag.de<br />
[5] „GALILEO Europäisches Satellitennavigationssystem“, Generaldirektion<br />
Energie und Verkehr der EU, 24.4.2003<br />
http://europa.eu.int/comm/dgs/energy_transport/galileo/index_de.htm<br />
[6] „USNO GPS Timing Operations“, U.S. Naval Observatory, 24.4.2003<br />
http://tycho.usno.navy.mil/gps.html
Geoinformationssysteme und Geo-Datenbanken im<br />
Überblick<br />
Joachim Marwinski<br />
Oberhausen<br />
jm.ob@uni-duisburg.de<br />
Zusammenfassung: Geoinformationssysteme (GIS) speichern Informationen zusammen<br />
mit ihrer geographischen Position ab. Dazu bedienen sie sich der <strong>Dienste</strong> von<br />
Datenbanksystemen, um in konsistenten Daten ein wirtschaftliches Wiederauffinden zu<br />
ermöglichen. GIS pflegen Daten ein und werten sie unter Berücksichtigung ihrer<br />
geographischen Komponente aus. Die Auswertungen dienen dem Anwender als Mittel<br />
der Entscheidungsfindung. Die Verwendung dünner Klienten ermöglicht einen vom<br />
Betriebssystem unabhängigen Einsatz mit Zugriff auf die Daten sogar über das Internet,<br />
während die Daten zentral gehalten werden. Angewandt wird GIS insbesondere von Verund<br />
Entsorgern, sowie von Kommunen.<br />
1 Geodaten<br />
Ein Teil der Umwelt soll abgebildet werden, um diese Abbildung mit Hilfe einer<br />
(elektronischen) Datenverarbeitungsanlage innerhalb eines GIS auszuwerten. Auf der Grundlage<br />
dieser Auswertung werden Entscheidungen getroffen (einen Kanal zu bauen, ein Tollwutgebiet<br />
zu impfen).<br />
1.1 Betrachtung von Objekten<br />
Realweltliche Objekte haben bestimmte Eigenschaften (Attribute) und Fähigkeiten, die in<br />
einem Objektmodell abgebildet werden können.<br />
Um ein solches Modell zu erstellen, werden die Eigenschaften eines Objektes identifiziert und<br />
derart zusammengefasst, dass Klassen von Objekten benannt werden können, die unterschiedliche<br />
Objekttypen enthalten. Diese Klassen können zueinander in Abhängigkeit stehen,<br />
sodass Eigenschaften und Fähigkeiten generalisierter Objekte an spezialisierte Objekte vererbt<br />
werden. Es entsteht auf diese Weise eine Objekthierarchie der Vererbung.<br />
Die Werte der Objekteigenschaften können auch die Beziehungen der Objekte zueinander<br />
aufnehmen, wie z.B. enthalten, zugehörig oder verbunden zu sein.<br />
1.1.1 Objektklassen<br />
Der ATKIS-Objektkatalog [ATK03] stellt einen Versuch der Normung von (Geo-) Objekten<br />
einer realweltlichen Landschaft dar. Normung vereinfacht die Austauschbarkeit von Daten.<br />
Im ATKIS-Objektkatalog. sind z.B. Objekte aus dem Siedlungswesen kategorisiert. Die<br />
Eigenschaften der Objekte und auch die Objektbildungsregeln sind für jede Objektklasse festgelegt,<br />
hier einige beispielhafte Eigenschaften
32 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />
GLS Anzahl der Streckengleise<br />
ATP Archäologischer Typ<br />
ADB Art der Bahn<br />
AFT Art der Fahrbahntrennung<br />
AGK Art der Geländekante<br />
AGL Art der Geländelinie<br />
AGA Art der Gewässerachse<br />
APG Art der Grenze<br />
WWA Art der wasserwirtsch. Anlage<br />
AGP Art des Geländepunktes<br />
AUS Brücke, Über/Unterführung<br />
BNA Bahnart<br />
BFK Bahnhofskategorie<br />
BKT Bahnkategorie<br />
BKL Bahnklassifizierung<br />
KON Bauart, Konstruktionsmerkmal<br />
Über die Definition des jeweiligen Objektes wird die Klassifizierung eines zu betrachtenden<br />
realweltlichen Objektes ermöglicht. Ein Beispiel aus dem ATKIS-Objektartenkatalog<br />
(ATKIS-OK) Teil D1: ATKIS-OK 50:<br />
Definition<br />
'Gebäude' ist eine selbstständig benutzbare, überdeckte bauliche Anlage, die von Menschen<br />
betreten werden kann und geeignet oder bestimmt ist, dem Schutz von Menschen, Tieren,<br />
Sachen oder der Produktion von Wirtschaftsgütern zu dienen<br />
Erfassungskriterium Treib-, Gewächshäuser Fläche >= 2,5 ha, sonst vollzählig<br />
GFK Gebäudefunktion<br />
1131 Schloß<br />
1138 Burg, Festungsgebäude<br />
1151 Krankenhaus<br />
1199 Empfangsgebäude<br />
1300 Wohngebäude<br />
1462 Jugendherberge<br />
1463 Hütte (mit Übernachtung)<br />
1471 Gaststätte<br />
1700 Wirtschaftsgebäude<br />
2515 Wasserbehälter<br />
2732 Almhütte<br />
2741 Gewächs-, Treibhaus<br />
9999 sonstige<br />
L HRG Herausragendes Gebäude<br />
1000 Hochhaus<br />
9997 Attribut trifft nicht zu<br />
L NTZ Nutzung<br />
1200 öffentlich<br />
L ZUS Zustand<br />
1700 verfallen, zerstört ('Ruine')<br />
Der Katalog definiert für die einzelnen Objekte Schlüssel, die eine eindeutige Zuordnung zu<br />
einer Objektklasse ermöglichen.<br />
Weitere im ATKIS OK 50 definierte Objektklassen:<br />
2000 Siedlung<br />
2324 Kran<br />
2100 Baulich geprägte Fläche<br />
2325 Pumpe, Pumpstelle<br />
2200 Siedlungsfreiflächen<br />
2326 Wasserrad<br />
2300 Bauwerke und sonstige Einricht. 2327 Windrad<br />
2301 Tagebau, Grube, Steinbruch<br />
2328 Solarzellen<br />
2314 Absetzbecken, Schlammteich,... 2331 Archäologische Fundstätte<br />
2315 Gebäude<br />
2332 Denkmal, Denkstein, Standbild<br />
2323 Dock<br />
2333 Bildstock, Wegekreuz, Gipfelkreuz
33 Joachim Marwinski<br />
Abbildung 13: DLM mit Ackerfläche 4101 [ATK03a]<br />
Mithilfe derart definierter Objekte lassen sich Landschaften in einem Digitalen Landschafts-<br />
Modell (DLM) beschreiben.<br />
Die realweltlichen Objekte einer Landschaft werden dazu auf ein DLM abgebildet, indem die<br />
einzelnen Objekte einer Objektklasse zugeordnet, und über die dort definierten Eigenschaften<br />
beschrieben werden.<br />
Im obenstehenden Beispiel sehen wir einige Flächen mit der Nummer 4101, die im ATKIS-<br />
OK als „4101 Ackerland“ der Objektgruppe „4100 Vegetationsflächen“ des Objektbereiches<br />
„4000 Vegetation“ zugeordnet sind.<br />
In der Kategorisierung steckt bereits ein großer Teil an fachlichem Wissen, ebenso in der<br />
Zusammensetzung der Eigenschaften der Objekte.<br />
Objektbereiche und Objektgruppen<br />
3500 Bauw. f. Verkehr. u. Kommunikation<br />
2100 Baulich geprägte Fläche<br />
4200 Bäume und Büsche<br />
2300 Bauwerke u. sonstige Einrichtungen<br />
6200 Bes. Geländeoberflächenformen<br />
5200 Besondere Objekte in Gewässern<br />
6100 Digitales Geländemodell (DGM)<br />
5300 Einr. und Bauwerke an Gewässern<br />
3300 Flugverkehr<br />
4000 Vegetation<br />
4100 Vegetationsflächen<br />
3000 Verkehr<br />
7100 Verwaltungsgebiete<br />
5100 Wasserflächen
34 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />
In vielen Bereichen, die durch ein GIS erfasst werden können, gibt es keine normierten<br />
Objektklassen und Objekte. Aber auch hier werden Objekte über ihre Eigenschaften beschrieben,<br />
wie z.B. in der Epidemiologie am Beispiel der Nationalen Tollwutdatenbank [TOL]:<br />
Stammdaten des Tieres<br />
Identifikationsschlüssel<br />
Tierart<br />
Geschlecht<br />
Alter<br />
Eingangsdatum<br />
Erlegungs- bzw. Fundort (8-stelliger Gemeindeschlüssel)<br />
Nummer der Immunisierungskampagne<br />
Köder (ausgelegter Köder im Impfgebiet)<br />
Impfstoff (ausgelegter I. im Impfgebiet)<br />
Welche Details in den Objekteigenschaften, hier denen des Tieres, beschrieben werden, ist<br />
Sache der fachlichen Kompetenz, mit der die Objektbeschreibung erstellt wurde.<br />
1.1.2 Identität<br />
Jedes einzelne Objekt hat seine Identität. Eine Objektklasse definiert die relevanten<br />
Eigenschaften der ihr angehörigen Objekte, während das einzelne Objekt selbst immer<br />
einzigartig und unverwechselbar ist.<br />
Stehen fünf gleiche Wassergläser in einer Reihe auf einem Tisch, so gehören sie zur<br />
Kategorie „Wasserglas“. Sie können sich in der Eigenschaft „Füllungsgrad“ unterscheiden,<br />
möglicherweise sind sie alle leer.<br />
Aber auch im Falle der Gleichheit aller Eigenschaften ist das linke der Gläser nicht das selbe<br />
Glas wie das rechte, denn es hat nicht seine Identität. Wird das linke zerstört, so bleibt das<br />
rechte erhalten.<br />
1.1.3 Bewegliche und unbewegliche Objekte<br />
Objekte können in bewegliche und unbewegliche (z.B.: Immobilien) unterschieden werden.<br />
Bei unbeweglichen Objekten kann die Identität anhand der räumlichen Position ermittelt<br />
werden, bei beweglichen (z.B. Pakete) ist dazu noch z.B. eine Zeitangabe erforderlich.<br />
Vorausgesetzt ist dabei eine genügend feine Auflösung der Positions- oder Zeitinformationen.<br />
Eine Auflösung im Meter-Bereich ist für das obige Beispiel mit den Gläsern nicht ausreichend,<br />
da sich mehrere (gleiche) Gläser innerhalb eines Quadratmeters Fläche befinden<br />
können. Innerhalb eines Quadratzentimeters könnte sich aber tatsächlich nur ein Wasserglas<br />
befinden.<br />
Allerdings gilt dies nur für in allen Eigenschaften gleiche Objekte, wie sich am Beispiel der<br />
russischen Matroschka-Puppen vergegenwärtigen lässt, bei denen wieder und wieder eine<br />
gleiche kleinere Puppe in einer größeren steckt.<br />
1.1.4 Keine Objekte<br />
Nicht zu den Objekten zählen hier z.B. Flüssigkeiten, Gase oder (elektrische) Ströme.<br />
Auch Weizenkörner sind in dem von uns betrachteten Modellierungsbereich keine<br />
eigenständigen Objekte, während ein Gefäß mit Weizen (z.B. Silo) oder eine Leitung, durch<br />
die ein bestimmter Strom fließt, ein Objekt mit einer bestimmten Eigenschaft (% Füllung mit<br />
Weizen, Strom in Ampere) darstellt.<br />
1.1.5 Koordinaten<br />
Wenn wir von Geodaten sprechen, so enthalten diese Koordinaten. Die Koordinaten beziehen<br />
sich auf ein bestimmtes Koordinatensystem, welches entweder vorausgesetzt wird, oder<br />
ausdrücklich in den Daten angegeben sein muss.
35 Joachim Marwinski<br />
Ein Koordinatensystem kann beispielsweise für ein Fabrikgelände auf einen der Grenzsteine<br />
als Nullpunkt bezogen sein. Dann sind die Koordinaten zwar innerhalb des Fabrikgeländes<br />
brauchbar, aber können nicht ohne Umrechnungen in ein umfassenderes Koordinatensystem,<br />
z. B. das der Kommune überführt (durch rechnerische Koordinatentransformation) werden.<br />
Daher werden Koordinaten oft in dem in Deutschland gültigen Gauß Krüger Koordinatensystem<br />
angegeben. Die Koordinaten bestehen im Zweidimensionalen aus Rechtswert und<br />
Hochwert, ggf. kommt die Höhe als dritte Dimension hinzu.<br />
Die amtlichen topographischen Karten in Deutschland basieren auf einer transversalen Mercatorprojektion.<br />
1.2 Koordinaten: Das Gauß Krüger System<br />
Das deutsche Gauß Krüger System [BAS00], [WASY] teilt die Fläche der Bundesrepublik in<br />
Meridianstreifensysteme ein, die um die Zentralmeridiane 6°, 9°, 12° und 15° eine<br />
Ausdehnung von jeweils 1,5° (entspricht etwa 100 km) haben. An den Überlappungsstellen<br />
der einzelnen Meridianstreifensysteme werden die Gauß Krüger Koordinaten, deren Fehler<br />
(Längenverzerrung) sich mit zunehmendem Abstand von Zentralmeridian vergrößert,<br />
aufeinander abgestimmt. Gauß Krüger Koordinaten werden in metrischen Werten angegeben.<br />
Abbildung 14: Gauß Krüger [WASY]
36 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />
Abbildung 15: Meridianstreifen [BAS00]<br />
Der Rechtswert gibt die Lage eines Punktes in West-Ost-Richtung an und bezieht sich auf den<br />
Zentralmeridian des jeweiligen Meridianstreifensystems. Der Zentralmeridian entspricht dem<br />
Wert 500.000 m oder 500 km, damit für westlich des Zentralmeridians gelegene Punkte keine<br />
negativen Werte entstehen. Die erste Ziffer des Rechtswertes ergibt mit 3 multipliziert den<br />
Zentralmeridian des Meridianstreifensystems.<br />
Der Hochwert gibt die Lage eines Punktes in Nord-Süd-Richtung an und entspricht der<br />
Entfernung eines Punktes von Äquator.[HAK82]<br />
Bei der Projektion der Erdoberfläche auf eine Karte ist zu berücksichtigen, dass der<br />
betrachtete Kartenausschnitt in Wirklichkeit nicht flach ist, sondern wie ein Stück<br />
Orangenschale (in der Mitte breit, mit zwei Spitzen) gewölbt ist. Die Abweichungen<br />
(„Spannungen“) sind in der Mitte gering und an den Spitzen größer. Deutschland liegt eher<br />
„in der Mitte“ als an den Spitzen (Nord-Süd-Pole).<br />
Somit sind alle zweidimensionalen Abbildungen nur Näherungen. Wichtig ist, dass die<br />
Abweichungen innerhalb eines tolerierten Bereiches liegen. Das wird durch eine Einteilung in<br />
genügend schmale Streifen erreicht, die im Gauß Krüger System 3° beträgt.<br />
Da die Erde nicht exakt die Gestalt einer Kugel, sondern eine kugelähnliche Form mit<br />
unregelmäßigen Abflachungen und Erhebungen hat, muss ihre „kartoffelähnliche“ Gestalt<br />
(Abbildung 4) angenähert werden. Die Gestalt der Erde, ihr geographischer Körper, wird<br />
Geoid genannt. [SCHW]<br />
Grundlage des deutschen Gauß Krüger Systems ist der Bessel-Ellipsoid.
37 Joachim Marwinski<br />
Abbildung 16: Figur der Erde [SCHW]<br />
Abbildung 17: Näherung Ellipsoid [STUM]<br />
Der Bessel-Ellipsoid ist kugelähnlich und nähert lokal für Deutschland möglichst ideal die<br />
Gestalt der Erde an. Mit dem Besselschen Ellipsoid werden in Deutschland Karten erstellt, die<br />
auf ca. 10 cm genau die wirklichen Verhältnisse abbilden.<br />
Der Ellipsoid WGS84, definiert einen 1984 festgelegten weltweiten mittleren Referenzellipsoiden,<br />
der u.a. in der Luftfahrt bedeutsam ist. Der Unterschied zum Bessel Ellipsoid<br />
beträgt ca. 70 m. Sein Mittelpunkt ist gegenüber dem des WGS-84 606 m entlang der x-<br />
Achse, um 23 m entlang der y-Achse, und um 413 m entlang der z-Achse verschoben<br />
[STUM].
38 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />
In der DDR wurde der Ellipsoid Krassowski verwendet, die Meridianstreifen waren 6° breit.<br />
Um Geodaten zu speichern und korrekt auswerten zu können, ist es erforderlich, die<br />
verschiedenen Lagebezugssysteme zu kennen, zu wissen, bezüglich welchen Lagesystems die<br />
Geodaten erfasst wurden, und sie ggf. umrechnen zu können. In Nordrhein Westfalen werden<br />
z.Zt. 4 Lagebezugssysteme und 2 Höhenbezugssysteme verwendet [INFNRW]:<br />
• System Preußische Landesaufnahme (Pr.LA.), auch „Potsdam Datum“ Geodätische<br />
(s.[GDÄ]) Grundlage der Lagefestpunkte in der Bundesrepublik Deutschland ist das<br />
Deutsche Hauptdreiecksnetz (DHDN). Es besteht in Nordrhein-Westfalen aus dem Block<br />
der Preußischen Landesaufnahme (Pr.LA.). Die Koordinaten der Festpunkte sind auf das<br />
Erdellipsoid von Bessel bezogen. Seit 1927 werden für die Lagefestpunkte rechtwinklige<br />
Gauß Krüger Koordinaten (y, x) in 3° breiten Meridianstreifen bestimmt. Koordinaten des<br />
Systems Pr.LA. sind Ausgangswerte für Vermessungen im Liegenschaftskataster, für<br />
topographische Karten und geographische Informationssysteme (GIS).<br />
• System Netz 1977 Zur Verringerung von Netzspannungen wurden seit 1977 die Koordinaten<br />
einiger Punkte des DHDN in Nordrhein-Westfalen verbessert und die Folgenetze<br />
mit den Gauß Krüger Koordinaten dieses Systems systematisch erneuert.<br />
• Europäisches Datum 1950 (ED 50) Das 1950 entstandene Europäische Hauptdreiecksnetz<br />
ist auf das Internationale Erdellipsoid von Hayford bezogen. Dieses westeuropaweit einheitliche<br />
Bezugssystem wird Europäisches Datum 1950 (ED 50) genannt. Die verebneten<br />
Koordinaten (North, East) mit dem Lagestatus 450 gehören zur Universalen Transversalen<br />
Mercator-Abbildung (UTM) mit 6° breiten Meridianstreifen. Das ED 50 war bis 1996<br />
Grundlage des militärischen NATO-Kartenwerks und anderer internationaler Kartenwerke<br />
• Deutsches Haupthöhennetz 1912 (DHHN 12) und 1992 (DHHN 92)<br />
Für globale und kontinentale Festpunktfelder besteht das räumliche satellitengeodätische<br />
World Geodetic System 1984 (WGS 84), das in Europa durch das einheitliche Bezugssystem<br />
European Terrestrial Reference System 1989 (ETRS 89) realisiert ist. Hierin sind auch aktive<br />
Referenzstationen des Satellitenpositionierungsdienstes (SAPOS) durch dreidimensionale, auf<br />
den Erdschwerpunkt bezogene Koordinaten (X, Y, Z) bestimmt.<br />
Die Verwendung bestimmter Lagebezugsysteme ist also auch von den fachlichen<br />
Anforderungen, insbesondere an die Genauigkeit und die an die großflächige Gültigkeit der<br />
Daten (z.B. Luftfahrt) abhängig.<br />
Undulationssysteme [WGSMAN], [INFNRW] sind für die Verknüpfung von<br />
Lagebezugssystemen mit Höhenbezugssystemen erforderlich, um die Abweichung des<br />
Abbildung 18: Undulation [WGSMAN]
39 Joachim Marwinski<br />
verwendeten Ellipsoiden von der tatsächlichen Höhe des Geoids zu kompensieren. Durch den<br />
Einfluss der Schwerkraft deformiert sich der Geoid an Stellen mit Land/ Gestein anders als an<br />
Stellen mit Wasser.<br />
Das Schwerefeld der Erde wird verursacht durch die gravitative Anziehung der Erdmasse,<br />
durch die Rotation und durch kleinere Effekte wie die Gezeiten. Die Anziehung ist am Pol um<br />
ca. 1/200 größer als am Äquator. Mit zunehmender Entfernung von den anziehenden Massen<br />
verringert sich die Anziehung; in einer Höhe von 3000 m ist sie beispielsweise um ca. 1/1000<br />
geringer als auf Meereshöhe. Das Schwerefeld weist zusätzlich globale, regionale und lokale<br />
Unregelmäßigkeiten auf, da die Masse sowohl in der Erdkruste (Gebirge, Kontinentalplatten)<br />
als auch tiefer (in Erdmantel und -kern) nicht gleichmäßig verteilt ist. [SCHW]<br />
Das Schwerefeld ist von Bedeutung für die Satellitengeodäsie, sowie auch für die<br />
Höhenbestimmung auf der Erde. Einhergehend mit dem unregelmäßigen Schwerefeld ist auch<br />
die Form der Erde unregelmäßig. Von einem Ellipsoid weicht die tatsächliche Meeresoberfläche<br />
um bis ± 100 m ab. Diese passt sich dem Schwerefeld an: Sie formt sich so, dass auf<br />
ihr (idealisiert gesprochen) kein Wasser fließt. Die vom Schwerefeld abhängige Fließrichtung<br />
des Wassers definiert auch die jeweilige lokale Horizontalebene und Lotrichtung. Deshalb<br />
beziehen wir Höhen in der Regel nicht auf ein Ellipsoid, sondern auf eine idealisierte<br />
Meeresoberfläche, den Geoid, bzw. ihre Fortsetzung in den Kontinenten. Die Höhe eines<br />
Geländepunktes ist somit der vertikale Abstand des Punktes vom Geoid [SCHW].<br />
2 Was leisten GIS?<br />
2.1 Was ist ein GIS?<br />
Es gibt viele verschiedene Definitionen von Geoinformationssystemen, eine davon, in<br />
[IMAGI] definiert, lautet:<br />
Geoinformationssystem (GIS): Ein raumbezogenes Informationssystem mit Funktionen zur<br />
Datenerfassung, -aktualisierung, -manipulation, -verwaltung und Analyse der Geodatenbestände<br />
sowie der kartographischen Darstellung raumbezogener Informationen.<br />
Diese Funktionalität dient hauptsächlich der Schaffung einer Grundlage für die Entscheidungsfindung.<br />
Ein GI-System besteht aus mehreren Komponenten, das GIS setzt sich aus Hardware und<br />
Software zusammen. Der Aufbau ist bei den sehr unterschiedlichen Anwendungsgebieten von<br />
GIS (z.B. kleines epidemiologisches Projekt bis Kataster einer großen Kommune) sehr unterschiedlich.<br />
Das folgende Modell zeigt einen möglichen Aufbau: (s.a. [CASS99])
40 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />
evtl. Rechnergrenzen<br />
Plotter<br />
Digitalisiertablett<br />
Scanner<br />
Geodatenbank<br />
DBMS<br />
Datenbank-<br />
Managementsystem<br />
SQL<br />
GIS<br />
z.B.<br />
SICAD oder<br />
Smallworld<br />
ERP<br />
z.B.<br />
SAP<br />
P<br />
D<br />
A<br />
Bilddatenbank<br />
mit<br />
Datensicherheitsverwaltung:<br />
-Zugriffsrechte<br />
-Wiederherstellung<br />
-Transaktionen<br />
HTTP/XML<br />
Server: Apache<br />
od. MS-Inform<br />
Server<br />
gewöhnliche<br />
Klienten:<br />
spezifisches<br />
Betriebssystem<br />
z.B. Oracle oder Informix<br />
PC<br />
MAC<br />
UNIX<br />
Netzwerk<br />
‚leichte’ Klienten: Netscape /<br />
Internetexplorer / Konqueror<br />
über HTTP oder XML<br />
Abbildung 19: GIS-Konfiguration<br />
Hardwarekomponenten:<br />
• Rechner (mehrere Systemrechner (Server), viele Arbeitsplatzrechner ‚Klient‘)<br />
• Netzwerk<br />
• Digitalisiertablett (zum Digitalisieren vorhandener Papier-Karten)<br />
• Plotter<br />
• Scanner<br />
• PDA (tragbarer Kleinrechner)<br />
• Arbeitsplatzdrucker (nicht dargestellt)<br />
Natürlich kann auch das gesamte System auf nur einem einzigen Rechner betrieben werden.<br />
Für einen schnellen Zugriff, gute Wartbarkeit und hohe Datensicherheit (die Systemrechner<br />
werden von EDV-Spezialisten in gegen Feuer, Einbruch und Stromausfall gesicherten Räumen<br />
betrieben) bei vielen angeschlossenen Arbeitsplatzrechnern ist das oben angegebene<br />
Modell sinnvoll. Es speichert die Daten redundanzfrei an einer zentralen Stelle.<br />
Dieses Modell zeigt die Besonderheit eines HTTP / XML Servers, der zwischen GIS und<br />
Klient (das ist die Software, die auf dem Arbeitsplatzrechner läuft und Anfragen an das GIS<br />
erzeugt bzw. Antworten darstellt) vermittelt. Diese Konfiguration erlaubt es, auf den Arbeitsplatzrechnern<br />
‚dünne‘ Klienten einzusetzen. Sie bestehen aus einem (Java-fähigem) Internet-<br />
Betrachter wie Microsoft Internet-Explorer, Mozilla oder Netscape, der mit dem jeweiligen<br />
Betriebssystem des Arbeitsplatzrechners geliefert wird und HTTP oder XML Daten anzeigen<br />
kann. Das vereinfacht die Wartung der Arbeitsplätze und erhöht die Anzahl unterstützter
41 Joachim Marwinski<br />
Betriebssysteme, schränkt aber z.B. die Möglichkeiten ein, einen PDA oder einen<br />
Arbeitsplatzscanner einzusetzen. [ROSE]<br />
Ein Beispiel für eine Konfiguration mit dünnen Klienten ist der Geodatenserver des KVR<br />
(Kommunalverband Rhein Ruhr) [KVR], der über das Internet über eine HTTP Verbindung<br />
Kartenausschnitte zeigt, und mit JAVA-Modul auch Streckenberechnungen durchführt (auf<br />
dem Arbeitsplatzrechner selbst). Im dargestellten Modell sind die Klienten mit dem GIS<br />
selbst verbunden. Möglich ist auch eine Konfiguration, die die Klienten (auch) über das<br />
ERP (Enterprise Ressource Planning) mit dem GIS verbindet. Das GIS kann ein Modul des<br />
ERP sein, sodass ein SRP (Spatial Ressource Planning) entsteht. Dadurch werden die raumbezogenen<br />
Fähigkeiten des GIS mit den geschäftsprozessoptimierten Ressourcenplanungsfähigkeiten<br />
des ERP verknüpft [GAS], [WGI].<br />
Das DBMS (Datenbank Management System), in der Regel ein relationales DBMS, bietet<br />
dem GIS über eine Sprache wie SQL seine <strong>Dienste</strong> zum Speichern und Auffinden von Daten<br />
an, die meist in relational verknüpften Tabellen gespeichert werden. Das GIS speichert seine<br />
Daten nicht selbst, sondern benutzt ein DBMS, da dieses die Datenspeicherung optimiert<br />
vornehmen kann. Es verfügt über Wiederherstellungsmechanismen (z.B. nach einem Stromausfall)<br />
und sorgt für konsistente Daten, indem es die Speicherung nicht regelkonformer<br />
Daten verhindert. Über Transaktionen wird sichergestellt, dass nur vollständige Datensätze<br />
übernommen werden. Das System DBMS ist ein vom spezialisierten Datenbankhersteller<br />
gepflegtes Modul (z.B. Oracle, Informix). Die Speicherung in einer relationalen Datenbank an<br />
einer zentralen Stelle sorgt für die Redundanzfreiheit der Daten durch Abbildung der realweltlichen<br />
Objekte auf genau eine Entsprechung (ihrer Identität, s.o.) in den Daten. Egal von<br />
welchem Klienten auf ein Objekt zugegriffen wird um es zu verändern, das DBMS sorgt<br />
dafür, dass nur die aktualisierten Daten nach der Speicherung an die anderen Klienten<br />
weitergegeben werden. Somit hat jeder Nutzer immer den Zugriff auf aktuelle Daten.<br />
2.2 Räumlicher Bezug<br />
Allen GIS gemeinsam ist der räumliche Bezug der Objekte zueinander. Im einfachsten Falle<br />
werden Objekte (Bauwerke, Strommasten, Kanaldeckel) aufgrund ihrer Koordinaten auf einer<br />
Karte dargestellt. Die Karte selbst kann dann eine Rastergrafik (eingescannte Karte) oder ein<br />
Orthofoto (aus einem Flugzeug senkrecht nach unten aufgenommen) sein [TES].<br />
Wenn der Bezug zu anderen Elementen des Geländes, z. B. in einem DGM, wichtig ist, dann<br />
handelt es sich bei den Karten, innerhalb derer das Objekt dargestellt wird, um Vektorgrafiken.<br />
Alle oder alle wichtigen Elemente der Karte sind dann in vektorisierter Form abgespeichert.<br />
Diese Elemente können in die auswertenden Berechnungen des GIS einbezogen<br />
werden. Gewonnen werden die vektorisierten Karten durch Vermessung (Tachymetrie, hohe<br />
Genauigkeit), Digitalisisierung von Orthofotos am Digitalisiertablett oder durch Einscannen<br />
und Vektorisieren von vorhandenen Papier-Karten.<br />
Es ist stark von der Anwendung abhängig, welche Daten gespeichert werden, und welche<br />
Form der Karten erforderlich ist. Vektorgrafiken erfordern einen höheren Rechenaufwand bei<br />
der Darstellung und Verarbeitung. Sie sind aber auch beliebig skalierbar, die Qualität ihrer<br />
Darstellung ist nicht von der Auflösung abhängig.<br />
Für sich betrachtet können bestimmte Eigenschaften mehrerer Objekte zueinander in Bezug<br />
gebracht werden, wie z.B. die Höhe für ISO-Linien innerhalb einer Karte ausgewertet werden<br />
kann. Es kann bei isoliert betrachteten Objekten (Messpunkten) eines DGM beispielsweise<br />
die Hangneigung berechnet werden, um eine Aussage über die Abfließgeschwindigkeit von<br />
Regenwasser zu treffen.<br />
Die Abspeicherung von miteinander vernetzten Objekten ermöglicht z.B. die Wegeplanung.<br />
Hierbei ist wichtig zu wissen, ob zwei Objekte auch tatsächlich miteinander verbunden sind.
42 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />
Für die Belange der Versorgungsunternehmen sind solche Auswertungen wichtig, z.B. bei der<br />
Stromdurchleitung.<br />
Die Zugehörigkeit eines Objektes zu einem anderen kann auch durch eine „ist enthalten in“<br />
oder „gehört zu“ Beziehung ausgedrückt werden. Die Auswertung einer solchen Beziehung<br />
liefert beispielsweise alle Objekte „Klärbecken“, die zu einer bestimmten Kläranlage gehören.<br />
Die Beispiele Wegplanung und Klärbecken zeigen, dass räumlicher Bezug allein für bestimmte<br />
Auswertungen um Enthaltenseins- und Verbindungsbeziehungen ergänzt werden muss.<br />
2.3 Anwendung<br />
Betrachten wir, wer GIS einsetzt [PDV]:<br />
Abbildung 20: GIS-Anwender [PDV]<br />
Ver- und Entsorger wie Energieversorger Strom und Gas, (Ab)wasserwirtschaft sowie Kommunen<br />
mit ihren Kataster und Tiefbauämtern und kommunale Ver-/Entsorgung sowie Telekommunikationsunternehmen<br />
sind die wichtigsten Nutzer von GIS. An den Hauptabnehmern<br />
der GIS orientiert sich auch das Angebot auf dem GIS Markt mit fertig konfektionierten<br />
Produkten und Fachschalen. Die Fachschalen sind Module zu einer Basissoftware, die<br />
unterschiedlichen fachlichen Anforderungen gerecht werden, wie z.B. Wasser, Strom, Gas,<br />
Telekommunikation, Lampen, etc..<br />
Die Fähigkeit, digitale Geländemodelle (DGM) erstellen, bearbeiten und auswerten zu können<br />
ist für Katasterämter, die Kartografie und andere Fachbereiche wie beispielsweise die Meteologie<br />
erforderlich.<br />
2.4 Fachschalen<br />
Fachschalen liefern eine unterschiedliche Sicht auf die Daten. Sie stellen verschiedene<br />
fachliche Berechnungs- und Analysemethoden zur Verfügung. Das fachliche Wissen um<br />
einen bestimmten Bereich ist in den Fachschalen verankert. Beispiele für Fachschalen:<br />
(Ab)Wasser, Strom, Gas, Lampen, Telekommunikation, allgem. „Auskunft“<br />
Die Daten, um die es hauptsächlich geht, sind von ganz unterschiedlichen Typen, wie z.B.<br />
Lampen und Kanalschächte. Fachwissen steckt in der Konstruktion der Datentypen (welche<br />
Eigenschaften sind wichtig) und in den Methoden und Berechnungen.<br />
Fachschalen sind auch verantwortlich für die Einhaltung von Planzeichnungsverordnungen,<br />
also die korrekte Darstellung der Elemente der jeweiligen Fachschale. Bemaßungen werden<br />
beispielsweise in unterschiedlichen Fachbereichen verschieden gehandhabt: mal Linien mit<br />
dünnen Kreuzen am Ende, mal Linien mit Spitzen Pfeilen.
43 Joachim Marwinski<br />
Für andere Bereiche, insbesondere in der Forschung, existieren keine Fachschalen (zu kommerziellen<br />
Produkten), sondern das GIS selbst hat das fachliche Wissen in sich, d.h., das GIS<br />
ist spezialisiert.<br />
Alle GIS können unterschiedliche Informationsebenen darstellen. Damit werden Objekte aufgrund<br />
verschiedener Kriterien ein- oder ausgeblendet. Dadurch kommen thematische Sichten<br />
zustande, wie z.B. die aus den Atlanten bekannte topologische Sicht, die politische Sicht, Bodenschätze,<br />
historische Grenzen, ...<br />
Im Gegensatz zu den Fachschalen handelt es sich dabei aber nicht um völlig verschiedene<br />
Objekttypen, die auch unterschiedliche Methoden erfordern.<br />
Fachschalen werden innerhalb eines Unternehmens oder einer Behörde von den jeweils zuständigen<br />
Abteilungen genutzt. Der GIS-Report [BUH02] gibt Auskunft über Anwendungsgebiete<br />
und vorhandene Fachschalen der Softwareprodukte auf dem Markt.<br />
2.5 Methoden<br />
Ein GIS wendet fachliche Methoden auf seine Daten an. Die Methoden bündelt fachliches<br />
Wissen, z.B. um die Ausbreitung von Epidemien oder um die effiziente Reinigung eines<br />
Kanalnetzes.<br />
Analytische wie auch prognostische und statistische Verfahren werden angewandt um<br />
• Daten zusammenzufassen<br />
• Eine Vorhersage zu treffen<br />
• Spezielle Objekte zu finden<br />
• Objektzusammenhänge zu ergründen<br />
• Kürzeste Wegstrecken zu ermitteln<br />
• Statistische Werte (Mittelwert, Median, Perzentile) von Objekten (mit bestimmten<br />
Eigenschaften) zu berechnen<br />
Solche Auswertungen dienen oft als Entscheidungshilfen, z.B., ob<br />
• ein Gebiet gegen Tollwut geimpft wird<br />
• alle Haltungen („Kanal“ von einem Schacht zum anderen) eines Stranges (alle<br />
hintereinander liegende) gereinigt werden<br />
• ein günstiges Hotel aufgrund seiner Lage gebucht wird<br />
gelegentlich auch lediglich der Information:<br />
• Netzverfolgung bei Leitungsbruch (der „richtige“ Schalter muss gefunden werden)<br />
• Umleitung um Baustelle<br />
3 Geodatenbanken<br />
Geodatenbanken stellen Informationen bereit, die mit einem GIS gepflegt werden. Entweder<br />
werden die Daten vom GIS selbst ausgegeben, oder Klienten stellen Anfragen an die Geodatenbank<br />
oder über das GIS an die Geodatenbank. Einige Beispiele:<br />
• KVR (Kommunalverband Rhein Ruhr) [KVR] liefert Stadtpläne und Orthofotos.<br />
• Map&guide liefert Stadtpläne und Wegberechnungen<br />
• PLEdoc Terramapserver liefert versch. Karten, z.B. die DGK5 (Dt. Grundkarte 1:5000)<br />
• Nationale Tollwutdatenbank [TOL]<br />
Manche Betreiber von Geodatenbanken bieten teilweise kostenpflichtige, teilweise kostenlose<br />
<strong>Dienste</strong> an. Dabei kann auf einen für die Nutzung freigegebenen Teil der Daten zugegriffen<br />
werden. Welcher Teil das ist, ist abhängig von Kosten, rechtlicher Situation und auch von der<br />
Wettbewerbssituation der Anbieter, da z.B. der Zugriff auf detaillierte Daten eines Energieversorgers<br />
interne Betriebsstrukturen preisgeben würde [FIG2].
44 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />
Auf dem wachsenden Geodatenmarkt bieten verschiedene Anbieter ihre Daten an, z.B. die<br />
Landesvermessungsämter (LVA) solche aus den ALK/ALB (automatisierte(s) Liegenschaftskataster/<br />
~Buch), die Energieversorger und kommerzielle Unternehmen [FIG2].<br />
Die Abbildung in Abschnitt 2.3 zeigt, dass ein großer Teil der GIS Anwender dem regulierten<br />
oder dem staatlichen Sektor zuzuordnen ist. Am Beispiel der SüvKan (Selbstüberwachungsverordnung<br />
Kanalwesen: Die Verordnung regelt u.a. Schadensaufnahme und Dokumentation)<br />
lässt sich erkennen, dass der Bedarf an Geodaten und Geodatenbanken auch einen gesetzlich<br />
regulierten Ursprung haben kann.<br />
3.1 Austausch<br />
Die in einer Datenbank gespeicherten Daten lassen sich über etliche Schnittstellenformate<br />
(z.B. DXF, Microstation, EDBS, Sicad SQD, GDF, aber auch z.B. MS-ACCESS aus nicht-<br />
GIS) ausspielen und in ein Zielsystem übernehmen. (Die beiden erstgenannten Formate sind<br />
aus dem CAD-Bereich) [HECK]<br />
Auf diese Weise können Daten von verschiedenen Anbietern, die bisher in separaten Datenbanken<br />
gespeicherten wurden, zusammengebracht werden. Ein Szenario dazu wäre eine Baustelle.<br />
Eine digitale Stadtgrundkarte (DSGK) dient der Planung, die Energieversorger und die Telekommunikationsbetreiber<br />
liefern Geodaten über im Baustellenbereich verlegte Leitungen und<br />
ein kommerzielles Unternehmen errechnet die Wegbeschreibung für die Umleitung.<br />
Die Lebenszeit der Geodaten ist erheblich höher als die der GIS. Wenn von einer GIS Software<br />
zu einer anderen gewechselt wird, dann bleiben die Datenbestände, die die Kosten eines<br />
GIS erheblich übertreffen, erhalten. Die Geodatenbank wird dann durch Datenmigration in ein<br />
neues System übernommen. Dabei müssen die verschiedenen Datenmodelle im Quell- und im<br />
Zielsystem berücksichtigt werden [BÄRK], [FIG3]. Das OpenGIS Consortium [OGIS] hat<br />
den Austausch normiert.<br />
4 Ausblick<br />
GIS erweitern ERP zu spatial (räumlich) ERP, auch SPR genannt. Dadurch werden die<br />
geschäftsprozessorientierten Informationen des ERP um raumbezogene Informationen des<br />
GIS erweitert. Dies betrifft beispielsweise die Verwaltung von Dokumenten zu Anlagenteilen,<br />
wie z.B. Herstelleranschrift, Kauf- und Wartungsvertrag und Gewährleitunsgsvereinbarungen.<br />
Betrachten wir folgende Situation:<br />
Ein Schachtdeckel ist bei einer Untersuchung als defekt eingestuft worden. Das GIS liefert<br />
den räumlichen Zusammenhang zu anderen defekten Schachtdeckeln in der Nähe, über das<br />
ERP werden Herstellerinformationen (incl. Typ/Bestellnummer) ermittelt. Die Bestellung<br />
wird über das ERP aufgegeben. Beim Eintreffen der neuen Schachtdeckel berechnet das GIS<br />
die günstigste Wegstrecke (Tourenplanung). Evtl. wird auch die Besatzung des Fahrzeuges<br />
(Fahrer mit Führerschein Klasse 2 und Helfer, möglichst „günstig“, beide nicht krankgemeldet<br />
oder in Urlaub) vom ERP/BIS (Betriebsmittelinformationssystem) ermittelt.<br />
Eine weitere Abstraktion findet in manchen Bereichen vom GIS zum BIS [BERN98], [OFF]<br />
statt. Ein BIS verwaltet zusätzlich zu den Geodaten weitere Betriebsmittelinformationen wie<br />
z.B. Standzeiten von Anlagenteilen wie Lampen, Pumpen und kann Wartungsintervalle automatisiert<br />
prüfen.<br />
Die Verbindung von aktueller Position mit Geodaten ist ein Schritt in Richtung der mobilen<br />
<strong>Dienste</strong>. Dazu ermittelt ein mobiles Gerät die aktuelle Position, beispielsweise über GPS (globales<br />
Positionssystem) oder GSM (Protokoll der Mobiltelefonieanbieter), um dann gezielt<br />
Daten über ein Objekt oder die Umgebung anfordern zu können. Der SMS Dienst der Hamburger<br />
Verkehrsbetriebe [HVV] bietet Fahrplanauskünfte, die das GIS des HVV per SMS<br />
versendet, an, die vom Nutzer durch Eingabe von Start und Ziel abgerufen wird. Der nächste<br />
Schritt in der Entwicklung ist die Einbindung der automatischen Positionsbestimmung, die die
45 Joachim Marwinski<br />
Eingabe der Startposition überflüssig werden lässt, sodass ein „mobiler Dienst“ (mit Standortbezug!)<br />
entsteht.<br />
Ein weiteres Beispiel ist die Identifikation von Anlagenteilen anhand ihrer Position (z.B.<br />
Lampen) im Rahmen eines BIS:<br />
Die Lampen an einer neu gebauten Straße werden aufgestellt. Es liegt ein Bauplan in vektorisierter<br />
Form vor, in dem die Lampen eingezeichnet sind. Der Plan wird in das GIS übernommen,<br />
das GIS erzeugt Stammdaten für ein mobiles Handgerät (z.B. PDA).<br />
Die Lampen sollen überprüft werden, ein preisgünstiger Mitarbeiter stellt sich mit dem Handgerät<br />
unter die Lampe, das Gerät ermittelt über GPS die Position, und der Mitarbeiter beurteilt<br />
die Funktion der Lampe.<br />
Damit entfallen die Schritte :<br />
• Markierung der Lampe zwecks Identifikation mit einer Nummer, aufgemalt, mit<br />
gravierten Schildern oder als maschinenerfassbarer Barcode<br />
• Identifikation der Lampe: Übertragung der Nummer auf das Beurteilungsdokument<br />
Die Fehleranfälligkeit ist geringer, da die Zuordnung der Lampe nicht über ggf. zerstörte oder<br />
verschmierte Schilder erfolgt. Die Identität des Objektes wird anhand seiner Geoposition ermittelt.<br />
Das Beurteilungsdokument wird abschließend in das BIS übertragen und ist von jedem<br />
berechtigten Arbeitsplatz im Unternehmen abrufbar. Standzeitorientierte Wartungsaufträge<br />
können durch das BIS automatisiert vergeben werden, einschließlich Materialbeschaffungsschein,<br />
denn das BIS kennt die benötigten Lampentypen.<br />
Referenzen<br />
[ATK03]<br />
[ATK03a]<br />
[BAS00]<br />
[BÄRK]<br />
ATKIS Objektartenkatalog, (2003), http://www.atkis.de/<br />
ATKIS Objektartenkatalog, (2003), Beispiel zu OK 25ATKIS-Objektartenkatalog<br />
Teil D1: Basis-DLM Objektbereich 4000 Vegetation Objektgruppe 4100<br />
Vegetationsflächen Objektart 4101 Ackerland<br />
http://www.atkis.de/dstinfo/dstinfo.dst_start2?dst_oar=4101&inf_sprache=deu&c1=1<br />
&dst_typ=25&dst_ver=dst&dst_land=ADV<br />
Basilautzkis. L.(2000)<br />
Das Gauß-Krüger-System, Referat am Institut für Wirtschaftsgeographie Mai 2000<br />
Bärk, B.,<br />
Datenmigration bei der Ablösung von Leitungs-Dokumentationssystemen, Sinzig,<br />
http://www.ciss.de/download/articles/migration-02.pdf<br />
[BUH02] Buhmann, E.; Wiesel J.; (2002):<br />
Gis-Report,Harzer, Karlsruhe, 2002<br />
[BERN98] Bernhard, U., (1998)<br />
GIS Anwendungen in Ver- und Entsorgungsunternehmen, Elektrizitätswirtschaft,<br />
Zeitschrift der VDEW, Jg. 97 (1998), H. 25, S.54-56<br />
[BERN00] Bernhard, U., (2000)<br />
Effizient und kundenorientiert. Gis im liberalisierten EVU-Markt, GeoBIT, 2/2000,<br />
S.26-27<br />
[CASS99] Cassel.Gnitz, M., (1999)<br />
Grundlagen der räumlichen Analyse mit Raster- und Vektordaten, FU-Berlin, Script<br />
WiSe 1999/2000, http://geog.fu.berlin.de/~jkrywkow/gis2/seminar_11/kap1.htm, S.5<br />
[HAK82] Hake, Günter (1982):<br />
Kartographie, Band 1: Allgemeines, Erfassung der Informationen, Netzentwürfe,<br />
Gestaltungsmerkmale, topographische Karten, 6. Aufl., de Gruyter, Berlin 1982, S. 70
46 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />
[WASY] http://www.wasy.de/deutsch/produkte/wgeo/transformation.pdf, (2003), S. 4<br />
[INFNRW] http://www.lverma.nrw.de/vermessung/raumbezug/KO_MERKB.htm<br />
[SCHW] http://step.iapg.verm.tu-muenchen.de/groups/testnetz/schwerefeld.html<br />
[KVR] http://www.kvr.de/daten/geodatenserver/geodatenserver.php<br />
[GAS] Bernhard, U., (1999)<br />
GIS-Anwendungen in Versorgungsunternehmen: Neue Anforderungen des<br />
deregulierten Marktes an integrierte Informationssysteme, Gas Erdgas gwf 140<br />
(1999), Nr. 6 Seite 367<br />
[GDÄ] http://www.ifag.de/Aktuelles/TIGO/TIGO_Einweihung.htm: Absätze 2-4<br />
[IMAGI] Interministerieller Ausschuß für Geoinformationswesen, (2002),<br />
Geoinformation und moderner Staat, Bundesamt für Kartographie und Geodäsie,<br />
Frankfurt a.M. 2002; http://www.imagi.de/broschuere2002/<br />
[ROSE] Rose, A., (1999)<br />
Datenbereitstellung im Internet: Beispiele aus EVU und öffentlicher Verwaltung,<br />
http://www.sicad.de/pages/ueber_uns/publikationen/pdf/v9905_unibw_rose.pdf S.3ff.<br />
[OGIS] http://www.opengis.org<br />
[OFF] http://www.i-pconsult.de/BIS.html<br />
[HVV] http://www.hvv.com/no_js/seiten/framesets/2_3_index.htm<br />
[FIG] Figura, J.<br />
Der Geodatenmarkt als Perspektive der Energieversorger, Sinzig,<br />
http://www.ciss.de/download/articles/mehr-als-eine-vision.pdf<br />
[FIG2] Figura, J.<br />
Möglichkeiten der Datenintegration am Beispiel der Region Südhessen, Sinzig,<br />
http://www.ciss.de/download/articles/suedhessen.pdf, Seite 8<br />
[FIG3] Figura, J.<br />
Digitale Daten sind verfügbar, Sinzig, http://www.ciss.de/download/articles/digitalegeodaten.pdf,<br />
Seite 3-5<br />
[HECK] Heckler, M.,<br />
Ein Geodatenserver für ATKIS, Sinzig,<br />
http://www.ciss.de/download/articles/geodatenserver-hlva.pdf<br />
[TES] http://elise.bafg.de/servlet/is/1653: Vergleich Datei-Datenbankbez. Geodatenserver<br />
[TOL] Bundesforschungsanstalt für Viruskrankheiten, Nationale Tollwutdatenbank,<br />
http://www.bfav.de/organisation/ife/krankheiten/tollwut_daten.html<br />
[WGI] http://www.wgi-gmbh.de/daten/projekte/Projekt_NEBIS_WFG.pdf<br />
[PDV] http://www.pdv.de/de_neu/gis_im_ueberblick.asp?theme=22&<br />
[OAGIS] Ott, Thomas, (2002)<br />
OAGIS Geographische Informationssysteme – Ein Überblick,<br />
http://www.oagis.com/gis3.htm, Abschnitt 3.2<br />
[STUM] http://www.rainerstumpe.de/HTML/body_kartenkoordinaten.htm
Beispiele ortsbasierter <strong>Dienste</strong><br />
„Tourist Guide“<br />
Edgar Merl<br />
90489 Nürnberg<br />
edgar.merl@web.de<br />
Zusammenfassung: Bei mobilen elektronischen Reiseführern (Tourist Guides) handelt<br />
es sich um kontextbewusste Anwendungen, in denen als elementare Kontextinformation<br />
der momentane Standort des Benutzers Berücksichtigung findet. Damit stellen diese Anwendungen<br />
insbesondere auch typische Beispiele ortsbasierter <strong>Dienste</strong> dar. Anhand<br />
zweier Forschungsprojekte (Cyberguide und GUIDE) werden die potentiellen Anforderungen,<br />
Konzepte sowie Lösungen und Architekturen bei der Entwicklung von mobilen<br />
kontextbewussten Reiseführern dargestellt. Der Fokus der Betrachtung liegt hierbei auf<br />
Konzepten und Lösungen im Rahmen der Implementierung ortsbasierter <strong>Dienste</strong>. Abschließend<br />
wird versucht, einen kurzer Ausblick auf die künftige Entwicklung im Bereich<br />
mobiler Tourist Guides zu geben.<br />
1 Einleitung<br />
1.1 Charakterisierung von „Tourist Guides“<br />
Mobile elektronische Reiseführer (Tourist Guides) können der Kategorie der mobilen kontextbewussten<br />
Anwendungen zugeordnet werden. Die aktuelle physikalische Position des<br />
Nutzers stellt dabei einen elementaren Kontext dieser Anwendungen dar. Mit der standortabhängigen<br />
Präsentation von Informationen und der Führung (Navigation) des Benutzers bilden<br />
ortsbasierte <strong>Dienste</strong> den essentiellen Kern dieser Anwendungen. Neben der aktuellen Position<br />
existieren noch weitere Kontextparameter, die bei der Realisierung mobiler kontextbewusster<br />
Anwendungen eine Rolle spielen oder spielen können. Schilit et al. unterteilen, unter Benennung<br />
konkreter Beispiele, den potentiellen Kontext in drei Kategorien [SAW94]:<br />
• Technischer Kontext (Computing context):<br />
Netzwerkverbindungen, Kommunikationskosten und Bandbreite, verfügbare Ressourcen<br />
wie mobile Endgeräte, Drucker, Rechner.<br />
• Persönlicher Kontext (User context):<br />
Nutzerprofil, gegenwärtiger Aufenthaltsort, benachbarte Personen, soziale Verhältnisse.<br />
• Physikalischer Kontext (Physical context):<br />
Temperatur, Geräuschpegel, Verkehrsverhältnisse, Luftfeuchtigkeit, Lichtverhältnisse etc.<br />
Da auch die Zeit für sehr viele Applikationen eine wichtige Kontext-Information darstellt,<br />
führen Chen/Kotz eine zusätzliche, vierte Kontext-Kategorie ein [ChKo00]:<br />
• Zeitlicher Kontext (Time context):<br />
Tageszeit, Datum und Jahreszeit.
48 Beispiele ortsbasierter <strong>Dienste</strong><br />
1.2 Bisherige Entwicklungen und Projekte<br />
Eines der ersten Projekte im wissenschaftlichen Umfeld, das sich mit der Entwicklung mobiler<br />
kontextbewusster Applikationen befasste, war von Juli 1995 bis August 1997 das Projekt<br />
Cyberguide am Georgia Institute of Technology. Im Rahmen dieses Projekts wurden Prototypen<br />
mobiler kontextbewusster Touristenführer für Besucher innerhalb und außerhalb der<br />
Campus-Gebäude erstellt. Der Forschungsschwerpunkt lag hierbei eher auf dem Prototyping<br />
technischer Konzepte und der Entwicklung einer hierfür geeigneten Softwarearchitektur.<br />
Das GUIDE-Projekt kann als eine Fortführung des Cyberguide-Projekts gesehen werden. Das<br />
Projekt wurde von April 1997 bis Juli 1999 an der Lancaster University durchgeführt. Ziel<br />
war es, die Besucher der Stadt Lancaster, England, mit einem stadtweiten kontextsensitiven<br />
Multimedia-Führer auszustatten. Neben der Lösung technischer Fragen wurde hier auch viel<br />
Zeit auf die Optimierung der Benutzerschnittstelle verwandt.<br />
Die Beschreibung der genannten Projekte erfolgt in den nächsten beiden Kapiteln dieser Arbeit.<br />
Im Mittelpunkt der Betrachtungen werden - dem Thema dieses Seminars folgend - die<br />
Konzepte, Lösungen und Architekturen zur Realisierung ortsbasierter <strong>Dienste</strong> stehen.<br />
2 Cyberguide<br />
2.1 Einführung<br />
Im Juli 1995 startete am Georgia Institute of Technology das Projekt Cyberguide [AAH+97].<br />
Drei Monate vorher erfolgte die Gründung der Future Computing Environments (FCE)<br />
Group, die sich die „rapid-prototype“-Entwicklung von Applikationen im Bereich der mobilen<br />
Technologien zum Ziel setzte. Damit sollten kurzfristig verschiedene Möglichkeiten der<br />
sich neu entwickelnden Technologien erforscht und Aussagen über die weitere Entwicklung<br />
in diesem Umfeld getroffen werden können.<br />
Entsprechend dieser Zielsetzung handelt es sich bei Cyberguide um eine Serie von Prototypen<br />
mobiler kontextbewusster Reiseführer. Dabei wurden auf verschiedenen Plattformen unterschiedlichste<br />
Aspekte bei der Entwicklung eines Reiseführers erforscht.<br />
2.2 Anforderungen<br />
Als langfristiges Ziel des Projekts wurde angegeben, dass die Applikation in der Lage sein<br />
sollte, zu erkennen, an welcher physikalischen Position der Tourist sich aktuell befindet und<br />
welchen Objekten er zugewandt ist. Ferner sollte die Applikation Fragen des Touristen<br />
voraussehen und vorweggenommen beantworten. Schließlich sollte es dem Touristen möglich<br />
sein, mit anderen Personen sowie der Umgebung in Interaktion zu treten.<br />
Zu Beginn konzentrierte sich das Projekt allerdings nur auf einen Ausschnitt des Kontexts,<br />
nämlich auf die Bestimmung der Position und räumlichen Orientierung der Mobileinheit und<br />
damit des Benutzers. Die initialen Prototypen von Cyberguide fungierten hierbei als Führer<br />
durch das Institutslabor während des monatlichen „Tags der offenen Tür“.<br />
2.3 Konzepte und Architektur<br />
2.3.1 Komponentenmodell<br />
Um die geplante Entwicklung verschiedener Prototypen bestmöglichst zu unterstützen, stand<br />
bei der Konzeption der Anwendung und beim Design der Softwarearchitektur ein modularer<br />
Aufbau im Mittelpunkt. Ausgangspunkt waren Überlegungen, welche essentiellen Kompo-
49 Edgar Merl<br />
nenten Bestandteil eines mobilen Reiseführers sein müssten. In der Folge wurde die Aufteilung<br />
in vier unabhängige Module vorgenommen. Zur besseren Veranschaulichung der Komponenten<br />
führte man zugleich eine Personifizierung der Module ein, die den Expertencharakter<br />
der beteiligten Systeme betonen sollte. Die Kombination der folgenden Komponenten bildet<br />
schließlich das Gesamtsystem:<br />
• Kartograph (Landkartenmodul)<br />
Der Kartograph besitzt genaue Kenntnis über die räumliche Umgebung. Er kennt den<br />
Standort von Gebäuden und Sehenswürdigkeiten und besitzt Informationen über Zugangswege.<br />
Diese Komponente wird durch eine oder mehrerer physikalische Karten realisiert.<br />
• Bibliothekar (Informationsmodul)<br />
Diese Komponente liefert inhaltliche Informationen über alle Sehenswürdigkeiten und<br />
interessanten Objekte, auf die ein Tourist während seiner Tour treffen kann. Dabei kann<br />
es sich sowohl um Beschreibungen von Gebäuden als auch um Lebensläufe von Personen<br />
handeln, die in Verbindung mit dem aktuell besichtigten Objekt stehen. Der Bibliothekar<br />
beantwortet spezifische Fragen („Von welchem Künstler ist das Bild?“ oder „Welche seiner<br />
Kunstwerke können noch in der Umgebung besichtigt werden?“). Diese Komponente<br />
wird als strukturierte Informationsbasis realisiert.<br />
• Navigator (Positionsbestimmungsmodul)<br />
Die Interessen und Informationsbedürfnisse der Besucher hängen sehr stark von ihrer aktuellen<br />
Position ab. Aus diesem Grunde ist es wichtig, die exakte Position des Besuchers<br />
zu kennen, um ihn über das Landkartenmodul mit einer Sicht auf die aktuelle Umgebung<br />
versorgen zu können. Der Navigator ist für die Bereitstellung der aktuellen Position in der<br />
augenblicklichen Umgebung zuständig. Er wird durch ein Modul realisiert, das genaue Information<br />
über Position und Orientierung des Benutzers liefert.<br />
• Bote (Kommunikationsmodul)<br />
Ein Benutzer möchte Informationen empfangen und unter Umständen auch versenden.<br />
Die Möglichkeit hierzu stellt ihm der Bote zur Verfügung. Beispielsweise könnte der Besucher<br />
einer Ausstellung mit dem Künstler Kontakt aufnehmen wollen. Ist der Künstler<br />
nicht präsent, so kann er über den Boten eine Nachricht für ihn hinterlassen. Um mit anderen<br />
Nutzern in Verbindung treten zu können, kann jeder Tourist seine aktuelle Position an<br />
einen zentralen Service übermitteln, auf den alle Nutzer zugreifen können. Ferner können<br />
über den Boten auch Nachrichten an alle Nutzer verteilt werden („Der nächste Bus fährt in<br />
15 Minuten“). Diese Komponente wird von einem Bündel von drahtlosen Kommunikationsdiensten<br />
realisiert.<br />
Das vorgestellte Komponentenmodell gewährleistet eine gute Erweiterbarkeit und Flexibilität<br />
der zu entwickelnden prototypischen Anwendungen. Beispielsweise kann jederzeit über die<br />
Ergänzung des Modells um einen Archivar nachgedacht werden, der den Tourverlauf und die<br />
Reaktionen des Touristen dokumentiert. Ferner lässt sich die Implementierung einer Komponente<br />
komplett austauschen ohne gravierenden Einflüsse auf andere Module zu nehmen.<br />
Voraussetzung hierfür ist allerdings die exakte und stabile Definition von Schnittstellen zwischen<br />
den einzelnen Modulen.
50 Beispiele ortsbasierter <strong>Dienste</strong><br />
Abbildung 21: Ein erster Cyberguide-Prototyp [AAH+97]<br />
Abbildung 21 liefert einen visuellen Eindruck von Cyberguide und den implementierten Modulen.<br />
Links im Bild sieht man das Landkartenmodul. Dem Benutzer steht eine zoom- und<br />
scrollbare Karte des gesamten Institutslabors zur Verfügung. Ein Icon in Form einer Person<br />
kennzeichnet seine eigene Position, Icons in Form von Sternen repräsentieren Sehenswürdigkeiten<br />
bzw. interessante Objekte. In der rechten Bildhälfte ist das Informationsmodul dargestellt.<br />
Durch Anklicken der Icons innerhalb des Landkartenmoduls werden die zu dem gewählten<br />
Objekt verfügbaren Informationen angezeigt bzw. können abgerufen werden. In beiden<br />
Oberflächen sind am unteren Rande Funktionen des Kommunikationsmoduls erkennbar.<br />
2.3.2 Positionsbestimmung innerhalb von Gebäuden<br />
Innerhalb von Gebäuden ist die Verwendung von GPS nicht möglich, da die hierfür benötigten<br />
Satellitensignale nicht oder nur schwach zu empfangen sind. Bei der Konzeption eines<br />
Positionsbestimmungsmoduls innerhalb der Gebäude ließ man sich deshalb von folgenden<br />
Projekten beeinflussen, die sich bereits mit „indoor“-Positionsbestimmung beschäftigt hatten:<br />
• PARCTab am Xerox Palo Alto Research Center [Want+95],<br />
• Active Badge System des Olivetti Research Lab [WHFG92].<br />
Zu Beginn wurde zur Positionsbestimmung das Active Badge System in Erwägung gezogen.<br />
Aus Kostengründen und im Hinblick auf die langfristigen Ziele wurde jedoch auf diese Lösung<br />
verzichtet. Grund hierfür war die Verquickung von Positionsbestimmung und Kommunikation<br />
im Active Badge System. In der Architektur von Cyberguide sollten diese beiden<br />
Aufgaben getrennt sein. Dadurch wurde es möglich, je nach Bedarf für jede der beiden Komponenten<br />
speziell optimierte oder auch kostengünstigere Varianten auszuwählen.
51 Edgar Merl<br />
Das zur „indoor“-Positionsbestimmung für Cyberguide entwickelte System basiert auf Infrarottechnik.<br />
Abbildung 22 gibt ein Überblick über den Aufbau des Systems und die hieran beteiligten<br />
Komponenten:<br />
Abbildung 22: Positionsbestimmung mit Infrarotsystem [AAH+97]<br />
Die abgebildete Variante basiert auf Infrarotsendern. Hierzu wurden an den Decken der Gebäude<br />
herkömmliche TV-Fernbedienungen in einem rasterförmigen Muster angebracht. Jede<br />
Fernbedienung sendet periodisch ein eindeutiges Muster (active beacon). Bewegt sich der<br />
Tourist in den Empfangsbereich einer Fernbedienung, nimmt ein spezieller Infrarotempfänger,<br />
der auf die Frequenz (40 kHz) der Fernbedienungen ausgerichtet ist, das Signal auf. Ein<br />
mit dem Infrarotempfänger verbundener Mikrocontroller bestimmt daraus die Zelle, in der<br />
sich die Mobileinheit befindet. Über ihren seriellen Port erhält die Mobileinheit vom Mikrocontroller<br />
die entsprechende Information. Das Positionsmodul unterrichtet das Landkartenmodul<br />
von der neuen Position, so dass diese in der Karte neu eingezeichnet werden kann.<br />
Erste Erfahrungen im Einsatz von Cyberguide zeigten sehr schnell, dass weniger die absolute<br />
Position des Anwenders von Nutzen ist, sondern vielmehr die Information darüber, welches<br />
Objekt der Benutzer aktuell betrachtet. Deshalb wird versucht, anhand einer Historie der<br />
letzten Positionen die Bewegungsrichtung und die Orientierung des Touristen einzuschätzen.<br />
Als Mobileinheit fand in der „indoor“-Version der Apple MessagePad 100 mit Newton 1.3 als<br />
Betriebssystem Verwendung. Auch hier fand das Kostenargument Anwendung. Das Ziel des<br />
inkrementellen Prototyping vieler verschiedener Versionen konnte innerhalb des Projektes<br />
nur durch geringe Hardwarekosten erreicht werden. Insbesondere im Hinblick auf die Mobileinheiten<br />
war vorgesehen, eine größere Anzahl bereitzustellen, um möglichst viele Plattformen<br />
für die Entwicklung und den Test der verschiedenen Prototypen bereitstellen zu können:
52 Beispiele ortsbasierter <strong>Dienste</strong><br />
Abbildung 23: Cyberguide „indoor“-Mobileinheit (Apple Newton)<br />
Die technischen Daten des MessagePads lauten:<br />
• Höhe x Breite x Länge: 19.05 x 114,3 x 184,75 mm<br />
• Gewicht: 0,4 kg (ohne Batterien)<br />
• LCD-Display, schwarz-weiß<br />
• Auflösung von 336 x 240 Pixel<br />
• Betriebsdauer mit Batterie 6-12 Stunden.<br />
2.3.3 Positionsbestimmung außerhalb von Gebäuden<br />
In einer späteren Phase des Projekts erfolgte die Erstellung von Prototypen für die Verwendung<br />
auf dem Campusgelände und innerhalb der Stadt Atlanta. Neben der Beschäftigung mit<br />
den zugrunde liegenden technischen Konzepten, sollte hier erneut der modulare Aufbau der<br />
Anwendung einem Praxistest unterzogen werden. Neben dem Modul zur Positionsbestimmung<br />
war in diesem Zusammenhang auch das Landkartenmodul durch eine geänderte Implementierung<br />
zu ersetzen.<br />
Zur Positionsbestimmung außerhalb von Gebäuden fand GPS Verwendung. Hierzu wurde in<br />
einem Prototyp ein Trimble‘s Placer GPS 450/455 als mobile GPS-Einheit mit dem seriellen<br />
Port des Apple MessagePad 100 verbunden. Auf den Cyberguide-Projektseiten findet sich der<br />
Hinweis auf die Verwendung von differentiellem GPS (DGPS) durch Verwendung einer<br />
Trimble's GPS Pathfinder® Community Base Station als stationärem GPS-Empfänger<br />
[FCE03]. Aufgrund des überraschenden Abbruchs des Projekts fehlen jedoch leider genauere<br />
Informationen zu den zuletzt erstellten Prototypen, so dass über die tatsächliche Verwendung<br />
von DGPS nur spekuliert werden kann.<br />
Die (Software-)Entwicklung der „outdoor“-Versionen erfolgte im Wesentlichen in einer Testumgebung<br />
auf PC-Basis. In dieser Testumgebung fanden Borland’s Delphi und Microsofts<br />
Visual Basic als Programmierumgebungen Verwendung. Als endgültige Plattform für die<br />
„outdoor“-Version von Cyberguide war ein Apple MessagePad 2000 mit Newton 2.1 als Betriebssystem<br />
vorgesehen. Dessen Einsatz konnte jedoch nicht mehr erfolgreich gelingen, da<br />
zum Zeitpunkt der vorzeitigen Beendigung des Projekts, die Portierung des in der Testumgebung<br />
entworfenen vektorbasierten Landkartenmoduls an der mangelnden Performanz der<br />
Mobileinheit scheiterte.<br />
2.4 Erfahrungen<br />
Im Gegensatz zu den Vorgängerprojekten PARCTab und Active Badge erfolgte in Cyberguide<br />
eine bewusste Trennung der Systeme zur Positionsbestimmung und Kommunikation.<br />
Während in den Vorgängerprojekten die Mobileinheiten ihre Position an die Funkbaken (beacons)<br />
übermittelten und die Positionsbestimmung zentral durchgeführt wurde, kennt in Cy-
53 Edgar Merl<br />
berguide ausschließlich die Mobileinheit ihren eigenen Standort. Möchte man in einer Anwendung<br />
dafür sorgen, dass die Mobileinheiten nicht nur ihren eigenen, sondern auch den<br />
Standort anderer Einheiten kennen, so muss eine Form von Kommunikation zwischen ihnen<br />
implementiert werden. Findet beispielsweise GPS Verwendung, so kann das Positionsbestimmungsmodul<br />
alleine schon aus technischen Gründen nicht zur Kommunikation mit anderen<br />
Mobileinheiten verwendet werden. Das nachfolgend beschriebene GUIDE-Projekt zeigt,<br />
wie die Verwendung von Funknetzen beide Aufgabenbereiche abdecken kann.<br />
2.5 Weiterentwicklung<br />
Unter Berücksichtigung der Erfahrungen während der Arbeit an Cyberguide kommt das Projektteam<br />
im Hinblick auf die langfristigen Ausgangsziele zum Schluss, dass folgende Eigenschaften<br />
und Funktionen zentrale Bedeutung bei der künftigen Entwicklung mobiler kontextbewusster<br />
Anwendungen haben werden:<br />
• Visuelle Funktionen<br />
Man sieht großes Potential in der Einführung erweiterter Realität (augmented reality) zur<br />
Bereitstellung zusätzlicher Informationen über Displays. Über die Ausstattung der Mobileinheiten<br />
mit visuellen Systemen ließe sich eine Verbesserung der Positionsmoduls erzielen,<br />
indem das vom Benutzer betrachtete Objekt ermittelt werden kann. Denkbar wäre<br />
auch, über Scanfunktionen in Verbindung mit Texterkennung und Übersetzungsfunktionen<br />
den Reiseführer um eine „Dolmetscher“-Komponente zu erweitern.<br />
• Direkte Anbindung der Mobileinheiten an das Internet<br />
Viele der derzeit noch lokal oder auf eigenen Servern gehaltenen Informationen sind<br />
ebenfalls im Internet verfügbar und werden somit redundant gehalten. Die Verbreitung<br />
des Internets sorgt zudem für eine natürliche Vertrautheit im Umgang mit diesem Medium.<br />
Ferner können auch andere auf dieser Technik basierenden <strong>Dienste</strong> (z.B. E-Mail)<br />
genutzt werden.<br />
• Erweiterung des betrachteten Kontextes<br />
Hier steht insbesondere die Frage im Vordergrund, wie das Nutzerprofil vom System implizit<br />
optimiert werden kann. Hierzu könnte beispielsweise das Erkennen der Reaktionen<br />
des Nutzers auf Attraktionen (möglicherweise auch über visuelle Techniken) zählen. Auch<br />
aufgrund der Historie der von ihm besichtigten Orte kann auf bestimmte Interessen und<br />
Vorlieben des Nutzers geschlossen werden (dies wurde beispielsweise im nachfolgenden<br />
Projekt GUIDE bereits versucht).<br />
• Globales Positionsbestimmungskonzept<br />
Die im Projekt Cyberguide entstandenen Prototypen waren exklusiv entweder für den<br />
Gebrauch innerhalb oder außerhalb von Gebäuden nutzbar. Ziel wird sein, einem Touristen<br />
einen mobilen Reiseführer an die Hand zu geben, der unabhängig von seiner aktuellen<br />
Position bzw. Umgebung stets verfügbar ist.<br />
• Schreibender Zugriff auf Informationsbasis<br />
Das Bedürfnis eines Touristen, seine eigene Erfahrungen und Gedanken zu einem besichtigten<br />
Objekt aufzuzeichnen, könnte beispielsweise über die Modifizierbarkeit der Informationsbasis<br />
geschehen. Im Cyberguide-Projekt wurde bereits in diese Richtung experimentiert.<br />
Es konnte ein Reisetagebuch erstellt werden, das neben der automatisch aufgezeichneten<br />
Besichtigungsobjekte dem Touristen die Möglichkeit bot, mittels Digital- oder<br />
Videokamera seine Eindrücke festzuhalten und dem Tagebuch hinzuzufügen.
54 Beispiele ortsbasierter <strong>Dienste</strong><br />
3 GUIDE<br />
3.1 Einführung<br />
Das GUIDE-Projekt wurde im April 1997 an der Lancaster University begonnen. Zu diesem<br />
Zeitpunkt war das Cyberguide-Projekt das einzige Projekt, das sich ebenfalls der Erforschung<br />
von mobilen kontextbewussten Reiseführern widmete. Wenngleich nach Ansicht des GUIDE-<br />
Teams die Arbeit des Cyberguide-Teams zu sehr auf System- und Architekturdesign fokussiert<br />
schien und dabei Fragen der Benutzerschnittstelle und der Interaktion zu wenig Beachtung<br />
fanden, so wird das Cyberguide-Projekt doch als Basis und Motivation der Arbeit angegeben<br />
[DCME01].<br />
Das wesentliche Ziel bestand darin, ein System zu entwickeln, das in der Lage ist, auf einen<br />
einzelnen Touristen individuell zugeschnittene Stadttouren zu erstellen. Konkret sollte das<br />
System unter Berücksichtigung der inhaltlichen Interessen des Touristen, dessen verfügbarer<br />
Zeit, seinem Aufenthaltsort, seinen finanziellen Verhältnissen, seiner Mobilität und den lokalen<br />
Wetterverhältnissen eine jeweils geeignete Tour generieren. Für den Fall, dass sich einer<br />
dieser Parameter ändert, sollte der Tour Guide die notwendigen Anpassungen selbständig<br />
vornehmen.<br />
3.2 Anforderungen<br />
Um die Anforderungen an das zu erstellende System zu ermitteln, wurden eine Reihe von<br />
Gesprächen und strukturierten Interviews mit den Mitarbeitern des örtlichen Tourismusbüros<br />
(Lancaster Tourist Information Centre - TIC) geführt. Des Weiteren wurden einige Tage damit<br />
verbracht, die Wünsche und Bedürfnisse der Besucher des TIC vor Ort durch Beobachtung<br />
zu ermitteln. Diese Erhebungen führten zur Formulierung von vier wesentlichen Anforderungen<br />
an das zu erstellende System [CDM+00]:<br />
• Flexibilität<br />
Das System sollte dem Nutzer eine möglichst große Flexibilität in seiner Bedienung ermöglichen.<br />
Jeder Nutzer sollte die Möglichkeit besitzen, die Stadt entsprechend seinen<br />
Bedürfnissen zu erforschen und kennen zu lernen. Beispielsweise sollte die Möglichkeit<br />
einer geführten Tour genauso bestehen wie das Erkunden der Stadt auf eigene Faust. Das<br />
System sollte also sowohl die Rolle eines intelligenten Stadtführers als auch die eines eher<br />
passiven Reiseführers (einem Buch vergleichbar) übernehmen können. Keinesfalls sollte<br />
sich der Besucher durch das System gegängelt oder unter Druck gesetzt fühlen. Er sollte<br />
jederzeit die Freiheit haben, einen Tour zu unterbrechen und beliebig lange an Attraktionen<br />
zu verweilen.<br />
• Kontextabhängige Information<br />
Die präsentierte Information sollte auf den aktuellen Kontext des Besuchers zugeschnitten<br />
sein. Dabei sollte sowohl die persönliche Situation des Nutzers als auch die aktuellen<br />
Rahmenbedingungen der Umgebung Berücksichtigung finden. Als persönlicher Kontext<br />
sollten beispielsweise die Interessen des Benutzers (wie Vorlieben für Geschichte oder<br />
Architektur) und seine aktuelle örtliche Position die bereitgestellte Information beeinflussen.<br />
Als Beispiele für aus der Umgebung abgeleiteten Kontext sind die Tageszeit und die<br />
Öffnungszeiten verschiedener Sehenswürdigkeiten zu nennen. Der verfügbare Kontext<br />
sollte dabei nicht nur zur Generierung von Touren, sondern auch bei der Aufbereitung der<br />
Information berücksichtigt werden. Beispielsweise sollte das System erkennen können,<br />
dass ein Besucher zu einer bereits besichtigten Sehenswürdigkeit zurückgekehrt ist und<br />
die Information daraufhin abstimmen.
55 Edgar Merl<br />
• Verfügbarkeit von dynamischer Information<br />
Neben den statisch abrufbaren Informationen wurde ein elementarer Bedarf zur Bereitstellung<br />
dynamischer Information an den Besucher ermittelt. So sollte beispielsweise die<br />
Möglichkeit bestehen, einen Nutzer über die Änderung von Öffnungszeiten zu informieren.<br />
Oder über die Möglichkeit, eine Attraktion zu besuchen, zu der ihm der Zugang aufgrund<br />
von Veranstaltungen zuvor verwehrt geblieben ist. Ferner könnten beispielsweise<br />
auch die Tageskarten umliegender Restaurants für den Nutzer von Interesse sein.<br />
• Bereitstellung interaktiver <strong>Dienste</strong><br />
Bei der Beobachtung der Aktivitäten der Besucher stellte sich heraus, dass eine überraschend<br />
hohe Anzahl von Touristen wiederholt das Tourismusbüro aufsuchten. In den<br />
meisten Fällen handelte es sich um den Wunsch nach einer speziellen Information oder<br />
Nutzung von <strong>Dienste</strong>n, die das Tourismusbüro bereitstellt. Überwiegend waren dies Reservierungen<br />
und Buchungen, beispielsweise von Übernachtungsmöglichkeiten. Aus diesem<br />
Grund sollte das System eine Möglichkeit zur elektronischen Kontaktaufnahme mit<br />
dem Tourismusbüro über einen Nachrichtendienst bereitstellen. Insbesondere sollte hierüber<br />
die Buchung und Reservierung von Veranstaltungen oder Übernachtungsmöglichkeiten<br />
ermöglicht werden.<br />
3.3 Konzepte und Architektur<br />
Das System basiert auf Internet-Technik, portablen Endgeräten und einer zellbasierten Netzwerkinfrastruktur.<br />
Die präsentierte Information wird sowohl auf das persönliche Profil des<br />
Benutzers als auch auf seine aktuelle Umgebung zugeschnitten. Positionsinformation wird<br />
von strategisch angeordneten Basisstationen ausgesendet. Daher bedeutet der Verlust der<br />
Netzwerkverbindung auch den Verlust sämtlicher Positionsinformation. Um die Benutzerin<br />
über den aktuellen Status der Positionsinformation auf dem Laufenden zu halten, stellt das<br />
System neben der letzten bekannten Position auch die aktuelle Empfangsstärke dar. Sind<br />
keine Positionsinformationen mehr verfügbar, wird unter Einbeziehung des Nutzers in einem<br />
kooperativen Dialog die aktuelle Position neu justiert.<br />
3.3.1 Mobileinheit<br />
Als Anwenderterminal wurde ein Fujitsu TeamPad 7600 (Abbildung 24) ausgewählt, der mit<br />
einer Lucent WaveLAN (neuerdings Orinoco)-Netzwerkkarte mit 2 Mbps Bandbreite nach<br />
dem 802.11 Standard ausgestattet wurde.<br />
Abbildung 24: Die GUIDE-Mobileinheit (Fujitsu TeamPad 7600)
56 Beispiele ortsbasierter <strong>Dienste</strong><br />
Der wesentliche Grund für die Auswahl der Mobileinheit war ein ausgewogenes Verhältnis<br />
von Performanz und Größe und Gewicht des Geräts. Im einzelnen spielten folgende Kriterien<br />
eine Rolle:<br />
• Das Display bietet eine relativ hohe Auflösung: 800x600 Pixel.<br />
• Das transflexive Display ist auch bei Sonnenlicht gut zu erkennen.<br />
• Der TeamPad verfügt über ausreichende Prozessorleistung (Pentium 166 MMX) für den<br />
Betrieb Java-basierter Anwendungen.<br />
• Das Gewicht der Mobileinheit ist mit 850 Gramm noch akzeptabel.<br />
• Mit Windows 95 kann ein Betriebssystem installiert werden, das u.a. die erforderlichen<br />
Netzwerktreiber beinhaltet.<br />
3.3.2 Netzwerk-Infrastruktur<br />
Die in den Mobileinheiten verfügbaren Netzwerkkarten dienen zur drahtlosen Anbindung an<br />
eine Reihe von Basisstationen, welche in der Nähe von bekannten Attraktionen über die gesamte<br />
Stadt verteilt sind (Abbildung 25). Diese WaveLAN-Basisstationen decken jeweils eine<br />
bestimmte Zelle (d.h. ein geographisches Gebiet) ab und senden ihrem Standort entsprechend<br />
relevante Informationen.<br />
Abbildung 25: Überblick über Verteilung der WaveLAN-Zellen [DCME01]<br />
Bei diesen Basisstationen (Cell Server) handelt es sich um mit jeweils zwei Netzwerken verbundene<br />
Linux-Server. Das eine Netzwerk verbindet die Server drahtlos mit den sich aktuell<br />
in ihrer Zelle bewegenden Mobileinheiten, das andere ist fest verdrahtet und verbindet verschiedene<br />
Server (Abbildung 26):<br />
Abbildung 26: Die GUIDE-Netzwerkarchitektur [CMD02]
57 Edgar Merl<br />
Jede Mobileinheit wird innerhalb der Zelle von der zugehörigen Basisstation über Broadcast<br />
mit den Informationseinheiten versorgt, auf die innerhalb dieser Server-Zelle zuletzt häufig<br />
zugegriffen wurde. Um die Performanz der Anwendung zu verbessern, werden diese Seiten<br />
auf den Mobileinheiten in einem lokalen Cache bevorratet. Damit kann eine explizite Informationsanforderung<br />
(per HTTP-Request) an den Zellserver nur auf die Fälle beschränkt bleiben,<br />
in denen die Information lokal noch nicht vorhanden ist. Die Basisstationen wiederum<br />
werden vom zentralen GUIDE Web-Server mit aktualisierten Informationen versorgt.<br />
Zur Positionsbestimmung senden die WaveLAN-Server periodisch Funkbaken (beacons) aus.<br />
Dabei handelt es sich um einfache Datagramme, die eine eindeutige Ortsbezeichnung (ID)<br />
enthalten. Hierüber erhalten die Mobileinheiten die Information, in welcher der Zellen sie sich<br />
gerade befinden. Im worst case liefert das System damit eine Genauigkeit von nur etwa 350<br />
Metern im Rahmen der Positionsbestimmung. Hierbei handelt es sich um die Reichweite der<br />
WaveLAN-Netzwerkkarten. Im allgemeinen ist auf Basis der 802.11-Funknetzwerktechnik<br />
aber eine deutlich höherer Grad von Genauigkeit möglich. Dies liegt begründet in der relativ<br />
schwachen Durchdringung von Gebäuden durch die Funksignale. Die im Zellgebiet vorhandene<br />
Bebauung führt somit zu einer automatischen Begrenzung der Reichweite der Signale<br />
und in der Folge zu einem individuellen Zuschnitt des Zellgebiets.<br />
Schließlich dienen die Basisstationen noch als Gateways für interaktive <strong>Dienste</strong> wie beispielsweise<br />
Buchungen oder Reservierungen.<br />
3.3.3 Begründung der Architekturentscheidung<br />
Als Alternative zur Verwendung der WaveLAN-Funknetzwerktechnik wurde die Nutzung<br />
von GPS zur Positionsbestimmung in Betracht gezogen. Als positive Aspekte beim Einsatz<br />
von GPS wurden folgende Punkte eingeschätzt:<br />
• Die tatsächlich globale Verfügbarkeit von GPS, die eine komplette Abdeckung des Stadtgebiets<br />
ermöglicht hätte.<br />
• GPS-Empfangseinheiten sind relativ kompakt und handlich.<br />
• Der Einsatz von GPS kann relativ kostengünstig erfolgen.<br />
Dem standen aus Sicht der Entwickler von GUIDE aber auch verschiedene Nachteile gegenüber:<br />
• Die Verfügbarkeit einer ausreichenden Zahl von Empfangssatelliten muss für den Betrieb<br />
gewährleistet sein.<br />
• Damit ist die Verwendung von GPS innerhalb von Gebäuden bereits ausgeschlossen.<br />
• Aber auch innerhalb von dicht bebauten Städten kann es zu Empfangsproblemen kommen.<br />
Nachdem man sich ursprünglich für GPS entschieden hatte, kam man in der Folge zu der Einschätzung,<br />
dass die zusätzliche Installation von GPS gegenüber dem bereits vorhandenen<br />
Funknetzwerk keine signifikanten Vorteile bieten würde. Die erreichbare Genauigkeit der<br />
WaveLAN-Technik (zumeist im Bereich von 50 bis 100 Metern) wurde als ausreichend für<br />
die in der Anwendung vorgesehene ortsbezogenen Funktionalität eingeschätzt. Insbesondere<br />
wurde festgestellt, dass eine höhere Genauigkeit wie bei GPS keine Aussage darüber zulässt,<br />
über welche der Sehenswürdigkeiten in seiner unmittelbaren Umgebung der Nutzer Informationen<br />
erhalten möchte. Hierzu müsste das System in der Lage sein zu erkennen, wohin der<br />
Blick des Besuchers aktuell gerichtet ist. Da ferner über GPS keine Möglichkeit zur Kommunikation<br />
besteht, hätte die Einführung von GPS die Verwendung des WaveLAN-Netzes auch<br />
nicht obsolet gemacht.
58 Beispiele ortsbasierter <strong>Dienste</strong><br />
3.4 Erfahrungen<br />
Nach der Implementierung und Installation des GUIDE-Systems startete eine Feldstudie, in<br />
der über vier Wochen hinweg insgesamt 60 Touristen zu ihren Erfahrungen im Umgang mit<br />
dem System befragt wurden. Ziele der Interviews und Beobachtungen war, verschiedene Aspekte<br />
wie beispielsweise die Akzeptanz durch den Benutzer und Erfahrungen mit der Granularität<br />
der Positionsbestimmung näher zu beleuchten.<br />
Die wichtigsten Ergebnisse dieser Studie waren:<br />
• Die große Mehrheit (59/60) fand Gefallen an der Nutzung und im Umgang mit dem System<br />
zur Erkundung der Sehenswürdigkeiten und Attraktionen der Stadt.<br />
• Alle Nutzer schätzten die Information über ihren aktuellen Standort und die Navigationsfunktionen<br />
als nützlich und verlässlich ein.<br />
• Die Mehrheit (45/60) war zufrieden mit Größe und Gewicht der Mobileinheit.<br />
• Auch die Mehrheit der Nutzer ohne Weberfahrung (21/22) hatte keine Probleme im Umgang<br />
mit und bei der Bedienung der Anwendung.<br />
• “Jüngere” Nutzer (10-20) waren aktiver in der Nutzung, d.h. sie riefen im Schnitt doppelt<br />
so viele Informationen aus dem System ab, als andere Benutzergruppen.<br />
Weitere Erfahrungen in der Folgezeit zeigten, dass die automatischen Tourenvorschläge des<br />
Systems eher abgelehnt wurden. Der Grund liegt im wesentlichen im Initialaufwand durch die<br />
explizite Eingabe der persönlichen Präferenzen. Hieran lässt sich gut erkennen, wie elementar<br />
die implizite Erstellung eines Anwenderprofils für die allgemeine Akzeptanz personalisierter<br />
Systeme ist. Später fix programmierte Standardtouren wurden gut angenommen.<br />
3.5 Weiterentwicklung<br />
Zum Zeitpunkt der Konzeption waren zellbasierte Systeme noch nicht verfügbar. Einer der<br />
Vorteile dieser Systeme liegt in der höheren Genauigkeit aufgrund der kleineren Zellgrößen.<br />
Derzeit wird im Projekt GUIDE II die Erweiterung von GUIDE um mikro-zellulare Techniken<br />
(wie Bluetooth) vorgenommen [CMSD00].<br />
Der Wunsch nach einer höheren Genauigkeit resultiert unter anderem aus der vorgesehenen<br />
Erweiterung von GUIDE um die Möglichkeit zur sozialen Kooperation und Interaktion der<br />
Nutzer. Mehrere Anwender, zum Beispiel Mitglieder einer Reisegruppe, sollen untereinander<br />
oder auch mit dem Touristen-Informationsbüro Nachrichten austauschen können. Ferner sollen<br />
die künftigen GUIDE-Nutzer z.B. virtuelle Notizen an bestimmten Orten hinterlegen können,<br />
so dass eine Art Erlebnisforum für die jeweiligen Orte entsteht. Auch soll über diese Mechanismen<br />
der eigene Standort an die anderen Gruppenmitglieder übermittelt werden können.<br />
Spätestens hier kommen allerdings die üblichen Fragen in Zusammenhang mit dem Schutz<br />
der Privatsphäre und der Vertraulichkeit ins Spiel.<br />
4 Ausblick und aktuelle Projekte<br />
Der Branchenverband Eco kommt in einer aktuellen Studie zu dem Ergebnis, dass ortsbasierte<br />
<strong>Dienste</strong> entscheidend für die gesamte Mobilfunkbranche und ein Schlüsselfaktor für den Erfolg<br />
des Mobile-Business sein werden [ECO03]. Die Anwendungen im Bereich ortsbasierter<br />
<strong>Dienste</strong> seien allerdings bei weitem noch nicht ausgereift. Den befragten Experten zufolge,<br />
werden sich Nachfrage und Angebot von Anwendungen innerhalb der kommenden Jahre<br />
erheblich verstärken. 80 Prozent der Befragten rechnen im Jahr 2005 mit dem endgültigen<br />
Durchbruch von ortsbasierten <strong>Dienste</strong>n. Als wichtigste Branche für den Einsatz von ortsbasierten<br />
<strong>Dienste</strong>n wurde dabei mit 96 Prozent der Bereich Touristik genannt. Dies lässt ver-
59 Edgar Merl<br />
muten, dass die Entwicklung mobiler kontextbewusster Reiseführer künftig verstärkt im<br />
Blickpunkt des Forschungsinteresses stehen wird.<br />
Ein aktuelles Projekt, das in diesem Zusammenhang interessant erscheint, sei abschließend<br />
noch kurz erwähnt:<br />
Im Mai 2002 wurde mit m-ToGuide - a mobile Tourism Guide - ein von der Europäischen<br />
Union (EU) gefördertes Projekt vorgestellt, welches die Entwicklung eines mobilen europäischen<br />
Reiseführers zum Ziel hat [MTG03]. Ab Mai 2003 (oder August 2003) werden für<br />
sechs Monate erste Praxistests in Madrid, London und Siena durchgeführt. Der Reiseführer<br />
basiert auf einem PDA und verwendet GPS zur Positionsbestimmung. Abhängig von der Position<br />
sollen dem Benutzer ortsbezogene Informationen und Dienstleistungen auf Basis von<br />
UMTS oder GPRS zur Verfügung gestellt werden. Unter anderem sollen Audio und Video-<br />
Clips über Sehenswürdigkeiten, Informationen über aktuelle Veranstaltungen und die Nutzung<br />
von <strong>Dienste</strong>n von Flughäfen und Verkehrsunternehmen bereitgestellt werden. Insbesondere<br />
sollen Reservierungen und Buchungen von Leistungen möglich sein. Die Berücksichtigung<br />
von Interessen und Vorlieben des Benutzers soll eine personalisierte Aufbereitung der<br />
zur Verfügung gestellten Informationen und Dienstleistungen ermöglichen. Insgesamt 17<br />
Unternehmen aus sechs europäischen Ländern, die in den Bereichen der Touristik, mobilen<br />
Kommunikation, Telekommunikation, IT-Beratung und Geomantik tätig sind, beteiligen sich<br />
an dem von der EU geförderten Projekt.<br />
Referenzen<br />
[AAH+97] Abowd, G. D.; Atkeson, C. G.; Hong, J.; Long, S.; Kooper, R.; Pinkerton, M. (1997):<br />
Cyberguide: A mobile contextaware tour guide,<br />
Baltzer/ACM Wireless Networks, Band 3 (5), 1997, Seiten 421-433<br />
[CDM+00] Cheverst, K.; Davies, N.; Mitchell, K.; Friday, A.; Efstratiou, C. (2000):<br />
Developing a Context-aware Electronic Tourist Guide: Some Issues and Experiences,<br />
In Proceedings of CHI‘00, Netherlands, April 2000, pp 17-24, ACM Press.<br />
[ChKo00] Chen, G.; Kotz, D. (2000):<br />
A Survey of Context-Aware Mobile Computing Research,<br />
Dartmouth Computer Science Technical Report TR2000-381, 11/2000.<br />
[CMD02] Cheverst, K.; Mitchell, K.; Davies, N. (2002):<br />
The Role of Adaptive Hypermedia within a Context-Aware Tourist GUIDE,<br />
Communications of the ACM, special issue on adaptive Web-based systems and<br />
adaptive hypermedia. Vol. 45, No 5, pp. 47-51. May 2002.<br />
[CMSD00] Cheverst, K.; Mitchell, K.; Smith, G.; Davies, N. (2000):<br />
Exploiting Context to Support Social Awareness and Social Navigation,<br />
In Proceedings of the Workshop on 'Awareness and the WWW' at CSCW '00,<br />
Philadelphia, 2nd Dec 2000.<br />
[DCME01] Davis, N.; Cheverst, K.; Mitchell, K.; Efrat, A. (2001):<br />
Using and Determining Location in a Context Sensitive Tour Guide,<br />
IEEE Computer,Vol. 34, pp 35-41, 08/2001.<br />
[ECO03] Verband der deutschen Internetwirtschaft (2003):<br />
eco-Studie: Location-Services erfolgskritisch für M-Business,<br />
http://www.eco.de/servlet/PB/menu/1204471/index.html (Stand: 25.03.2003).<br />
[FCE03]<br />
Future Computing Environments (FCE) Group am Georgia Institute of Technology:<br />
Cyberguide Project Page,<br />
http://www.cc.gatech.edu/fce/cyberguide/ (Stand: 25.03.2003).
60 Beispiele ortsbasierter <strong>Dienste</strong><br />
[MTG03] Mobile Tourism Guide Partner:<br />
m-ToGuide<br />
http://www.mtoguide.org (Stand: 25.03.2003)<br />
[SAW94] Schilit, B.; Adams, N.; Want R. (1994):<br />
Context-aware computing applications,<br />
In Proceedings of IEEE Workshop on Mobile Computing Systems and Applications,<br />
Santa Cruz, California, December 1994, pages 85-90, IEEE Computer Society Press.<br />
[Want+95] Want, R. et al. (1995):<br />
An Overview of the PARCTAB Ubiquitous Computing Environment,<br />
IEEE Personal Communications, vol 2, no 6, Dec 1995, pp. 28-43.<br />
[WHFG92] Want, R.; Hopper, A.; Falcao, V.; Gibbons, J. (1992):<br />
The Active Badge Location System,<br />
ACM Transactions on Information Systems 10(1) pp. 91-102.
<strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />
Andreas Werlemann<br />
Zusammenfassung: Bei ortsbasierten <strong>Dienste</strong>n werden die den Anwender interessierenden<br />
Informationen anhand dessen Position spezifiziert. <strong>Ortsbasierte</strong> <strong>Dienste</strong> können in<br />
Mobilfunknetzen bereitgestellt werden. Diese Arbeit stellt die technischen Voraussetzungen,<br />
insbesondere die wichtigsten Verfahren zur Positionsbestimmung, ortsbasierter<br />
<strong>Dienste</strong> in Mobilfunknetzen dar. Diese Verfahren eignen sich in unterschiedlichem Maße<br />
für die diversen ortsbasierten <strong>Dienste</strong>, von denen einige exemplarisch dargestellt werden.<br />
1 Einleitung<br />
Bei ortsbasierten <strong>Dienste</strong>n oder Location Based Services (LBS) handelt es sich um auf den<br />
Standort des Anwenders bezogene Anwendungen [DB03; Ba01; Di01]. D.h. bei LBS kann<br />
ein elektronisches Informationssystem die Relevanz von Informationen bezüglich des Standorts<br />
des Anwenders beurteilen [Bae02]. <strong>Ortsbasierte</strong> <strong>Dienste</strong> werden u.a. im Rahmen von<br />
Mobilfunknetzen bereitgestellt [Se01]. LBS gelten neben UMTS als die Zukunftstechnologie<br />
im Bereich des Mobilfunks [Ba01].<br />
2 Technische Voraussetzungen<br />
<strong>Ortsbasierte</strong> <strong>Dienste</strong> werden u.a. in Mobilfunknetzen betrieben [Se01]. Als Mobilfunk wird<br />
die funktechnische Übertragung von einem mobilen Sender (Mobilfunkendgerät, sog. Handy)<br />
oder einem stationären Sender (Basisstation) zu einem mobilen Empfänger (Mobilstation)<br />
bezeichnet [Li99]. Für sicherheitskritische Anwendungen oder bei Notwendigkeit globaler<br />
Abdeckung durch das System ist ein Satellitennetzwerk (z.B. Inmarsat C oder D+) erforderlich,<br />
während das GSM-Mobilfunknetz hingegen nicht ausreicht [DB03]. Gleichwohl soll im<br />
Folgenden das GSM-Mobilfunknetz angenommen werden. Der Anbieter des ortsbasierten<br />
<strong>Dienste</strong>s sowie der Betreiber des Mobilfunknetzes können identisch oder auch voneinander<br />
unabhängig sein. Unabhängige Dienstanbieter müssen mit den einzelnen Netzbetreibern<br />
jeweils separate Verträge abschließen, wenn sie ihre ortsbasierten <strong>Dienste</strong> allen Mobilfunkkunden<br />
anbieten wollen [Se01]. Gleichzeitig unterhält heutzutage jeder Netzbetreiber (D1,<br />
D2, E1 und E2) ein eigenes Portal für ortsbasierte <strong>Dienste</strong>, die nur von den eigenen Kunden<br />
genutzt werden können [Se01; BG01]. Erster Anbieter im deutschen Markt für LBS war D2<br />
[BG01].<br />
Nahezu alle Anbieter ortsbasierter <strong>Dienste</strong> setzen für die Nutzung ihrer <strong>Dienste</strong> ein auf ihrem<br />
WAP-Portal registriertes GSM-Handy mit WAP als Benutzeroberfläche voraus [Se01]. Für<br />
die Nutzung eines Teils der ortsbasierten <strong>Dienste</strong> von Viag Interkom und Vodaphone reicht<br />
anstelle eines WAP-fähigen Handys jedes SMS-fähige Mobilfunkendgerät aus [BG01]. Dabei<br />
erfolgen sowohl die Suchanfrage als auch die Übermittlung des Suchergebnisses per SMS<br />
[Ba01], einem von GSM spezifizierten Teleservice mit der Fähigkeit, Textnachrichten mit<br />
einer maximalen Länge von 160 Zeichen zu übertragen [Bi02]. Dem Vorteil der Vertrautheit<br />
der Anwender mit dem SMS-Dienst, steht die Beschränkung auf textbasierte Daten als Nachteil<br />
von SMS gegenüber. Zudem ist das Verhältnis von übertragener Information zu Kosten<br />
für den Anwender bei SMS relativ ungünstig, so dass dieses Verfahren insbesondere für solche<br />
Anwendungen ausscheidet, bei denen in regelmäßigen zeitlichen Abständen Informationen<br />
übermittelt werden müssen [DB03]. Obwohl WAP-Handys im Gegensatz zu nur SMSfähigen<br />
Handys nicht auf Textnachrichten beschränkt sind [DB03], besteht auch bei WAP-
62 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />
fähigen Handys das Problem der begrenzten Darstellbarkeit graphischer Informationen.<br />
Hochauflösende Farbdisplays wären hier wünschenswert. Teilweise werden auch sprachgesteuerte<br />
LBS prognostiziert, bei denen die bis dato lediglich über WAP-Seiten abrufbaren<br />
Informationen über Sprachportale zugänglich gemacht werden, d.h. die Kommunikation zwischen<br />
Benutzer und Portal vollständig mittels Spracherkennungs- und Sprachsynthesesysteme<br />
abläuft [Ba01].<br />
<strong>Ortsbasierte</strong> <strong>Dienste</strong> erlangen ihren besonderen Nutzen durch den Ortsbezug der übermittelten<br />
Information. Dabei könnte der Standort vom Anwender zwar grundsätzlich auch z.B. manuell<br />
über die Tastatur des Mobilfunkendgeräts vorgegeben werden [DB03], die automatische Bestimmung<br />
des Standorts des Anwenders stellt jedoch einen Komfortgewinn durch LBS dar<br />
[Ba01]. Für die Zwecke dieser Arbeit wird die zweite Alternative angenommen. Im dritten<br />
Abschnitt werden derartige Verfahren der Positionsbestimmung vorgestellt.<br />
Unabhängig von dem verwendeten Verfahren der Positionsbestimmung stellt das Ergebnis<br />
eine Koordinate ggf. mit einer Angabe zur Genauigkeit dar. Diese Angabe erlangt ihren Wert<br />
z.B. durch Beschreibung relativ zu einer bekannten Örtlichkeit. Für viele Anwendungen (z.B.<br />
zu Navigationszwecken) ist die sinnvollste Wiedergabe von Positionsangaben graphischer<br />
Natur. Eine Möglichkeit ist eine Landkarte. Die hierfür notwendigen Daten können entweder<br />
in Form einzelner Rasterpunkte oder als Vektoren beschrieben sein: die Darstellung mittels<br />
Rasterpunkte ist detaillierter, die Darstellung mittels Vektoren erfordert ein geringeres Datenvolumen<br />
und ist somit schneller zu übertragen. Mehrere Datenformate auf Basis von XML<br />
sind entwickelt worden, die ggf. in Kombination für eine konkrete Anwendung genutzt werden.<br />
Die Karte selbst wird üblicherweise durch Überlagern mehrerer Schichten aufgebaut.<br />
Diese Schichten stellen jeweils bestimmte Elemente der Topographie dar [DB03].<br />
Neben dem Mobilfunknetz bzw. dem zugehörigen Mobilfunkendgerät sowie den Verfahren<br />
der Positionsbestimmung werden Inhalte sowie redaktionelles know-how für die geeignete<br />
Präsentation dieser Inhalte benötigt [Bae02]. Inhalte werden von Partnern geliefert, mit denen<br />
die Portalbetreiber kooperieren [BG01]. Konkrete Beispiele ortsbasierter <strong>Dienste</strong> werden im<br />
vierten Abschnitt dieser Arbeit gegeben. Dort wird auch der Versuch einer Systematisierung<br />
ortsbasierter <strong>Dienste</strong> unternommen.<br />
Die Mobilfunkbetreiber verfügen über die Kenntnis der Position des Anwenders und können<br />
für diese Information ein Entgelt der Anbieter von LBS-Inhalten verlangen. Gleichzeitig befinden<br />
sich die Mobilfunkbetreiber in der Lage, Zahlungsdienste anzubieten und die Endabrechnung<br />
für die Anwender vorzunehmen [DB03]. Die Abrechnung der <strong>Dienste</strong> erfolgt i.d.R.<br />
über die WAP-Gebühren. Im Falle unabhängiger Dienstanbieter werden die WAP-Gebühren<br />
zwischen dem Netzbetreiber und dem Dienstanbieter geteilt [Se01]. Die Anwender müssen<br />
sich daher nicht bei jedem einzelnen unabhängigen Anbieter ortsbasierter <strong>Dienste</strong> registrieren<br />
lassen [DB03]. Im Gegensatz zu der leitungsvermittelten Übertragung von GSM ermöglicht<br />
GPRS eine packetvermittelte Übertragung [Bi02]: während bei den heute noch üblichen<br />
GSM-Handys in Abhängigkeit von der Nutzungszeit abgerechnet wird, bieten GPRS-Handys<br />
eine zeitunabhängig abgerechnete Übertragungstechnik. Viag Interkom eröffnet seine LBS<br />
zudem auch Kunden mit LOOP-Prepaid-Karte [BG01].<br />
Den zahlreichen mobilen Positionssystemen und Technologien fehlt es oftmals an Interoperabilität.<br />
Vor diesem Hintergrund haben im Oktober 2000 die Firmen Ericsson, Motorola und<br />
Nokia das Location Interoperability Forum (LIF) gegründet, um Empfehlungen zur Herstellung<br />
von Interoperabilität durch standardisierte Zugangsprozesse zu erarbeiten [Di01]. LIF<br />
kooperiert zudem mit der neuen Open Mobile Alliance (OMA), die die Arbeit der Open Mo-
63 Andreas Werlemann<br />
bile Architecture Initiative und des WAP-Forums fortführt und die große Bedeutung bei der<br />
Entwicklung zahlreicher UMTS-Anwendungen einschließlich LBS hat [AAB03].<br />
3 Verfahren der Positionsbestimmung<br />
3.1 Ansätze einer Systematisierung<br />
<strong>Ortsbasierte</strong> <strong>Dienste</strong> verwenden eines von mehreren verfügbaren Verfahren zur Positionsbestimmung,<br />
die alle ihre Beschränkungen haben. Bei einigen muss das Mobilfunkgerät, mindestens<br />
jedoch die SIM-Card, bei anderen die Netzwerkinfrastruktur geändert werden [DS01].<br />
Eine denkbare Systematisierung [RG02] unterscheidet<br />
• auf der Mobilfunkeinheit basierende Verfahren von<br />
• netzwerkbasierten Verfahren.<br />
Bei auf der Mobilfunkeinheit basierenden Verfahren wird die Position dezentral durch das<br />
mobile Endgerät berechnet. Dabei werden solche Informationen berücksichtigt, die von Seiten<br />
des Netzwerks zur Verfügung gestellt werden. Bei netzwerkbasierten Verfahren wird die Position<br />
zunächst innerhalb des Netzwerks z.B. durch eine zentrale Auswerteeinheit ermittelt.<br />
Anschließend wird die Position an das mobile Endgerät übertragen.<br />
Einzelne Verfahren (z.B. Cell-ID-Verfahren, vgl. 3.2) können jedoch sowohl netzwerk- als<br />
auch endgerät-basiert sein [DS01], so dass eine an diesem Kriterium orientierte Systematisierung<br />
nicht eindeutig ist.<br />
Eine an den unterschiedlichen Funktionsweisen bzw. verwendeten technischen Wirkungsprinzipien<br />
orientierte Systematisierung [Ro03] unterscheidet Verfahren, die<br />
• an der Richtung, aus der ein Signal empfangen wird, oder<br />
• an der Laufzeit eines Signals vom Sender zum Empfänger oder<br />
• an der auf dem Weg vom Sender zum Empfänger zu verzeichnenden Signalabschwächung<br />
oder<br />
• an der begrenzten Reichweite drahtloser Übertragungstechnologien<br />
• ansetzen.<br />
Im Folgenden sollen primär die drei praktisch wichtigsten Verfahren vorgestellt und soll auf<br />
weitere Verfahren nur kurz eingegangen werden.<br />
3.2 Cell-ID<br />
Das als Cell of Origin (COO) [RG02], Cell Global Identity (CGI) [Ro03] oder Cell-ID bezeichnete<br />
Verfahren gelangt in Positionierungssystemen mit Zellenstruktur zur Anwendung<br />
und basiert auf dem Umstand, dass drahtlose Übertragungstechnologien eine begrenzte<br />
Reichweite haben, ein gesendetes Signal also nur in einem begrenzten Bereich, der Zelle,<br />
empfangen werden kann [Ro03]. Bei der Funkzelle handelt es sich um den kleinsten geographischen<br />
Funkversorgungsbereich. Dieser wird von einer Basisstation bedient, deren Sendeleistung<br />
die Größe der Funkzelle determiniert [Li99]. In jedem Moment ist das Mobilfunkgerät<br />
bei einer Basisstation angemeldet [DB03]. Das Verfahren basiert auf der Annahme, dass<br />
sich das mobile Endgerät geographisch in derjenigen Zelle befindet, die durch die Basisstation,<br />
bei der das Mobilfunkgerät angemeldet ist, am besten bedient werden kann [DS01]. Die<br />
Hauptschwierigkeit dieses Verfahrens liegt in der korrekten Vorhersage der geographischen<br />
Abdeckung der Zellen, da die „beste“ Basisstation nicht immer die physikalisch am nächsten<br />
gelegene ist. Die Verlässlichkeit und Genauigkeit der erhaltenen Position hängen von der Präzision<br />
der Vorhersage der Funkverhältnisse ab [DS01]. Die Lokalisierung des Handys mittels
64 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />
Cell-ID ist um so genauer, je kleiner die Zelle ist [DS01]. Bei der Festlegung der Funkzellengröße<br />
werden die geographischen Gegebenheiten und die Anzahl der zu versorgenden Mobilfunkteilnehmer<br />
berücksichtigt, d.h. in Ballungsgebieten haben die Funkzellen deutlich geringere<br />
Abmessungen als in ländlichen Gebieten [Li99]. Während die Größe der Funkzellen in<br />
städtischen Gegenden typischerweise bei rund 500m liegt, kann sich diese in ländlichen Gegenden<br />
auf bis zu 15km erhöhen [DB03]. Die Geschwindigkeit des Verfahrens liegt üblicherweise<br />
bei 3sec. [RG02]. Der wesentliche Vorteil des Verfahrens besteht in den niedrigen<br />
Aufbau- und Betriebskosten sowie in dem Umstand, dass keine speziellen Entwicklungen für<br />
das Mobilfunkgerät benötigt werden [DS01].<br />
Eine weitergehende Eingrenzung auf einen Kreissektor wird durch die ergänzende Anwendung<br />
des unten dargestellten Verfahrens Angle of Arrival ermöglicht [Ro03]. Da eine Funkzelle<br />
üblicherweise von mehreren Antennen gebildet wird, die für jeweils ein Teilsegment der<br />
Zelle zuständig sind, kann der Standort des Handys über die zuständige Antenne weiter eingegrenzt<br />
werden [DB03; Ba01].<br />
3.3 E-OTD<br />
Enhanced Observed Time Difference (E-OTD) verwendet Triangulation zur Positionsbestimmung<br />
[DB03]. Dabei wird von mindestens drei Basisstationen ein Funksignal ausgesendet.<br />
Das Mobilfunkendgerät misst die Laufzeiten der Signale und übermittelt die daraus errechneten<br />
Laufzeitdifferenzen an eine zentrale Auswerteeinheit (Mobile Location Center).<br />
Diese kann aus den übermittelten Laufzeitdifferenzen die Position des Mobilfunkendgeräts<br />
bestimmen [RG02]. Zusätzlich werden die Signallaufzeiten von den Basisstationen zu der<br />
Mobilstation mit der Signallaufzeit von den Basisstationen zu einer Location Measurement<br />
Unit (LMU), deren Abstand zu den Basisstationen bekannt ist, verglichen [DB03]. E-OTD<br />
gelangt insbesondere im Zusammenhang mit GSM-Netzen zur Anwendung [Ro03]. E-OTD<br />
ermöglicht eine Steigerung der Genauigkeit gegenüber Cell-ID um den Faktor 10 [DB03].<br />
Die Angaben zur Genauigkeit des Verfahrens variieren von ca. 150-500m [DS01] bis ca. 30m<br />
[Ba01]. Die Antwortgeschwindigkeit liegt bei 5sec. [RG02]. Das Verfahren erfordert jedoch<br />
zugleich signifikante Investitionen des Mobilfunkbetreibers sowie ein geringes Softwareupdate<br />
für die Mobilstationen [DB03, DS01, RG02].<br />
3.4 Positionsbestimmung mittels GPS<br />
3.4.1 Allgemein<br />
Beim sog. Global Positioning System (GPS) handelt es sich um ein satellitengestütztes globales<br />
System zur Positionsbestimmung [Ro03]. Dieses wurde seit 1978 vom US-amerikanischen<br />
Verteidigungsministerium ursprünglich zu militärischen Zwecken entwickelt und in<br />
1995 als ein aus 24 Satelliten bestehendes System für voll funktionstüchtig erklärt. Lieferte<br />
GPS für zivile Zwecke zunächst nur Positionsangaben mit eingeschränkter Genauigkeit (sog.<br />
selective availability), so wurde die künstliche Einschränkung der Genauigkeit am 01.05.2000<br />
mitternachts abgeschaltet, so dass seitdem für jedermann Positionsangaben mit einer Genauigkeit<br />
von 3-15m erhältlich sind [DB03, Ro03]. Ein europäisches Parallelsystem namens<br />
GALILEO ist im Aufbau befindlich [Ro03]. Dieses soll in 2008 zur Verfügung stehen und<br />
sich durch höhere Verfügbarkeit und Genauigkeit auszeichnen [AAB03].<br />
Bei der Positionsbestimmung unter Nutzung des Global Positioning System (GPS) erzeugen<br />
Satellit und Empfänger zu exakt derselben Zeit ein Signal, sog. Pseudo Random Code. Der<br />
Empfänger vergleicht bei Empfang des vom Satelliten generierten Signals dieses mit dem
65 Andreas Werlemann<br />
selbst erzeugten Signal. Der dabei festzustellende Zeitversatz entspricht der Laufzeit [RG02,<br />
Ro03]. Hieraus berechnet der Empfänger die Entfernung x zum Satelliten, so dass bei bekannter<br />
Position des Satelliten die Position des Empfängers als auf einer durch den Radius x<br />
beschriebenen Halbkugel befindlich festgelegt wird. Durch die Messung eines weiteren Satelliten<br />
kann der potentielle Standort des Empfängers auf die Schnittfläche von zwei Halbkugeln<br />
reduziert werden. Nach Messung der Entfernung zu einem dritten Satelliten kann sich die<br />
Position nur noch an zwei möglichen Punkten befinden, davon ein Punkt, der zu weit von der<br />
Erdoberfläche entfernt ist [DB03, Ro03]. Für eine Positionsbestimmung in drei Dimensionen<br />
sind genau 4 Satelliten bzw. von diesen ausgesandte Signale erforderlich [Ro03, DB03]. Bei<br />
sog. Assisted GPS (A-GPS) werden die Messwerte über Mobilfunk zwecks Positionsberechnung<br />
zu einer zentralen Auswerteeinheit übermittelt [RG02]. Die Genauigkeit liegt bei ca. 3-<br />
15m [DB03].<br />
GPS ist aufgrund eines schwachen Signals innerhalb von Gebäuden und zwischen hohen Gebäuden<br />
(sog. urban canyon) nicht verfügbar [DB03]. Darüber hinaus erfordert die Nutzung<br />
des GPS zur Positionsbestimmung die Integration eines vollständigen Satellitenempfängers in<br />
das Mobilfunkendgerät [DS01]. Allerdings ist die Integration der GPS-Komponente relativ<br />
kostengünstig und sind keine Modifikationen am Netz erforderlich [RG02].<br />
3.4.2 Differential GPS<br />
Beim Durchlaufen von Ionosphäre und Troposphäre kann es zu leichten Verzögerungen des<br />
Satelliten-Signals kommen [DB03]. Daher wird bei Differential GPS (D-GPS) ein Netzwerk<br />
stationärer Empfänger mit exakt bekannter Position als Referenz verwendet: Indem der stationäre<br />
Empfänger unter Verwendung von GPS seine Position berechnet und die Abweichung<br />
der gemessenen von der tatsächlichen Position bestimmt, lässt sich die Genauigkeit der GPS-<br />
Positionsbestimmung feststellen bzw. ein Korrekturfaktor berechnen. Dieser Korrekturfaktor<br />
wird sodann an die mobilen Empfänger übermittelt, damit diese ihre Positionsberechnungen<br />
entsprechend korrigieren können [DB03, RG02, Ro03]. Die Genauigkeit liegt bei ca. 5m<br />
[RG02]. Das Verfahren erfordert die Installation eines Referenzservers im Netzwerk, die Investitionen<br />
sind jedoch geringer als bei E-OTD [DS01].<br />
3.5 Sonstige Verfahren<br />
3.5.1 Angle of Arrival<br />
Antennen mit Richtungscharakteristik können die Richtung ermitteln, aus der ein bestimmtes<br />
Signal eintrifft [Ro03]. Bei dem Verfahren Angle of Arrival (AOA) – auch direction finding<br />
genannt - messen mindestens zwei Antennen bzw. Basistransmitterstationen die Richtung, aus<br />
der das vom mobilen Endgerät ausgestrahlte Signal stammt. Diese Messwerte werden an eine<br />
zentrale Auswerteeinheit übermittelt und dort zur Berechnung der Koordinaten verwendet<br />
[RG02].<br />
3.5.2 Signal Attenuation<br />
Bei Signal Attenuation (SA) übermittelt das Mobilfunkendgerät eine Information über die<br />
Stärke des empfangenen Signals an die Basisstation. Indem an dieser zugleich die Information<br />
über die tatsächliche Stärke des Signals vorliegt, kann anhand der als Differenz feststellbaren<br />
Signalabschwächung die Entfernung des Mobilfunkendgeräts zur Basisstation geschätzt werden.<br />
Dieses Verfahren besitzt kaum praktische Relevanz [RG02].
66 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />
3.5.3 Radio Camera System<br />
Das Verfahren Radio Camera System bzw. Location Fingerprinting Technology basiert auf<br />
dem Prinzip der Mustererkennung. Dabei wird der Umstand ausgenutzt, dass das aus einer<br />
bestimmten geographischen Lage gesandte Signal (eines Funktelefons) ein bestimmtes Muster<br />
(finger-print) besitzt, das mit den in einer Datenbank gespeicherten Mustern verglichen<br />
und bei Übereinstimmung erkannt werden kann [RG02].<br />
4 Inhalte ortsbasierter <strong>Dienste</strong><br />
4.1 Überblick<br />
<strong>Ortsbasierte</strong> <strong>Dienste</strong> lassen sich grob in zwei Kategorien einteilen. Zum einen existieren<br />
<strong>Dienste</strong>, bei denen der Anwender einmal seine Position abfragt, um diese Angabe anschließend<br />
wiederholt für Anfragen ortsabhängiger Informationen zu verwenden. Dabei handelt es<br />
sich um <strong>Dienste</strong>, die zur Lokalisierung des eigenen Standorts (Navigation) oder nahegelegener<br />
Ziele dienen. Zum anderen existieren <strong>Dienste</strong>, die die Position eines bestimmten Objekts<br />
verfolgen, nachdem sie durch das Erfüllen einer zuvor festgelegten Bedingung ausgelöst wurden.<br />
Die Bedingung kann beispielsweise das Überschreiten der Zellengrenzen innerhalb eines<br />
Mobilfunknetzes oder das Absenden eines Notrufs sein [DB03]. Die Unterscheidung wird<br />
also danach getroffen, ob der Anwender seine eigene Position bestimmt oder ob Dritte die<br />
Position des Anwenders bzw. der mobilen Einheit bestimmen.<br />
Eine Aufzählung ortsbasierter <strong>Dienste</strong>, die sich am Marktpotential orientiert, [DS01] unterscheidet<br />
• Informationsdienste,<br />
• Notrufdienste (z.B. Pannenhilfe),<br />
• <strong>Dienste</strong> zur Überwachung / zum Tracking von Fahrzeugflotten, etc. (B2B-Dienst) und<br />
• <strong>Dienste</strong>, mit denen der Mobilfunknetzbetreiber seine <strong>Dienste</strong> optimieren kann (z.B.<br />
Optimierung des Pricing).<br />
Informationsdienste unterteilen sich dabei weiter in Business-to-Consumer-<strong>Dienste</strong> (B2C),<br />
Consumer-to-Business-<strong>Dienste</strong> (C2B) und Consumer-to-Consumer-<strong>Dienste</strong> (C2C):<br />
• B2C-<strong>Dienste</strong> ermöglichen Unternehmen, Angebote an Anwender in einer bestimmten<br />
Region zu senden.<br />
• Bei C2B-<strong>Dienste</strong>n veranlasst der Anwender die Bestimmung der eigenen Position, um<br />
Informationen über Angebote (z.B. Gaststätten, Tankstellen) in seiner unmittelbaren Umgebung<br />
abzufragen.<br />
• C2C-<strong>Dienste</strong> ermöglichen es dem Anwender, bestimmte Personen bzw. weitere zu einer<br />
bestimmten Gruppe gehörende Anwender zu lokalisieren, die sich in einer bestimmten<br />
Region aufhalten.<br />
Die meisten Informationsdienste verwenden Cell-ID zur Positionsbestimmung, dieses Verfahren<br />
entspricht den Genauigkeitsanforderungen von Pricing- und Informationsdiensten [DS01].<br />
Es ist jedoch zu ungenau für Notrufdienste und für Routenplanung [Ba01]. <strong>Dienste</strong> zur Überwachung<br />
/ zum Tracking von Fahrzeugflotten, etc. verwenden GPS [DS01].<br />
4.2 Ausgewählte Beispiele<br />
4.2.1 Zielgruppenspezifisches Marketing (B2C-<strong>Dienste</strong>)<br />
B2C-<strong>Dienste</strong> ermöglichen Unternehmen, Angebote an solche Konsumenten zu senden, die<br />
sich in einer bestimmten Region befinden. Dadurch wird zielgruppenspezifisches Marketing<br />
durch lokal begrenzte Produktpromotionen oder Werbekampagnen via Handy an solche Kon-
67 Andreas Werlemann<br />
sumenten ermöglicht, die diesen Informationsdienst abonniert haben und sich in der jeweiligen<br />
Region aufhalten [DS01]. Der Vorteil ortsbasierter Werbung besteht in der sofortigen<br />
Messbarkeit der Erfolgsquote [DB03].<br />
4.2.2 Informationsdienste für Reisende (C2B-<strong>Dienste</strong>)<br />
Der Mobilfunkbetreiber D2 weist mittels seines entsprechenden LBS den Weg zu der dem<br />
Anwender nächstgelegenen Tankstelle. D2 kooperiert zu diesem Zweck mit den Unternehmen<br />
Aral und Total/Fina, die die notwendigen Informationen bereitstellen [BG01]. Dem LBS-Nutzer<br />
werden die Standorte der Tankstellen in Relation zu seiner aktuellen Position auf dem<br />
Bildschirm des Handys präsentiert [BG01]. Einen Schwachpunkt dieses Angebots bildet der<br />
Umstand, dass nicht sämtliche Tankstellen ausgewiesen werden, sondern nur die von den Kooperationspartnern<br />
betriebenen. Eine ggf. näher gelegene Tankstelle eines dritten Anbieters<br />
wird nicht genannt. Dieser Nachteil geht zu Lasten des LBS-Nutzers [BG01]. Darüber hinaus<br />
erhält der LBS-Nutzer nur bei manueller Eingabe des aktuellen Standorts (Adresse) zusätzlich<br />
eine Streckenbeschreibung. D1 bietet einen LBS, der nahegelegene Tankstellen mit günstigen<br />
Spritpreisen ortet [BG01].<br />
Der PASSO Verkehrsinformationsdienst von D2-Vodafone und E-Plus [Bae02] liefert aktuelle<br />
Verkehrsinformationen für den Umkreis von 15 Kilometern um die aktuelle Funkzelle.<br />
Das Angebot wird um eine Routenplanung ergänzt, die allerdings nicht in der Lage ist, die<br />
aktuelle Position als Startort der Routenplanung zu übernehmen. Demgegenüber kann der<br />
Nutzer bei Viag Interkom bezüglich der in einem beliebigen Informationsdienst dieses Anbieters<br />
(MyGenion/M-Kompass) ermittelten Zieladresse den Weg dorthin von dem aktuellen<br />
Standort aus durch einen Routenplaner ermitteln lassen [BG01]: z.B. Anfrage des Wegs vom<br />
aktuellen Standort zu der nächstgelegenen Tankstelle.<br />
Der von D2 angebotene LBS tourisline ermittelt Hotels in der Nähe des Anwenders. Neben<br />
der Angabe der ungefähren Entfernung erhält der LBS-Nutzer die Möglichkeit, per Klick telefonisch<br />
die Zimmerlage zu klären und eine Reservierung vorzunehmen, in Einzelfällen das<br />
Zimmer auch direkt online zu buchen. Ein entsprechendes Angebot eröffnet D1 seinen Kunden<br />
unter dem Namen Hotelkatalog. Auch bei dem mobilfunkbetreiberunabhängigen LBS-<br />
Anbieter Jamba kann ein Hotelführer genutzt werden, der zudem auch gleich die Buchung im<br />
Netz ermöglicht. Informationen über nahegelegene Restaurants bietet D1 mit dem Michelin-<br />
Führer und dem LBS Essen und Co. [BG01].<br />
D1 sendet dem Reisenden eine auf dessen Standort bezogene Liste mit örtlichen Taxiunternehmen,<br />
mit denen dieser per Klick telefonisch Kontakt aufnehmen kann. Auch Jamba offeriert<br />
einen sog. Taxifinder [BG01].<br />
Schließlich sind noch Anwendungen denkbar, bei denen der Anwender Informationen über<br />
seine unmittelbare Umwelt abfragt, jedoch ohne dass es sich dabei um kommerzielle Gelegenheiten<br />
(Einkaufsmöglichkeiten u.ä.) handelt: z.B. ein elektronischer Touristenführer oder<br />
ein interaktiver Roman, dessen Fragmente durch die Bewegung des Empfängers im Stadtraum<br />
gesteuert werden [Bae02].<br />
4.2.3 Personensuche per Handy (C2C-<strong>Dienste</strong>)<br />
Die exemplarisch vorgestellten ortsbasierten Informationsdienste für Reisende wären grundsätzlich<br />
(Ausnahme: der Reisende hat sich verirrt) auch ohne automatische Ortung denkbar.<br />
Anwendungen, die ihren besonderen Reiz durch die automatische Standortbestimmung erlangen<br />
und somit das Potential haben, LBS zu besonderer Popularität zu verhelfen, sind in den<br />
Community-Funktionen bzw. C2C-<strong>Dienste</strong>n zu suchen [Ba01].
68 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />
Für die Funktion „friends around“ werden verschiedene Anwendungsszenarien vorgeschlagen.<br />
Diese reichen von der spontanen Verabredung zum Kinobesuch bis zum handy-vermittelten<br />
blind date. [Ba01]. Ein entsprechendes Angebot wird seit April 2003 von dem Hamburger<br />
start-up-Unternehmen Mobiloco über den Mobilfunkanbieter D2-Vodafone angeboten.<br />
Kooperationsverträge mit den übrigen Mobilfunkanbietern stehen noch aus [Ha03], einen<br />
entsprechenden Dienst namens friendZone bietet in der Schweiz die Firma Swisscom [Bae02,<br />
Ba01]. Eine sinnvolle Anwendung dieses <strong>Dienste</strong>s ergibt sich z.B. auch bei einem Messebesuch<br />
in der Gruppe, die sich zunächst getrennt hat und sich anschließend wieder treffen<br />
möchte [Bae02].<br />
Als sog. child-watch-Applikation des D2-Finders kann durch Eingabe der Telefonnummer<br />
des Handys, das das gesuchte Kind bei sich trägt, dessen Aufenthaltsort bestimmt werden<br />
[Se01, Bae02]. Aus Datenschutzgründen ist diese Funktion jedoch nur unter der Voraussetzung<br />
nutzbar, dass der Gesuchte sein Einverständnis zur Positionsbestimmung gegeben hat<br />
[Se01]. Entsprechend ist alternativ zur child-watch-Applikation die Aufwertung des Handys<br />
zum elektronischen Babysitter durch ein Zusatzgerät möglich: Der sog. Phonetracker sendet<br />
eine SMS, wenn das eingeschaltete Handy des zu überwachenden Kindes einen bestimmten<br />
Bereich verlässt [Ba01].<br />
Der Handy-Finder von Genion [Se01, Bae02, BG01, Ba01] ermöglicht die Lokalisierung des<br />
verlegten oder verlorenen Handys von der Genion-Homepage aus. Allerdings ist die Ortsangabe<br />
relativ grob (z.B. der Stadtteil). Der Server sendet eine SMS an das geortete Handy, um<br />
eine unbemerkte Überwachung der Person, die das Handy bei sich trägt, zu unterbinden<br />
[BG01, Ba01].<br />
4.2.4 Notrufdienste<br />
Weitere Anwendungsmöglichkeiten ergeben sich in den Fällen, in denen nicht der Suchende,<br />
sondern der zu Suchende den Anstoß zur Positionsbestimmung gibt. Auf diese Weise können<br />
in einem Notfall Hilfskräfte an den Standort des Hilfsbedürftigen gerufen werden [Ba01].<br />
Konkrete Anwendungen stellen z.B. ein Notruf im Gebirge [Bae02] oder das vom Hersteller<br />
Vitaphone angebotene sog. Herz-Handy dar. Beim Herz-Handy kann der Benutzer bei Auftreten<br />
von Herzbeschwerden mittels Notruftaste Kontakt zur Servicezentrale herstellen, die<br />
sodann aufgrund der Positionsdaten des Benutzers Rettungskräfte direkt zum Patienten schicken<br />
kann. Das Herz-Handy ist GPS-fähig [Ba01, S.4].<br />
4.2.5 Tracking von Fahrzeugflotten (B2B-<strong>Dienste</strong>)<br />
Anwendungen zum Flottenmanagement ermöglichen Unternehmen, die aktuelle Position von<br />
Transportfahrzeugen bzw. der durch diese transportierten Güter nahezu in Echtzeit zu verfolgen.<br />
Kunden können so über den aktuellen Standort ihrer Warenlieferungen und damit über<br />
den voraussichtlichen Zeitpunkt der Lieferung informiert werden. Zusätzliche eilige Lieferungen<br />
können durch das Fahrzeug aufgenommen werden, das sich gerade in der Nähe befindet<br />
[DB03].<br />
4.2.6 LBS und Pricing<br />
Schließlich kann die Information über den Standort des Anwenders auch zwecks Abrechnung<br />
der erbrachten Telefondienstleistungen des Mobilfunkbetreibers verwendet werden: so z.B.<br />
für den Genion-Home-Tarif, bei dem der Anwender für alle Gespräche im Umkreis eines<br />
durch den Kunden zuvor bestimmten Punktes anstelle des Mobilfunktarifs den Festnetztarif<br />
bezahlt [Ba01].
69 Andreas Werlemann<br />
5 Fazit und Ausblick<br />
<strong>Ortsbasierte</strong> <strong>Dienste</strong> gewinnen in dem Maße an Bedeutung, in dem die technischen Voraussetzungen<br />
für ortsbasierte <strong>Dienste</strong> gegeben sind [Bae02]:<br />
• ausreichende Leistungsfähigkeit der Mobiltelefongeräte für diesen Zweck,<br />
• zivile Nutzbarkeit des ursprünglich ausschließlich militärisch genutzten GPS,<br />
• ausreichender Entwicklungsstand von Software für die Umwandlung von Text in Sprache<br />
und umgekehrt (idealerweise verfügt das Handy über eine Sprachaus- und –eingabe, die<br />
im Gegensatz zu bildschirmbasierten Menüs beliebig miniaturisiert werde kann, ohne dass<br />
funktionale Nachteile auftreten),<br />
• Verfügbarkeit von elektronischen Landkarten und Stadtplänen, Geocodierung und<br />
Routenplanung.<br />
Einerseits steigt die Leistungsfähigkeit der Hardware bei sinkenden Kosten [DB03]. Andererseits<br />
wächst das Bedürfnis für ortsbasierte <strong>Dienste</strong> in dem Maße, in dem die Mobilität der<br />
Bevölkerung bei gleichzeitigem Wunsch nach jederzeitiger Erreichbarkeit bzw. Informationsverfügbarkeit<br />
steigt [Bae02].<br />
Ortsunkundige Reisende verlieren viel Zeit bei der Deckung ihrer Grundbedürfnisse (Nahrungsaufnahme,<br />
Übernachtungsmöglichkeit) bzw. der Suche nach entsprechenden Angeboten.<br />
Insoweit besteht ein Markt, dem durch ein Angebot, das komfortable Bedienung mit Effizienz<br />
verbindet, zu entsprechen ist [DS01]. In den USA wird die Technologie zur Positionsbestimmung<br />
und damit letztlich auch der Markt für LBS zusätzlich durch die Vorschrift E911 gefördert<br />
[DB03]. Diese beinhaltet in einer zweiten Stufe (UMTS) die Maßgabe, dass in den meisten<br />
Fällen Notrufe mittels Handy auf bis zu 50-100 Meter genau ortbar sein müssen [DB03,<br />
AAB03]. Eine ähnliche Vorschrift namens E112 der Europäischen Kommission befindet sich<br />
in Vorbereitung [DB03]. Einen Impuls für die Verbreitung und Fortentwicklung könnten LBS<br />
schließlich auch durch die Integration entsprechender Funktionen in Automobile erfahren.<br />
Aufgrund der Notwendigkeit lediglich geringer Bandbreite sowie der mobilen Verfügbarkeit<br />
eignen sich LBS auf WAP-Basis gut für Automobile [Ba01].<br />
LBS bieten den Mobilfunknetz-Betreibern eine Möglichkeit zur Differenzierung gegenüber<br />
dem Wettbewerb [DS01]. Darüber hinaus erhoffen sich die Mobilfunkbetreiber ein lukratives<br />
Geschäft [Ba01]. Insbesondere diejenigen Mobilfunkbetreiber, die hohe Investitionen in<br />
UMTS-Lizenzen getätigt haben, müssen über Geschäftsmodelle nachdenken, die zur Amortisation<br />
dieser Investitionen beitragen. Die Betreiber von GSM-Netzen haben ein Interesse<br />
daran, den durchschnittlichen Umsatz pro Anwender durch eine Ergänzung sprachbasierter<br />
<strong>Dienste</strong> durch datenintensive Mehrwert-<strong>Dienste</strong> zu steigern, nachdem eine Steigerung der<br />
Anzahl der Mobilfunkkunden seit Ende der 1990er Jahre kaum noch möglich ist [DB03]. Allerdings<br />
arbeiten die ortsbasierten <strong>Dienste</strong> noch nicht kostendeckend, so dass diese durch<br />
Einnahmen aus dem übrigen Mobilfunkgeschäft quersubventioniert werden müssen [Se01].<br />
Gegen die Ortung des Mobilfunkanwenders durch den Mobilfunkbetreiber und die anschließende<br />
Weitergabe dieser Ortsinformation an dritte Dienstleistungsanbieter bestehen datenschutzrechtliche<br />
Bedenken [Ba01, Di01]. Diesen begegnen einzelne Mobilfunkanbieter wie<br />
T-D1 dadurch, dass sie die Ortung jeweils von der expliziten diesbezüglichen Einverständniserklärung<br />
durch den Anwender abhängig machen [Ba01]. Entscheidend für die Akzeptanz<br />
ortsbasierter <strong>Dienste</strong> ist der konkrete Anwendungsnutzen. Dieser kann z.B. in der Kombination<br />
der reinen Information über ein Angebot mit der Möglichkeit, dieses zu bestellen bzw. zu<br />
reservieren, bestehen. Für auch auf andere Weise leicht beschaffbare Informationen wird der<br />
Anwender hingegen kein Geld bezahlen wollen [Bae02]. Unter diesem Gesichtspunkt er-
70 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />
scheint ein mobiler Routenplaner im Ausland wegen etwaiger Verständigungsprobleme sinnvoller<br />
als im Inland [Ha03]. Anwendungen, die ihren besonderen Reiz durch die automatische<br />
Standortbestimmung erlangen und somit das Potential haben, LBS zu besonderer Popularität<br />
zu verhelfen, sind in den Community-Funktionen bzw. C2C-<strong>Dienste</strong>n zu suchen [Ba01].<br />
Referenzen<br />
[AAB03] Adams, P.M., Ashwell, G.W.B., Baxter, R. (2003):<br />
Location-based services – an overview of the standards,<br />
BT Technology Journal, Vol.21, No.1, January 2003, 34-43<br />
[Bae02] Baeumerth, Eberhard (2002):<br />
Location Based Services in der Praxis,<br />
In Handbuch Mobile-Commerce Technische Grundlagen, Marktchancen und<br />
Einsatzmöglichkeiten,<br />
Berlin, Heidelberg, New York 2002, 225-230<br />
[Bi02] Bisenius, Jean-Claude (2002):<br />
Multi-Media-Mobil: mobile <strong>Dienste</strong> in Digitalen Rundfunk- und<br />
Telekommunikationsnetzen,<br />
Berlin 2002<br />
[BG01] Bager, Jo, Gleich, Clemens (2001):<br />
Such Handy! Location Based Services im Test,<br />
c’t, No. 22/2001, S.172ff.<br />
[Ba01] Bager, Jo (2001):<br />
Das Handy kennt den Weg Location Based Services machen das Mobiltelefon zum<br />
universellen Wegweiser,<br />
c’t, No. 22/2001, S.168ff.<br />
[DB03] D´Roza, Thomas, Bilchev, George (2003):<br />
An overview of location-based services,<br />
BT Technology Journal, Vol.21, No.1, January 2003, 20-27<br />
[Di01] Diederich, Bernd (2001):<br />
Technik,<br />
In Diederich, Bernd, Lerner, Thomas, Lindemann, Roland D., Vehlen Ralf:<br />
Mobile Business Märkte, Techniken, Geschäftsmodelle,<br />
Wiesbaden 2001, 63-111<br />
[DS01] Dru, Marie-Anne, Saada, Stéphane (2001):<br />
Location-based mobile services: the essentials,<br />
Alcatel Telecommunications Review, No. 1, 1 st Quarter 2001, 71-76<br />
[Ha03] Hannemann, Ulf (2003):<br />
Freunden auf der Spur,<br />
Focus, No. 15/2003, April 2003, 94-97<br />
[Li99] Lipinski, Klaus (1999):<br />
Lexikon: Mobilkommunikation,<br />
Bonn 1999<br />
[RG02] Röttger-Gerigk, Stefanie (2002):<br />
Lokalisierungsmethoden,<br />
In Handbuch Mobile-Commerce Technische Grundlagen, Marktchancen und<br />
Einsatzmöglichkeiten,<br />
Berlin, Heidelberg, New York 2002, 419-426
71 Andreas Werlemann<br />
[Ro03] Roth, Dr. Jörg (2003):<br />
Mobile Computing,<br />
Kurs 1679 Fernuniversität Hagen, 2003<br />
[Se01] Sellin, Rüdiger (2001):<br />
Milchkuh oder Seifenblase? Neues Wachstum mit Location Based Services;<br />
NET Zeitschrift für Kommunikationsmanagement, Vol. 55, No. 11/2001, 55-58
“Nexus“<br />
Lothar Maschewski<br />
Tubizerstraße 40<br />
70825 Korntal<br />
Maschewski2@compuserve.de<br />
Zusammenfassung: Der Fortschritt in der Miniaturisierung von Computern, die rasante<br />
Entwicklung von Sensortechnologie, sowie die Weiterentwicklung von GPS, General<br />
Positioning System, wird dazu führen, dass zunehmend potentiell Milliarden von Alltagsgegenständen<br />
Informationen über ihren Zustand und den ihrer Umgebung erfassen. Durch<br />
die Integration dieser Daten in schon bestehende Modelle entstehen neue Weltmodelle.<br />
Innerhalb dieser Weltmodelle können nicht nur existierende Objekte und ihr Zustand abgebildet<br />
werden, sondern zusätzlich Informationen mit diesen Objekten verknüpft werden.<br />
Dies führt zu einer neuen Art von Applikationen, die über eine Plattform auf diese<br />
Objekte zugreifen und diese ggf. manipulieren kann. Eine solche Plattform, NEXUS,<br />
wird von einem Sonderforschungsbereich an der Universität Stuttgart entwickelt. Die<br />
Modellierung und die Aufgaben dieser Plattform werden im folgenden beschrieben.<br />
1 Motivation<br />
Wenn wir uns in unserer Welt umschauen, gibt es viele unterschiedliche Informationen, die<br />
mit räumlichen Bezugspunkten verbunden sind, oder mittels geographischer Daten organisiert<br />
werden. Plakate hängen an Wänden, Verkehrschilder stehen an Kreuzungen, Türen öffnen<br />
sich automatisch, wenn sich ein Objekt dieser Tür nähert usw. Alle diese angeführten<br />
Beispiele haben eines gemeinsam. Ihre Existenz, sowie die damit verbundene Möglichkeit<br />
ihrer Manipulation stehen in direktem Zusammenhang mit ihren räumlichen Koordinaten.<br />
Dieser fundamentale Zusammenhang ist für uns Menschen eine Selbstverständlichkeit, da wir<br />
diesen von Geburt an als gegeben erfahren haben [FKV].<br />
Bis heute beziehen nur wenige Informationssysteme die räumlichen Daten der Systemnutzer<br />
oder anderer Objekte mit ein, um sie für den Nutzer des Informationssystems verwertbar zu<br />
machen. Informationssysteme, die dies heute schon tun findet man z.B. bei Navigationssystemen<br />
sowie in der Flugsicherung. Gründe, die diese Entwicklung bisher begrenzt haben sind:<br />
• das Fehlen einer geeigneten Sensor-Infrastruktur<br />
• das Fehlen geeigneter Plattformen für diese Anwendungen<br />
Dem ersten Punkt wird durch die Weiterentwicklung von GPS Rechnung getragen. Dem<br />
zweiten Punkt widmet sich der folgende Seminarvortrag.<br />
2 Einführung in das Projekt Nexus<br />
2.1 Was versteht man unter dem Projekt<br />
Das Projekt Nexus ist ein instituts- und fakultätsübergreifendes Forschungsprojekt an der<br />
Universität Stuttgart, das LBS-Systeme untersucht und dabei das Ziel verfolgt, Grundlagenwissen<br />
zu erarbeiten. Unter dem Oberbegriff Location Based Service (LBS) bildet sich zur<br />
Zeit im Umfeld der mobilen Datenkommunikation eine neue Kategorie von Applikationen<br />
heraus.<br />
Motiviert und ermöglicht wird dies durch die rasante Weiterentwicklung im Bereich der Mobilfunknetze,<br />
den Erfolg der drahtlosen lokalen Funknetze (WLAN’s, Wireless Local Area
74 “Nexus“<br />
Networks) sowie die Miniaturisierung leistungsfähiger Endgeräte. Ein zusätzlicher Antrieb ist<br />
die Notwendigkeit für Besitzer der teuren UMTS - Lizenzen, Universal Mobile Telecommunication<br />
System, ihren Kunden attraktive <strong>Dienste</strong> anzubieten, um für die neuen Netze möglichst<br />
schnell eine große Kundenakzeptanz zu erzielen [PK02].<br />
2.2 Was soll das Projekt leisten<br />
Ortsbezogene Informationsdienste zeichnen sich dadurch aus, dass Informationen nicht mehr,<br />
wie dies z. B. bei der Verwendung von Uniform Ressource Locators (URLs) geschieht, über<br />
ihren Speicherort adressiert werden, sondern über Positionsangaben von Orten oder Objekten,<br />
für die sie relevant sind. Um auf Informationen zuzugreifen, sind Abbildungs- und Suchfunktionen<br />
notwendig, die auf der Basis von Ortskoordinaten die zutreffenden Informationen auffinden<br />
können. Komplexere ortsbezogene <strong>Dienste</strong> erlauben zusätzlich eine Selektion von<br />
Informationen anhand weiterer Attribute. Ein typisches Beispiel hierfür ist die Suche nach<br />
allen italienischen Restaurants im Umkreis von 500 m des Anfragenden. Eine weitere wichtige<br />
Form ortsbezogener Anwendungen ist die Navigation. Hierbei werden auf räumlichen<br />
Datenmodellen komplexe Operationen ausgeführt, wobei das Ergebnis ein Weg ist, auf dem<br />
der Nutzer anschließend geführt wird. Der Bezug zu dem anfragenden Nutzer ist dadurch<br />
hergestellt, dass der Ausgangspunkt der Wegesuche sein aktueller Aufenthaltsort ist [PK02].<br />
2.3 Wer entwickelt das Projekt<br />
An dieser von der Deutschen Forschungsgemeinschaft (DFG) geförderten Forschergruppe<br />
sind fünf Arbeitsgruppen aus den unterschiedlichsten Fachbereichen beteiligt. Diese Arbeitsgruppen<br />
haben das Ziel, Konzepte und Methoden zur Realisierung einer Plattform für ortsbezogene<br />
Anwendungen zu entwickeln [PK02].<br />
3 Besondere Aspekte von Nexus<br />
3.1 Technische Vorraussetzungen für das Projekt<br />
Da der Ortsbezug ein wesentliches Merkmal von Nexus darstellt, möchte ich im weiteren die<br />
notwendige technische Infrastruktur darstellen. Diese besteht aus einer Anzahl verschiedenster<br />
Sensoren, die den Ortsbezug herstellen.<br />
Das Aufgabenfeld des IND innerhalb von NEXUS besteht darin, bestehende Kommunikationsarchitekturen<br />
zu untersuchen und auf die Kommunikationsanforderungen von ortsbewussten<br />
<strong>Dienste</strong>n hin zu bewerten, sowie neue Konzepte zu entwerfen. Anforderungen hierfür<br />
sind die Berücksichtigung der Nutzermobilität, auch über die Grenzen von Funkzugangsnetzen<br />
hinweg, die kosten/nutzenoptimale Verwendung von Kommunikationsressourcen, sowie<br />
die Berücksichtigung und das Ausbalancieren von Informationsbedürfnissen mit Sicherheitsund<br />
Datenschutzanforderungen sowohl von Nutzern und Anbietern.<br />
Die Voraussetzungen für die kommunikationsnetzorientierten Entwicklungsprozesse sind<br />
gemäß [PK02]:<br />
• Zugrundelegung existierender bzw. künftig zu erwartender paketorientierter Netzinfrastrukturen.<br />
Speziell kommen dazu in Betracht<br />
o Bluetooth: Kleinstzellen-Funknetze (Raumnetze)<br />
o WLAN: Wireless Local Area Networks<br />
o GPRS: General Packet Radio Service, ein paketorientierter Datendienst, der<br />
auf der<br />
Basis der gegenwärtigen öffentlichen Mobilkommunikations-Infrastruktur<br />
(„2.5. Generation“) bereitgestellt wird<br />
• UMTS: Universal Mobile Telecommunication System; zukünftige breitbandigere
75 Lothar Maschewski<br />
öffentliche Mobilkommunikations-Infrastruktur<br />
• Nutzung kommerziell verfügbarer, internetfähiger Endgeräte mit multi - Funknetzzugang<br />
als Clients, z. B.<br />
o Mobilkommunikations-Terminals<br />
o Laptop<br />
o Personal Digital Assistant (PDA) u. ä.<br />
möglichst erweitert zum Empfang von Positionsdaten über Satelliten (GPS:<br />
Global<br />
Positioning System u. ä. m.), Sensoren (z. B. über IR-Empfänger) oder<br />
über Basisstationen (BTS) der öffentlichen Mobilkommunikationsnetze.<br />
3.2 Das Augmented Area Modell<br />
Die Basisinfrastruktur von Nexus basiert auf computergestützte Darstellungen bestimmter<br />
Regionen (Räumen), der realen Welt, die um virtuelle Objekte erweitert werden kann. Diese<br />
Regionen, erweitert um die in ihnen enthaltenen virtuellen Objekte, können mittels der<br />
Nexus-Plattform dargestellt und erforscht werden. Man nennt sie Augmented Area. Technisch<br />
betrachtet besteht eine Augmented Area aus vier Bestandteilen, siehe [PKV] :<br />
• Objekte in einem geographischen Raum<br />
• einer Installation der Nexus-Plattform<br />
• einem dem geographischen Raum entsprechenden Informationsgehalt<br />
• einer räumlichen Begrenzung<br />
Die Verbindung innerhalb einer Augmented Area zu vituellen Objekten , Multimedia, dem<br />
World Wide Web, Digital Libraries usw., wird über sogenannte Virtual Information Tower,<br />
oder auch Virtual Post-It’s hergestellt. Das bedeutet, das die Verbindung einer Anwendung zu<br />
einem Informationsdienst nur über ein reales Objekt, sprich seine geometrischen Objektdaten<br />
realisiert wird. Es wird sich zeigen, dass dieses Modell eine Menge Vorteile gegenüber den<br />
konventionellen Modellen der Virtuellen Welt besitzen. Beispiele für diese Augmented<br />
Area’s sind Häuser, Stadtteile, Gebäudeteile. Schematisch sind die Augmented Area’s mit den<br />
verschiedenen Verbindungsmöglichkeiten im Bild 1 siehe Kap.3.3 zu sehen.<br />
3.3 Das Augmented World Modell<br />
Im nächsten Schritt erweitert die Nexus Plattform die in sich begrenzten und isolierten Augmented<br />
Areas zu einem Augmented World Modell. In diesem Modell sind alle Augmented<br />
Areas integriert und in einem einheitlichen Format beschrieben. Im weiteren werden alle<br />
durch eine gemeinsame Anwenderschnittstelle, bereitgestellt durch Nexus, erreichbar. Durch<br />
diese Schnittstelle kann der Nexus-Nutzer problemlos zwischen den Augmented Areas wechseln,<br />
sowie verschiedene Augmented Areas verknüpfen.<br />
Das einheitliche Format der Augmented Areas ermöglicht die Vergleichbarkeit, sowie die<br />
Anwendung verschiedener Mengenoperatoren, (Schnittmenge, Inklusion, Vereinigung) in<br />
dem Augmented World Modell. Auch die Erweiterbarkeit von Nexus sowie die Notwendigkeit<br />
der Integration der verschiedensten Datenquellen setzt ein einheitliches Datenformat voraus.
76 “Nexus“<br />
Bild 1 Schematische Darstellung einer Augmented World mit den integrierten Augmented<br />
Area’sowie den möglichen Links zu den externen Informationsdiensten<br />
3.4 Modellierungsgrundsätze<br />
Aus der Idee, mittels Nexus eine neue Virtuelle Welt zu modellieren, ergaben sich, siehe<br />
[HKL99] die folgenden Modellierungskriterien für die neue Plattform<br />
• Mobilität<br />
• Heterogenität<br />
• Interoperability<br />
• Scalability<br />
• Datenschutz<br />
Mit der Mobilität von Nexus möchte ich mich nicht näher beschäftigen, da sie sich aus der<br />
Notwendigkeit einer Technischen Infrastruktur (siehe 3.1) ableiten lässt. Es sei nur auf die<br />
Erweiterbarkeit des Systems als ein Unteraspekt der Mobilität hingewiesen. Nexus sollte sehr<br />
leicht neue Technologien unterstützen und diese auch in das bestehende System integrieren<br />
können.<br />
Auch die Heterogenität lässt sich ableiten. Da die Augmented Areas sehr verschieden sind,<br />
muss das System in der Lage sein verschiedene Netzwerktechnologien und Navigationssysteme<br />
zu unterstützen.<br />
Auf den Datenschutz möchte ich etwas genauer eingehen. Die Entwicklung von Nexus erfordert<br />
parallel die Entwicklung von Datenschutz- und Sicherheitsfunktionen auf der Basis der<br />
„mehrseitigen Sicherheit“, mit Merkmalen wie<br />
• Schutz gegen die Verknüpfung von Aufenthaltsorts-Daten und der Nutzung/Inanspruchnahme<br />
von <strong>Dienste</strong>n mit der Identität des Benutzers<br />
• Authentifikation des Dienstnutzers, des <strong>Dienste</strong>rbringers und Integrität der bereitgestellten<br />
Daten<br />
• Zurechenbarkeit und Nichtabstreitbarkeit von in Anspruch genommenen Dienstleistungen<br />
• Aushandelbare Schutzziele und Schutzhöhen.
77 Lothar Maschewski<br />
Ohne diese Sicherheitskonzepte wäre eine Augmented World ein transparentes System in<br />
welchem jeder Systemnutzer alle gespeicherten Daten eines jeden anderen Systemnutzers<br />
beliebig nutzen, oder aber auch missbrauchen könnte.<br />
Die Skalierbarkeit des Systems spricht die Wachstumsfähigkeit der Plattform in Bezug auf die<br />
zu verwaltende Datenmenge an. Darauf wird in Kapitel 4 noch genauer eingegangen. Grundsatz<br />
ist, das Nexus dynamische Datenstrukturen unterstützen muss.<br />
3.5 Die Nexus Architektur<br />
Das Hauptziel der Nexus – Plattform besteht in der Verwaltung der Augmented Areas, sowie<br />
in der Bereitstellung eines einheitlichen Zugangs zum Augmented World Model. Dieser<br />
ermöglicht den verschiedenen ortsbasierten Anwendungen die Kommunikation mit diesem.<br />
Dieses Ziel spiegelt sich natürlich auch in der Architektur der Plattform wieder. Da das Augmented<br />
Area Model viele Objekte enthalten kann, ist es über viele Knoten verteilt. Das Model<br />
muss ständig über den Zustand all seiner mobilen, stationären und virtuellen Objekte informiert<br />
sein. Die Architektur der Nexus Plattform ist im folgenden Bild dargestellt vgl.<br />
[HKL99].<br />
Clients<br />
Sensor<br />
Systems<br />
Control<br />
Systems<br />
Distributed<br />
Data-Management<br />
Location<br />
Manageme<br />
Query<br />
Event<br />
Model<br />
Mana-<br />
Catching<br />
&<br />
Local<br />
Data-<br />
Management<br />
Virtual<br />
Mobile<br />
Basic Services<br />
Communikati<br />
Adaptivity<br />
Bild 2 Schematische Darstellung der Nexus Architektur<br />
3.5.1 Externe Komponenten<br />
Clients, dazu zählen <strong>Ortsbasierte</strong> Anwendungen und <strong>Dienste</strong>, nutzen Nexus, indem sie über<br />
die standardisierte Schnittstelle eine Verbindung mit dem Augmented World Model realisieren.<br />
Der Bezug zu den Objekten der realen Welt wird durch das Sensor- und Kontrollsystem<br />
hergestellt. Sensorsysteme, z. B. ein GPS-Sensor, liefern Informationen über den Zustand<br />
eines realen Objekts. Oftmals benötigt dieses Objekt seinen eigenen Sensor, wenn es an Informationen<br />
über die eigene Position oder die Position anderer Objekte in seiner Umgebung<br />
interessiert ist. Die weitere Verbindung mit den externen Informationsdiensten, wird, siehe
78 “Nexus“<br />
Kap. 3.3, über die VIP’s realisiert. Die Vielfalt der externen Komponenten wurde schon in<br />
Bild 1 Kap.3.3 dargestellt.<br />
3.5.2 Basisdienste<br />
Basisdienste beinhalten grundsätzlich zwei Aspekte:<br />
• Sie sind für die Kommunikation der Plattform mit den Anwendungen verantwortlich<br />
• Sie müssen die Kompatibilität zwischen Plattform und Anwendung herstellen<br />
Basisdienste werden von allen Komponenten des Systems genutzt, da sie sonst nicht untereinander<br />
kommunizieren könnten.<br />
3.5.3 Datenmanagement<br />
Die Inhalte der Augmented Area Modele werden in verschiedenen Knoten der Nexus – Plattform<br />
gespeichert. Diese Knoten sind entweder einzelne Computer, oder es handelt sich um<br />
Rechnernetze. Diese speichern die obigen Informationen in Datenbanksystemen ab, die sehr<br />
stark von den zu speichernden Inhalten geprägt sind. Grundsätzlich sind drei verschiedene<br />
Datenformate notwendig, um das Augmented World Model zu beschreiben.<br />
• Ein Datenformat zu Beschreibung des Eigenschaften eines realen Objekts<br />
• Ein Datenformat zur Beschreibung der mobilen Zustände eines realen Objekts<br />
• Ein Datenformat zur Beschreibung der Beziehungen der realen Objekte untereinander,<br />
sowie der Beziehung zwischen realen Objekt und virtuellen Objekt<br />
Das folgende Bild stellt die Organisation der verschiedenen Datenformate dar.<br />
Anwendung<br />
1<br />
Anwendung<br />
2<br />
...<br />
Anwendung<br />
m<br />
ASR<br />
...<br />
Knoten 1 Knoten 2 Knoten n<br />
SpaSe 1<br />
Roo<br />
SpaSe<br />
2<br />
Location<br />
Service<br />
Andere<br />
<strong>Dienste</strong><br />
Shel<br />
Shel<br />
Bild 3 Organisation der Datenformate unter der Plattform Nexus
79 Lothar Maschewski<br />
3.5.4 Das Spatial Server Model<br />
Die Spatial Server enthalten die statischen Informationen über die Augmented Area’s. Dabei<br />
kann ein Spatial Server sowohl Informationen über ein als auch über mehrere<br />
Gebiete enthalten. Diese Informationen bestehen aus Daten über die<br />
• Objektgeometrie<br />
• Koordinatensysteme<br />
• Symbolische Beschreibungen<br />
• Beziehungen zw. den Objekten<br />
Datenbanksystemknoten, die diese Informationen verwalten, stellen effiziente Algorithmen<br />
zur Verfügung, die um Objekte bzw. Objektteile zu suchen. Eine weitere Aufgabe besteht in<br />
der effizienten Realisierung der Mengenoperationen Durchschnitt, Inklusion und Union. Deshalb<br />
sind die Daten über die Augmented Area’s in Tree’s organisiert (siehe Bild 3). Die Gebiete<br />
werden so auf die Knoten verteilt, das der Vaterknoten disjunkt auf die beiden Sohnknoten<br />
aufgeteilt wird. Da es sich hier wesentlich um 2D - 2.5D Daten handelt, lassen sich<br />
geometrischen Algorithmen auf dieser Struktur sehr gut anwenden [K03].<br />
3.5.5 Location-Service<br />
In diesem Teil der Server wird der dynamische Teil der Augmented Area’s verwaltet. Da sich<br />
die Daten von bewegten Objekten sehr schnell ändern, müssen diese Daten entweder ständig<br />
einem Update, der schnell und effizient arbeiten muss, unterliegen oder neu aufgebaut werden.<br />
Welche Strategie man verwendet, ist von der Gesamtdatenmenge und der veränderten<br />
Datenmenge abhängig.<br />
3.6 Die Sprachumgebung von Nexus<br />
Da Nexus eine Schnittstelle für die Clients anbietet, muss das System mit dem Client kommunizieren.<br />
Dies leistet Nexus mittels 2 grundsätzlichen Sprachkonzepten [B02].<br />
• Augmented World Modelling Language (AWML)<br />
• Augmented World Query Language (AWQL)<br />
Die Augmented World Modeling Language wird eingesetzt, um die Objekte des Augmented<br />
World Models zu beschreiben. Objekte haben eine Geometrie und müssen mittels eines Koordinatensystems<br />
einen räumlichen Bezug zu den anderen Objekten des Augmented World<br />
Model herstellen. Auch die Beschreibung von Teilmengen der Augmented Areas mittels<br />
Symbolischer Bezeichner, Identifier, Namen, Nummern (z B. bei der Beschreibung von Räumen<br />
) ist vorgesehen. Bei der Struktur ist eine Ähnlichkeit zu HTML zu erkennen.<br />
Die Augmented World Query Language erlaubt Anfragen an das Augmented World Model.<br />
Primär erlaubt die Sprache Anfragen bzgl. der Mengenoperationen Teilmenge und<br />
Schnittmenge. Weitere wichtige Fragestellungen sind<br />
• Welches der gesuchten Objekte ist am nächsten zur aktuellen Position des Anfragenden ?<br />
• Wie weit ist das gesuchte Objekt vom Anfragenden entfernt ?<br />
AWQL ist bzgl. seiner Struktur ähnlich zu SQL. Abschließend zu den Sprachkonstrukten sei<br />
angemerkt, das sich die Sprachkonstrukte in dem Maße weiterentwickeln werden, indem sich<br />
die Daten-breite weiterentwickelt. Als Beispiel sei die 2.5D Darstellung als Datenformat angeführt.<br />
Eine realistische 3D Darstellung wird genauere Abfragen realisieren, verlangt aber<br />
auch die Weiterentwicklung der AWML sowie der AWQL Sprachkonzepte. Zur Veranschaulichung<br />
sind im Anhang (Bild A1, BildA2) kurze Auszüge aus AWML und AWQL angeführt.
80 “Nexus“<br />
4 Probleme<br />
4.1 Der Trade Off zwischen Augmented World und Datenschutz<br />
Die Nexus – Plattform hat als Vision folgende Ziele.<br />
• Jeder kann seine persönliche Augmented Area, z. B. Italienisches Restaurant mit Adresse,<br />
Speisekarte und Kundendatei in die Augmented World integrieren.<br />
• Jeder Nutzer kann Anfragen an alle realen und virtuellen Objekte des Augmented World<br />
Modells stellen<br />
Je weiter die Verwirklichung der Ziele fortschreitet, desto größer wird der Aufwand einen<br />
Datenschutz, siehe Kap.3.4 Modellierungsgrundsätze, zu implementieren. Je größer das<br />
Schutzbedürfnis der realen und virtuellen Objekte ist, umso eingeschränkter ist die Nutzung<br />
des System. Aus diesem Grund ist am Projekt Nexus fachübergreifend eine Kommission beteiligt,<br />
die sich mit ethischen Fragen und den Vorraussetzungen für eine allgemeine Akzeptanz<br />
des Systems beschäftigt. So wie das WWW nicht ohne die Akzeptanz und Annahme<br />
durch Anbieter und Nutzer, ohne Homepages und Internetdienste wäre ein WWW sinnlos,<br />
erfolgreich sein kann, wird ein System wie Nexus nur über eine große Anzahl von Dienstanbietern<br />
und Dienstnutzern erfolgreich sein können.<br />
4.2 Daten<br />
Wie schon bei den Modellierungsgrundsätzen erwähnt, bilden die Daten eine zentrale Rolle<br />
bei Nexus. Auf die Notwendigkeit einer Dynamischen Modellierung dieser<br />
Daten wurde hingewiesen. Man wird jedoch erst nach einer Testphase des<br />
Systems mit einer Mindestdatensatzgröße erkennen können, wo das System<br />
noch effizienter modelliert und implementiert werden kann. Besonders in Bezug<br />
auf die veränderlichen Orts- und Zustandsdaten werden sich zwei Fragen<br />
herauskristallisieren:<br />
• Update der veränderten Daten oder Neuaufbau aller bisherigen Daten<br />
• Zentrale oder dezentrale Verwaltung dieser Daten<br />
• Evtl. Klassifizierung der Daten mittels bestimmter Kriterien<br />
5 Ausblick<br />
Bei meiner Darstellung versuchte ich immer den Projektstatus von Nexus hervorzuheben.<br />
Vieles von dem, was ich als ganz selbstverständlich beschrieb, ist erst einmal Bestandteil dieser<br />
Vision einer allgegenwärtigen ortsbasierten Anwendungsplattform. Bisher werden Prototypen<br />
entwickelt, die bezüglich ihres Funktionsumfangs sehr eingeschränkt sind. Ein Projekt<br />
beschäftigt sich gerade mit der Positionsbestimmung und Sichtbarkeitsanalye durch Kombination<br />
terrestrischer Bilder mit 3D-Stadtmodellen. Als Stadtmodell dient hier die Innenstadt<br />
von Stuttgart. Auch wenn Nexus zur Zeit noch viele Merkmale einer Vision besitzt, wird sie<br />
sich als Standart für die zukünftigen ortsbasierten <strong>Dienste</strong> durchsetzen. In einer Welt, wo die<br />
Geschwindigkeit und die Flexibilität maßgebend sind, wird sich nur eine Informationstechnologie,<br />
die ortsunabhängig ist und sehr effizient mit schon bestehenden Informationssystemen<br />
kommunizieren kann durchsetzen. Meine Ausführungen sollten zeigen, dass die Plattform<br />
Nexus, jetzt noch ein Projekt, ein qualifizierter Kandidat für die oben beschriebene Informationstechnologie<br />
sein kann.
81 Lothar Maschewski<br />
6 Danksagung<br />
Ich bedanke mich auch bei den Mitarbeitern der Universität Stuttgart, die mir den Einstieg in<br />
das Projekt Nexus erleichterten, und für Fragen meinerseits stets mit Rat zur Verfügung<br />
standen.<br />
Anhang<br />
Bild A1: Vereinfachtes Beispiel zur Augmented World Query Language (AWQL)<br />
Bild A2: Vereinfachtes Beispiel zur Augmented World Modeling Language (AWQL)
82 “Nexus“<br />
Referenzen<br />
[PK02] B. Gloss, P. J. Kühn (2002)<br />
Modellierung und Entwurf von Kommunikations-Infrastrukturen für<br />
orts-und kontextabhängige <strong>Dienste</strong><br />
Modelle, Werkzeuge und Infrastrukturen zur Unterstützung von<br />
Entwicklungsprozessen, Achen, 20.-22. März 2002<br />
[FKV]<br />
[HKL99]<br />
Dieter Fritsch, Darko Klinec & Steffen Volz<br />
Positioning and Data Management Concepts For Location Aware<br />
Applikations<br />
Institute For Photogrammetry, Universität Stuttgart<br />
Fritz Hohl, Uwe Kubach, Alexander Leonhardi, Kurt Rothermel,<br />
Markus Schwehm (1999)<br />
Nexus-An Open global Infrastructure for Spatial-Aware Applications<br />
Universität Stuttgart<br />
[B02] Christian Becker (2002)<br />
Weltmodelle zur Unterstützung kontextbezogener Systeme<br />
Fachbereich IPVR , Universität Stuttgart<br />
[F03]<br />
[K03]<br />
Steffen Firchau<br />
Telepointing – Positionsbestimmung und Sichtbarkeitsanalyse durch<br />
Kombination terretricher Bilder mit 3D – Stadtmodellen<br />
Studienarbeit<br />
P. J. Kühn<br />
Mobilität in NEXUS Location Based Services als Wegweiser für<br />
IP-Mobilität<br />
http:/ww.ind.uni-stuttgart.de
Sicherheit und Datenschutz für Mobile Anwendungen<br />
Hagen Barlag<br />
Fernuniversität Hagen<br />
Universitätsstraße 1<br />
58084 Hagen<br />
Hagen.Barlag@Fernuni-hagen.de<br />
Zusammenfassung: Die Diskussion des Begriffs Sicherheit bei Mobile Computing Systemen<br />
schließt einerseits die klassischen Sicherheitsbegriffe ein, wie sie auch im stationären<br />
Bereich anzuwenden sind. Andererseits ist hier der Kommunikationsaspekt von besonderer<br />
Bedeutung, da die Übermittlungskanäle hier in deutlich geringerem Maß unter<br />
der Kontrolle des Anwenders stehen, daher wird ausführlich auf die Sicherheitsaspekte<br />
von Nachrichten eingegangen. Bei dieser Diskussion werden auch Begriffe wie Beherrschbarkeit<br />
aufgegriffen, die nicht in allen Quellen der Sicherheit zugerechnet werden,<br />
für den Anwender aber von entscheidender Bedeutung sind. Für den Entwickler eines<br />
Systems ist es zudem wichtig, über die rechtlichen Datenschutzaspekte informiert zu sein,<br />
daher wird die Rechtslage in der Bundesrepublik erörtert.<br />
1 Der Begriff Sicherheit<br />
1.1 Einleitung<br />
Im allgemeinen Sprachgebrauch versteht man unter Sicherheit neben anderen Bedeutungen<br />
einerseits die Gewissheit, vor Gefahren geschützt zu sein, andererseits die Zuverlässigkeit und<br />
Verlässlichkeit eines Systems [DWDS03], anders ausgedrückt objektiv das Nichtvorhandensein<br />
von Gefahren und subjektiv die Gewissheit, vor möglichen Gefahren geschützt zu sein<br />
[Wohl99].<br />
Im Zusammenhang mit IT-Sicherheit ist die Forderung, ein System möge sicher sein, zu unscharf,<br />
um praktische Konsequenzen daraus abzuleiten. Sicherheitsmaßnahmen motivieren<br />
sich durch die Schäden, die eintreten können. Dazu gehören z. B. das Bekannt werden vertraulicher<br />
Informationen, unerlaubte Datenveränderungen mit u. U. erheblichen Auswirkungen,<br />
das unerlaubte Auslasten eines Systems oder die Beeinträchtigung der Verfügbarkeit<br />
[Lamp71].<br />
Diese Punkte werden unten im Einzelnen erörtert. Solche Schäden sind aber nicht auf die<br />
Datenverarbeitung mit einem Rechnersystem beschränkt, sondern können auch bei manueller<br />
Bearbeitung auftreten. Daher ist es erforderlich, zwischen solchen Schäden zu unterscheiden,<br />
die auch bei manueller Verarbeitung der entsprechenden Informationen auftreten könnten,<br />
und solchen, die gerade durch die maschinelle Datenverarbeitung ermöglicht werden. Insbesondere<br />
die ersteren machen es erforderlich, das Thema Sicherheit auf das organisatorische<br />
und menschliche Umfeld eines Systems auszudehnen, [Schn00], [Kelt92], d. h., Sicherheit im<br />
IT-Umfeld ist nicht allein durch Programmierung zu bewerkstelligen, es sind die Wechselwirkungen<br />
mit der Außenwelt zu berücksichtigen; ein sicheres System kann nur als Ganzes<br />
entworfen werden. Zahlreiche Schäden sind leichter durch organisatorische als durch programmtechnische<br />
Maßnahmen zu verhindern.<br />
Unter einer Bedrohung versteht man einen Umstand, der unter bestimmten Randbedingungen<br />
zu einem Schaden führen kann, z. B. unerlaubte oder unerwünschte Vorgänge, speziell Operationen<br />
mit Rechnern. D. h. ein Schaden tritt in der Regel als Manifestation einer Bedrohung<br />
auf. Hierbei handelt es sich aber um einen eher abstrakten Begriff, der stets durch die potentiellen<br />
Schäden konkretisiert werden muss, die bei einem entsprechenden Angriff auftreten
84 Sicherheit und Datenschutz für Mobile Anwendungen<br />
können. [Kelt92]. So ist es z. B. bei der Analyse im Hinblick auf die Nachrichtenintegrität (s.<br />
u.!) von entscheidender Bedeutung, welcher finanzielle oder sonstige Schaden durch eine<br />
verfälschte Nachricht eintreten kann. Daneben ist es wichtig, zu berücksichtigen, mit welcher<br />
Wahrscheinlichkeit ein Schaden eintritt, eine Überlegung, die zum Begriff des Risikos führt.<br />
Vereinfacht gesprochen beinhaltet Risiko die Multiplikation aus Schaden und<br />
Wahrscheinlichkeit.<br />
Bedrohungen und Schäden werden durch Sicherheitsmaßnahmen abgewehrt. Diese dienen<br />
also dazu, Schäden zu verhindern, ihr Ausmaß zu begrenzen oder ihr Eintreten aufzudecken.<br />
In der Regel sind Sicherheitsmaßnahmen auf die konkrete Kombination von Schaden und<br />
Bedrohung abzustimmen. Diese Überlegungen setzen daher voraus, dass man sich über die<br />
möglichen Angriffsziele Klarheit verschafft hat, da erst hierdurch eine Abwägung der Kosten<br />
zwischen den möglichen Schäden und den Maßnahmen, die zu ihrer Verhinderung erforderlich<br />
sind, möglich wird.<br />
Wir beginnen mit einer Konkretisierung der möglichen Angriffsziele, entwickeln dann eine<br />
Bedrohungssystematik und erläutern anschließend die klassischen Sicherheitsbegriffe wie<br />
Authentizität, Integrität, Vertraulichkeit und Nichtbestreitbarkeit, über die in der Literatur<br />
Einigkeit besteht [Schn01], [Anon99], [Wohl99], [Roth03]. Im Anschluss daran werden einige<br />
nicht technische Aspekte besprochen, um den Belangen des Datenschutzes abschließend<br />
besondere Aufmerksamkeit zu widmen. Diese Gesichtspunkte gelten generell bei der Diskussion<br />
von IT Sicherheit, insbesondere im Zusammenhang mit Computernetzen.<br />
1.2 Mögliche Angriffsziele<br />
Der erste der möglichen Angriffspunkte liegt in den verwendeten Kommunikationswegen.<br />
Bei LSI handelt es sich hier einerseits um die Internetverbindung zwischen den Location Servern<br />
bzw. zwischen diesen und den mit ihnen assoziierten Servern, andererseits um die Verbindung<br />
zwischen jenen und den mobilen Clients, der Luftschnittstelle. Es ist in beiden Fällen<br />
damit zu rechnen, dass die Übertragungswege abgehört werden, denn sie stehen nicht unter<br />
der Kontrolle einer einheitlichen Instanz. Es ist auch an eine Blockierung des Übertragungskanals<br />
zu denken, dies insbesondere bei der Luftschnittstelle, wo z. B. ein Funkkanal gestört<br />
werden kann. Das Internet ist zwar prinzipbedingt weniger leicht zu blockieren, aber einzelne<br />
Knoten können im Falle der Ausbreitung eines Virus oder durch eine Denial of Service-Attacke<br />
nicht erreichbar sein.<br />
Den zweiten Angriffspunkt stellen die verwendeten Geräte dar. Einerseits könnte sich jemand<br />
Zugriff zu einem Server verschaffen und diesen z. B. abschalten, andererseits sind die<br />
mobilen Clients durch das System nicht bzw. nur sehr eingeschränkt schützbar.<br />
Schließlich könnten die inhaltlichen Daten des Systems verfälscht bzw. bei etwaigen vertraulichen<br />
Sachverhalten auch unbefugt zur Kenntnis genommen werden, hierunter fällt auch das<br />
Betreiben eines malignen LSI-Servers.<br />
Der letzte und praktisch wohl bedeutsamste Angriffspunkt liegt in den Menschen, die das<br />
System benutzen bzw. warten. In vielen Fällen ist der Angriff hier am leichtesten durchzuführen.<br />
Dieser Gesichtspunkt wird aber in der vorliegenden Arbeit nicht näher behandelt.<br />
1.3 Bedrohungssystematik<br />
Wohlfeil stellt eine Bedrohungssystematik mit 3 Achsen auf [Wohl99]:<br />
1. Technisch ↔ Nichttechnisch<br />
2. Beabsichtigt ↔ Unbeabsichtigt<br />
3. Aktiv ↔ Passiv
85 Hagen Barlag<br />
1.3.1 Technisch ↔ Nichttechnisch<br />
Hier wird eingeteilt durch die Eigenschaften welches Systemteils die Bedrohung bedingt ist,<br />
wobei zu den technischen z. B. die Eigenschaften des Übertragungskanals gehören, zu den<br />
nichttechnischen eine Person, die einen Angriff durchführt.<br />
1.3.2 Beabsichtigt ↔ Unbeabsichtigt<br />
Bedrohungen können beabsichtigt oder unbeabsichtigt entstehen, unbeabsichtigt sind z. B.<br />
Bedienungsfehler, beabsichtigte das Ausspähen von Daten.<br />
1.3.3 Aktiv ↔ Passiv<br />
Schließlich führt er noch aktive und passive Bedrohungen an. Passiv ist z. B. das Abhören<br />
eines Funkkanals oder des Ethernets, aktiv das Verfälschen von Nachrichten. Aktive Bedrohungen<br />
sind leichter zu entdecken [Wohl99].<br />
1.4 Bedrohungsszenarien<br />
Es werden nun verschiedene klassische Bedrohungsszenarien dargestellt und anhand derer die<br />
Eigenschaften entwickelt, die Sicherheit ausmachen. Diese dienen als Überschriften. Einige<br />
dieser Eigenschaften erzeugen einen Zielkonflikt mit den Anforderungen des Datenschutzes.<br />
Dieser Aspekt wird im Kapitel Datenschutz thematisiert. Geläufige Gegenmaßnahmen werden<br />
kurz angesprochen. Anhand dieser Eigenschaften wird im Kapitel Bedrohungsanalyse die<br />
LSI untersucht. Dort werden auch adäquate Gegenmaßnahmen diskutiert. Die Bedrohungen<br />
werden nach der im vorigen Kapitel vorgestellten Systematik klassifiziert.<br />
1.4.1 Vertraulichkeit<br />
Bei einer Verletzung der Vertraulichkeit gewinnt neben den Berechtigten noch ein unbefugter<br />
Dritter Kenntnis über Inhalte. Es handelt sich hier um einen absichtlichen oder unabsichtlichen<br />
passiven Angriff nichttechnischer Natur. Er kann einerseits dadurch geschehen, dass ein<br />
Nachrichtenkanal abgehört wird, andererseits kann sich ein Unbefugter Zutritt zu dem Gerät<br />
verschaffen, auf dem die Daten abgelegt sind. Es kann sich um einen Server handeln oder um<br />
den Verlust oder Diebstahl eines mobilen Clients. Im Zusammenhang mit der nachträglichen<br />
Rekonstruktion eines Bewegungsprofils wirft dies Fragen danach auf, ob eine Speicherung<br />
zurückliegender Positionsangaben auf dem Client erfolgen darf.<br />
Eine Verletzung der Vertraulichkeit kann durch eine Verschlüsselung erschwert werden.<br />
Diese kann sich sowohl auf die Nachrichtenübertragung als auch auf die Ablage von Daten<br />
erstrecken.<br />
1.4.2 Integrität<br />
Bei einer Verletzung der Integrität werden Daten aktiv verändert. Dies geschieht i. d. R. absichtlich,<br />
nicht-technisch bedingt, ist jedoch auch unabsichtlich durch technische Probleme<br />
möglich, bzw. durch eine Fehlbedienung. Auch diese Bedrohung kann sich sowohl in der<br />
Übertragung als auch auf dem Server oder Client manifestieren.<br />
Ein mögliches Mittel gegen Integritätsverletzung ist die Erzeugung von Redundanz. Um auch<br />
aktive Angriffe abzudecken muss diese aber so ausgelegt sein, dass die Redundanzinformation<br />
nicht einfach aus den geänderten Daten erzeugt werden kann (Signierung). Auch eine<br />
Verschlüsselung erschwert eine Modifikation beträchtlich, da keine gezielte Datenverände-
86 Sicherheit und Datenschutz für Mobile Anwendungen<br />
rung mehr möglich ist. Ein einfaches Hinzufügen von z. B. Paritätsbits deckt dagegen nur<br />
eine unbeabsichtigte Modifikation auf.<br />
1.4.3 Identifikation und Authentizität<br />
Bei einer Kommunikation oder auch nur der Benutzung eines Rechners muss sich ein Benutzer<br />
zunächst identifizieren, z. B. durch eine Login-Prozedur, bei der er sich neben der Nennung<br />
seines (Benutzer)namens durch weitere „Beweise“ authentisiert [Kelt92]. Bei einer Authentizitätsverletzung<br />
stammt z. B. eine Nachricht nicht von dem Absender, der der Nachricht<br />
zu entnehmen ist. Es handelt sich um einen aktiven, nichttechnischen, beabsichtigten Angriff<br />
oder um einen Konfigurations- oder Bedienfehler, in diesem Falle wäre er unabsichtlich. Es<br />
ist einerseits daran zu denken, dass sich ein Fremdcomputer als LSI-Server ausgeben könnte,<br />
andererseits könnte sich ein Client unberechtigt LSI-<strong>Dienste</strong> zunutze machen.<br />
Ein Mittel, um Authentizitätsverletzungen zu begegnen ist die Verwendung von Message<br />
Authentication Codes, z. B. digitaler Signaturen oder auch in diesem Falle die Verwendung<br />
einer Verschlüsselung, die den Urheber erkennen lässt. Hier ist allerdings die begrenzte Rechenkapazität<br />
mancher Clients zu berücksichtigen, darüber hinaus ist die Sicherheit von hinterlegten<br />
Schlüsselinformationen auf mobilen Geräten als eher gering einzustufen.<br />
Grundsätzlich ist eine Identifikation und Authentisierung pro Kommunikationssitzung oder<br />
pro Nachricht möglich.<br />
1.4.4 Autorisierung und Zugriffssteuerung<br />
Mit der Identifikation und Authentisierung eines Benutzers geht i. d. R. eine bestimmte Autorisierung<br />
einher, d. h. der Benutzer hat Zugriff auf nur einen Teil eines Systems [Roth03]. Bei<br />
einer Verletzung der Autorisierung, die das ganze Spektrum der Systematik umfassen kann,<br />
erlangt ein Benutzer Zugriff auf Systembestandteile, die ihm nicht zustehen. Hierzu muss<br />
natürlich klar definiert sein, auf welche Systemteile welcher Benutzer Zugriff haben soll.<br />
Diese Überlegungen sind im Zusammenhang mit LSI insbesondere in der Serverkommunikation<br />
anzustellen: Wer darf Informationen anbieten?<br />
1.4.5 Nicht-Abstreitbarkeit<br />
In diesem Zusammenhang ist sicherzustellen, dass einerseits der Empfänger nachweisen kann,<br />
dass eine konkrete Nachricht tatsächlich vom vorgeblichen Absender kommt. In Erweiterung<br />
des Authentizitätsbegriffs kann der Sender also nicht mehr abstreiten, die fragliche Nachricht<br />
erzeugt zu haben. Andererseits kann der Sender beweisen, dass ein Empfänger eine Nachricht<br />
tatsächlich erhalten hat. Die Einstufung in die Systematik ist hier genauso vorzunehmen, wie<br />
bei der Authentizität.<br />
Dieser Aspekt kann durch die Erzeugung von authentischen Quittungen für eine Nachricht<br />
sichergestellt werden.<br />
1.4.6 Verfügbarkeit<br />
Bei einem Angriff auf die Verfügbarkeit steht der entsprechende Dienst bei Bedarf nicht zur<br />
Verfügung. Es handelt sich hier i. d. R. um einen aktiven, beabsichtigten technischen Angriff<br />
(z. B. Denial of Service-Attacke) oder um ein passives unabsichtliches technisches Problem<br />
(Antennenmast umgefallen).<br />
Das klassische Gegenmittel sind hier hochverfügbare Systeme, die redundant ausgelegt sind,<br />
so dass einzelne Ausfälle den Betrieb nicht unterbinden.
87 Hagen Barlag<br />
1.4.7 Verlässlichkeit<br />
Ein weiterer zentraler Sicherheitsaspekt eines Systems ist dessen Verlässlichkeit, d. h. die<br />
Funktionsweise eines Systems muss den gestellten Anforderungen genügen; insbesondere<br />
muss der Benutzer sich auf die Ergebnisse verlassen können, und er muss sie in einer Zeit<br />
erhalten, die seinen Bedürfnissen entspricht. In diesem Zusammenhang existiert ein Interessenkonflikt<br />
zwischen den Sicherheitsanforderungen und den durch die begrenzte Rechenkapazität<br />
der Clients hervorgerufenen Antwortzeiten, wenn z. B. durch die Verwendung komplexer<br />
Verschlüsselungsverfahren deren Prozessoren überlastet werden.<br />
1.4.8 Beherrschbarkeit<br />
Für den Nutzer eines Systems stellt dessen Beherrschbarkeit einen zentralen Aspekt dar.<br />
Wohlfeil definiert Beherrschbarkeit als Schutz vor den unerwünschten Auswirkungen von<br />
Technologien und Systemen [Wohl99]. Im Zusammenhang mit der LSI ist hier wohl in erster<br />
Linie an die Erstellung von Bewegungsprofilen zu denken, die schon durch die technische<br />
Grundkonzeption der Identifizierung und Autorisierung verhindert werden sollte.<br />
Darüber hinaus gehört zur Beherrschbarkeit, dass der Benutzer weiß, was mit seinen Daten<br />
passiert (s. folgendes Kapitel Datenschutz bzw. informationelles Selbstbestimmungsrecht!).<br />
Schließlich kann sich für den Benutzer der Eindruck einer mangelhaften Beherrschbarkeit und<br />
daraus folgend erhebliche Akzeptanzprobleme auch durch die ausgeprägte Asymmetrie in der<br />
Beziehung zum Provider ergeben [Haus01], [Rodd02], der Benutzer hat den (zutreffenden)<br />
Eindruck, der Provider könne mit seinen Daten machen „was er wolle“.<br />
2 Datenschutz<br />
2.1 Grundlagen<br />
Die Ausführungen in diesem Kapitel stützen sich auf die Info 1 und die Info 5 des Bundesbeauftragten<br />
für den Datenschutz [BFD03], [BFD01], sowie auf das Bundesdatenschutzgesetz<br />
selbst [BDSG01].<br />
Das Ziel des Datenschutzes ist es, den Menschen vor einer Gefährdung durch die nachteiligen<br />
Folgen einer Datenverarbeitung zu schützen, insbesondere solchen Folgen, die sein Persönlichkeitsrecht<br />
beeinträchtigen. Dieser Grundsatz wird aus den Artikeln 1 und 2 des Grundgesetzes<br />
hergeleitet. Besondere Beachtung verdient in diesem Zusammenhang das Recht auf<br />
informationelle Selbstbestimmung, wie das Bundesverfassungsgericht in seinem so genannten<br />
Volkszählungsurteil 1983 festgestellt hat, d. h. der Einzelne muss u. a. mit hinreichender Sicherheit<br />
überschauen können, was mit seinen Daten geschieht. Eingriffe in dieses Recht sind<br />
nur auf Grundlage eines Gesetzes zulässig, die Verarbeitung personenbezogener Daten bedarf<br />
der Zustimmung.<br />
Als gesetzliche Grundlage des Datenschutzes dient das Bundesdatenschutzgesetz. Es definiert<br />
weitgehende Rechte von Personen, deren Daten automatischer Datenverarbeitung unterliegen.<br />
Andererseits ist es nicht so, dass dem Einzelnen eine völlige Herrschaft über seine Daten zugestanden<br />
wird, insbesondere gegenüber dem Staat. Um das Gleichgewicht zwischen dem<br />
Bürger und den Erfordernissen privater und öffentlicher Stellen zu wahren, wird das Bundesdatenschutzgesetz<br />
in einer ganzen Reihe von weiteren Gesetzen und Verordnungen konkretisiert,<br />
insbesondere wird z. B. auch die Weitergabe persönlicher Daten nicht von vornherein<br />
ausgeschlossen. Diese Regelungen haben gegenüber dem Bundesdatenschutzgesetz den Vorrang,<br />
berufen sich aber häufig auf dieses und konkretisieren dessen Anforderungen. Im Folgenden<br />
werden zunächst die relevanten Bestimmungen des Bundesdatenschutzgesetzes umrissen,<br />
um dann auf die weiteren Verordnungen einzugehen.
88 Sicherheit und Datenschutz für Mobile Anwendungen<br />
2.2 Einschlägigkeit des Bundesdatenschutzgesetzes<br />
Die Datenverarbeitung mit Hilfe des LSI oder eines andern mobilen <strong>Dienste</strong>s unterliegt dem<br />
Datenschutzgesetz, denn es handelt sich um die Datenverarbeitung unter Verwendung von<br />
Datenverarbeitungsanlagen, die nicht im rein familiären Umfeld stattfindet und es handelt<br />
sich auch nicht um die Wahrnehmung hoheitlicher Aufgaben.<br />
Daraus ergibt sich, dass eine für den Anwender anonyme Nutzung des <strong>Dienste</strong>s grundsätzlich<br />
vorzuziehen ist, da diese dem Prinzip der Datenvermeidung gerecht wird.<br />
Ist dies nicht möglich so ergeben sich weitreichende Rechte für den Anwender bzw. Verpflichtungen<br />
für denjenigen, der die Daten erhebt. Diese Rechte und Verpflichtungen werden<br />
im Folgenden kurz dargelegt.<br />
2.2.1 Begriffsbestimmungen<br />
Betroffener<br />
ist diejenige bestimmte oder bestimmbare natürliche Person,<br />
deren Daten erhoben bzw. verarbeitet werden.<br />
Personenbezogene Daten sind Einzelangaben über persönliche oder sachliche Verhältnisse<br />
eines Betroffenen wie Alter, Anschrift, Vermögen, Überzeugungen<br />
usw.<br />
Verantwortliche Stelle ist jede Person oder Stelle, die personenbezogene Daten für sich<br />
selbst erhebt, verarbeitet oder nutzt oder dies andere im Auftrag<br />
vornehmen lässt.<br />
2.2.2 Restriktive Auslegung (§§ 4, 4a BDSG)<br />
Im Umgang mit persönlichen Daten ist alles verboten, was nicht im Rahmen des Bundesdatenschutzgesetzes<br />
oder einer anderen Verordnung ausdrücklich erlaubt wurde. Darüber hinaus<br />
ist der Betroffene vom Verwender der Daten unaufgefordert zu benachrichtigen.<br />
2.2.3 Einverständniserklärung (§§ 4, 4a BDSG)<br />
Ein Nutzer eines <strong>Dienste</strong>s muss sein Einverständnis zur Verarbeitung seiner Daten i. d. R.<br />
schriftlich erklären, sofern die Benutzung des Systems nicht anonym erfolgen kann. Ob evt.<br />
auf die Schriftform nach §4a Abs1 BDSG und §89 Abs. 10 TKG verzichtet werden kann, ist<br />
bei der Analyse des Systems zu überprüfen. Dies ist u. U dann der Fall, wenn dem Benutzer<br />
nach Art des <strong>Dienste</strong>s die Schriftform nicht zuzumuten ist (Website, Mailgruppe).<br />
2.2.4 Zweckbestimmung (§§ 14, 18, 28, 29 BDSG)<br />
Die Zweckbestimmung der persönlichen Daten muss geklärt sein (z. B. Abrechnung der<br />
Leistungen mit anschließender Vernichtung der Daten), insbesondere private Stellen sind<br />
nach §28 Abs1 Satz 2 und §29 Abs. 1 Satz 2 verpflichtet, die Zwecke konkret festzulegen.<br />
Die Erhebung darf nicht heimlich erfolgen. Die Daten dürfen nur für den Zweck verwendet<br />
werden, für den sie erhoben wurden. Hiervon ist jedoch eine Reihe von Ausnahmen zulässig,<br />
die nach öffentlichen und privaten Stellen unterschieden werden. Die Ausnahmen für private<br />
Datenerheber sind:<br />
• Zur Wahrnehmung berechtigter Interessen der verantwortlichen Stelle.<br />
• Wenn die Daten allgemein zugänglich sind oder veröffentlicht werden dürfen.<br />
• Zu wissenschaftlichen Zwecken.<br />
• Für Zwecke der Werbung, der Markt und Meinungsforschung bei „listenmäßiger<br />
Übermittlung“, jedoch nicht, wenn die Daten im Zusammenhang mit einem Vertrags-
89 Hagen Barlag<br />
verhältnis oder einem vertragsähnlichen Vertrauensverhältnis gewonnen wurden.<br />
Bei der listenmäßigen Übermittlung handelt es sich um die Weitergabe eines bestimmten<br />
Kataloges, nämlich ein freies Merkmal, Berufs-, Branchen- oder Geschäftsbezeichnung,<br />
Namen, Titel, akademische Grade, Anschrift und Geburtsjahr. Hiergegen<br />
hat der Betroffene ein Widerspruchsrecht, das freie Merkmal darf nicht die z. B.<br />
die Religionszugehörigkeit oder andere „sensible Informationen“ umfassen. Das Verfahren<br />
ist rekursiv, d. h. der dem die Daten übermittelt wurden, darf sie seinerseits<br />
weitergeben, solange dem Betroffenen auf Verlangen mitgeteilt wird, von wem seine<br />
Daten stammen, damit er weiß, wohin er seinen Widerspruch richten muss. Wer keine<br />
Werbung bekommen möchte, kann sich in die entsprechende Robinson-Liste eintragen,<br />
deren Beachtung durch die Werbewirtschaft erfolgt jedoch freiwillig.<br />
2.2.5 Benachrichtigung (§ 34 BDSG)<br />
Speichert eine Stelle erstmalig Daten über einen Betroffenen, so ist dieser darüber zu benachrichtigen,<br />
sofern der Betroffene dies nicht ohnehin weiß. Das Recht auf Benachrichtigung<br />
erstreckt sich auf die gleichen Daten wie das Auskunftsrecht (s. u.!). Eine Speicherung ohne<br />
ausdrückliches Einverständnis des Betroffenen könnte im Zusammenhang mit Mobile Computing<br />
und Telekommunikation eintreten, wenn die Daten listenmäßig (s. o.!) übermittelt<br />
wurden oder wenn eine neue Stelle die Daten des Betroffenen übernimmt (Roaming, Änderung<br />
der Benutzerverwaltungsstruktur usw.). Es sind folgende Ausnahmen von der Pflicht zur<br />
Benachrichtigung definiert:<br />
• Die Daten sind nur deshalb gespeichert , weil sie wegen gesetzlicher, satzungsmäßiger<br />
oder vertraglicher Aufbewahrungspflichten nicht gelöscht werden dürfen oder sie ausschließlich<br />
der Datensicherung oder der Datenschutzkontrolle dienen und eine Benachrichtigung<br />
einen unverhältnismäßigen Aufwand bedeuten würde.<br />
• Die Daten müssen wegen einer Rechtsvorschrift oder wegen überwiegenden rechtlichen<br />
Interesses eines Dritten geheim bleiben.<br />
• Die Speicherung zur wissenschaftlichen Forschung geschieht und eine Benachrichtigung<br />
einen unverhältnismäßigen Aufwand bedeuten würde.<br />
• Die zuständige öffentliche Stelle gegenüber der speichernden Stelle festgestellt hat,<br />
dass das Bekannt werden der Daten die öffentliche Sicherheit und Ordnung gefährden<br />
würde oder dem Wohle des Bundes oder eines Landes schaden würde.<br />
• Die Daten für eigene Zwecke gespeichert sind und aus allgemein zugänglichen Quellen<br />
stammen und eine Benachrichtigung wegen der Vielzahl der Fälle einen unverhältnismäßigen<br />
Aufwand bedeuten würde oder die Benachrichtigung der Betroffenen<br />
den Geschäftszweck gefährden würde, es sei denn das Interesse der Betroffenen überwiegt.<br />
Die speichernde Stelle legt schriftlich fest, unter welchen Voraussetzungen von einer Benachrichtigung<br />
abgesehen wird.<br />
2.2.6 Auskunftsrecht (§§ 19, 19a, 33, 34 BDSG)<br />
Ein Betroffener hat das Recht auf Auskunft über die zu seiner Person gespeicherten Daten<br />
einschließlich der Angaben, woher diese stammen, an wen sie übermittelt wurden und den<br />
Zweck der Speicherung. Die Auskunft ist kostenlos zu erteilen, außer die Auskunft kann vom<br />
Betroffenen für wirtschaftliche Zwecke genutzt werden, in diesem Falle dürfen die Gebühren<br />
die direkt zurechenbaren Kosten für die Ermittlung der fraglichen Daten nicht übersteigen.<br />
Sind die Daten unrichtig oder unzulässigerweise gespeichert, ist die Auskunft in jedem Falle
90 Sicherheit und Datenschutz für Mobile Anwendungen<br />
kostenlos zu erteilen. Es ist ausdrücklich darauf hinzuweisen, dass der Betroffene bei persönlicher<br />
Kenntnisnahme die Auskünfte unentgeltlich bekommen kann.<br />
Es bestehen dieselben Ausnahmen von der Auskunftspflicht, wie bei der Benachrichtigungspflicht<br />
(s. o.!). Wird aus diesen Gründen die Auskunft über bestimmte Punkte verweigert, ist<br />
darauf hinzuweisen, außer der Zweck der Verweigerung würde dadurch gefährdet.<br />
2.2.7 Einsichtsrecht in das Verfahrensverzeichnis (§§ 4g , 4d, 4e, 38 BDSG)<br />
Die speichernden Stellen führen eine Übersicht, aus der hervorgeht, in welchen automatisierten<br />
Verarbeitungen personenbezogene Daten gespeichert werden. Das Verfahrensverzeichnis<br />
enthält folgende Angaben:<br />
• Name oder Firma der verantwortlichen Stelle<br />
• Inhaber, Vorstände, Geschäftsführer oder sonstige berufene Leiter und die mit der<br />
Datenverarbeitung beauftragten Personen<br />
• Anschrift der verantwortlichen Stelle<br />
• Zweckbestimmung der Datenverarbeitung<br />
• Eine Beschreibung der betroffenen Personengruppen und ihrer Daten oder<br />
Datenkategorien<br />
• Empfänger oder Kategorien von Empfängern, denen Daten weitergegeben werden<br />
können<br />
• Regelfristen für die Löschung von Daten<br />
• Eine etwa geplante Datenübermittlung an Drittstaaten.<br />
Dieses Verzeichnis kann von jedermann eingesehen werden.<br />
2.2.8 Berichtigung (§§ 20, 35 BDSG)<br />
Unrichtige Daten sind zu berichtigen, es ist zu vermerken, wenn ein Betroffener die Richtigkeit<br />
bestreitet.<br />
2.2.9 Löschung (§ 35 BDSG)<br />
• Es sind Daten zu löschen, deren Speicherung unzulässig ist.<br />
• Daten über rassische oder ethnische Herkunft, politische Meinungen, religiöse oder<br />
Philosophische Überzeugungen, Gewerkschaftszugehörigkeit, Gesundheit, Sexualleben,<br />
strafbare Handlungen, Ordnungswidrigkeiten, deren Richtigkeit von der speichernden<br />
Stelle nicht bewiesen werden kann<br />
• Daten, die nicht mehr benötigt werden sind gleichfalls zu löschen. Am Ende des vierten<br />
Kalenderjahres nach einer Speicherung sind Daten daraufhin zu überprüfen.<br />
2.2.10 Sperrung (§ 35 BDSG)<br />
Wären Daten zu löschen und es steht dem ein besonderer Grund entgegen, so sind die Daten<br />
zu sperren.<br />
Besondere Gründe sind:<br />
• Gesetzlich oder satzungsmäßig oder vertraglich festgelegte Aufbewahrungsfristen<br />
• Schutzwürdige Interessen des Betroffenen<br />
• Unverhältnismäßiger Aufwand der Löschung.<br />
Bestreitet der Betroffene die Richtigkeit der Angaben und lässt sich dies nicht entscheiden,<br />
sind die Daten zu sperren.
91 Hagen Barlag<br />
Gesperrte Daten dürfen nicht übermittelt oder genutzt werden. Ausnahmen:<br />
• Wissenschaftliche Zwecke<br />
• Zur Behebung einer bestehenden Beweisnot<br />
• Aus sonstigen Gründen im überwiegenden Interesse der speichernden Stelle oder eines<br />
Dritten<br />
2.2.11 Widerspruchsrecht (§§ 20 Abs 5, 35 Abs 5 BDSG)<br />
Rechtmäßigen Datenverarbeitungen kann der Betroffene in Ausnahmefällen widersprechen,<br />
sofern besondere Umstände in der Person des Betroffenen vorliegen und sein schutzwürdiges<br />
Interesse das der verarbeitenden Stelle überwiegt.<br />
2.2.12 Rechte beim Einsatz von Chipkarten (§ 6c BDSG)<br />
Sollten Chipkarten mit einem Prozessorchip verwendet werden, so muss die ausgebende<br />
Stelle den Betroffenen über folgende Sachverhalte informieren:<br />
• Ihre Identität und Anschrift<br />
• Die Funktionsweise des Mediums einschließlich der Art der Datenverarbeitung in<br />
allgemein verständlicher Form.<br />
• Wie der Betroffene seine Rechte auf Auskunft, Berichtigung, Löschung, Sperrung und<br />
das Widerspruchsrecht ausüben kann. (Hierzu sind in angemessenen Umfang Lesegeräte<br />
zur Verfügung zu stellen.)<br />
• Welche Maßnahmen bei Verlust oder Zerstörung der Karte zu treffen sind.<br />
Es ist für den Betroffenen kenntlich zu machen, wann ein Lesevorgang auf der Karte eine<br />
Datenverarbeitung auslöst, damit andere nicht ohne Kenntnis des Betroffenen in den Besitz<br />
seiner Daten gelangen.<br />
2.2.13 Anrufung von Kontrollinstanzen für den Datenschutz (§§ 21, 38 BDSG)<br />
Wer annimmt, bei der Datenverarbeitung in seinen Rechten verletzt worden zu sein, kann die<br />
entsprechenden Aufsichtsbehörden der Länder anrufen, wenn die Verletzung durch eine nicht<br />
öffentliche Stelle erfolgte. Bei öffentlichen Stellen sind die Datenschutzbeauftragten zuständig.<br />
Diese Stellen untersuchen den Sachverhalt und unterrichten den Betroffenen vom Ergebnis.<br />
Dabei wird Vertraulichkeit zugesichert. Die jeweils zuständige Stelle sowohl bei privater<br />
als auch bei staatlicher Datenverarbeitung kann im Anhang 4 von [BFD03] nachgelesen<br />
werden.<br />
2.2.14 Schadenersatz und Schmerzensgeld (§§ 7, 8 BDSG)<br />
Wenn eine verantwortliche Stelle einem Betroffenen durch eine unzulässige oder unrichtige<br />
Datenverarbeitung einen Schaden zufügt, ist sie zum Ersatz verpflichtet. Bei einer schweren<br />
Verletzung des Persönlichkeitsrechts kann auch ein Schmerzensgeld zuerkannt werden.<br />
Die Stelle kann sich von diesen Ansprüchen frei halten, wenn sie nachweisen kann, die gebotene<br />
Sorgfalt eingehalten zu haben.<br />
2.2.15 Weitere Rechte<br />
Andere Rechte betreffen z. B. die Videoüberwachung oder die automatisierte Entscheidung<br />
(Maschinen entscheiden über Menschen) und werden hier nicht besprochen, da sie im Zusammenhang<br />
mit Mobile Computing von untergeordneter Bedeutung sind.
92 Sicherheit und Datenschutz für Mobile Anwendungen<br />
2.2.16 Übermittlung von Daten ins Ausland (§§ 4b, 4c BDSG)<br />
Die Übermittlung von Daten innerhalb der EU ist genauso zu betrachten wie die innerhalb<br />
Deutschlands (s. o.!)<br />
Sofern eine Übermittlung der Daten ins außereuropäische Ausland in Betracht gezogen wird<br />
(„Welt-Server“) so ist sicherzustellen, dass das entsprechende Land über ein angemessenes<br />
Datenschutzniveau verfügt und der Betroffene kein schutzwürdiges Interesse am Ausschluss<br />
der Übermittlung hat. Die Feststellung eines angemessenen Datenschutzniveaus kann entweder<br />
durch die EU-Komission oder durch die übermittelnde Stelle selbst nach Art und Zweckbestimmung<br />
der Daten, Dauer der Verarbeitung und anderen Kriterien festgestellt werden<br />
(Einzelheiten § 4 Abs 3 BDSG).<br />
Im Verkehr mit den USA, die kein angemessenes Datenschutzniveau aufweisen, wurde das<br />
„Safe Harbour-Prinzip“ entwickelt. Der Empfänger muss sich verpflichten, ein der EU-Norm<br />
entsprechendes Datenschutzniveau sicherzustellen, dann gelten die Regelungen des EU-Verkehrs<br />
entsprechend.<br />
Eine beabsichtigte Übermittlung ins Ausland ist dem Betroffenen von vornherein mitzuteilen.<br />
2.2.17 Technische Vorkehrungen (§ 9, 10 BDSG)<br />
Bei Erhebung, Verarbeitung und Nutzung personenbezogener Daten sind die notwendigen<br />
technischen Vorkehrungen zu treffen, um die Vorschriften des Bundesdatenschutzgesetzes<br />
einzuhalten, insbesondere ist:<br />
• Unbefugten der Zutritt zu DV-Anlagen zu verwehren,<br />
• zu verhindern, dass die DV-Anlagen von Unbefugten genutzt werden können,<br />
• zu gewährleisten, dass die zur Benutzung des DV-Systems Berechtigten ausschließlich im<br />
Rahmen dieser Berechtigung zugreifen können und personenbezogene Daten bei der Verarbeitung<br />
und Nutzung und nach der Speicherung nicht unbefugt gelesen und kopiert, verändert<br />
oder entfernt werden können.<br />
Insbesondere sind die Schutzmaßnahmen als ein zusammenhängendes System zu verstehen,<br />
in dem die Datenschutzmaßnahmen zusammen mit sonstigen Sicherheitsmaßnahmen entwickelt<br />
werden. Konkret sind z. B. Befugte und ihre Zugriffsrechte für das LSI explizit zu definieren<br />
und dürfen sich nicht aus programmtechnischen Zusammenhängen „einfach so“<br />
ergeben.<br />
Besonders hohe Anforderungen ergeben sich, sofern ein automatisiertes Abrufverfahren von<br />
persönlichen Daten eingerichtet werden soll.<br />
2.3 Weitere Gesetze und Verordnungen<br />
Neben dem Bundesdatenschutzgesetz, dessen Auswirkungen im vorangegangenen Kapitel<br />
angerissen wurden, sind im Zusammenhang mit dem Datenschutz in der Telekommunikation<br />
bzw. dem Anbieten von Telediensten, einige weitere Gesetze einschlägig. So beschränkt z. B.<br />
das Grundgesetz den Zugriff staatlicher Stellen auf private Kommunikationsdaten im Artikel<br />
10 (Fernmeldegeheimnis). Die LSI stellt keine Kommunikationsleistungen im engeren Sinne<br />
zur Verfügung, denn ein Datenaustausch findet ja nicht zwischen zwei Betroffenen statt,<br />
vielmehr fragt ein Betroffener <strong>Dienste</strong> ab. (Da ich kein Jurist bin, ist diese Bewertung mit<br />
Vorsicht zu genießen.) Somit handelt es sich um einen Teledienst. Es werden daher zunächst<br />
die für Teledienste im privaten Geschäftsverkehr einschlägigen Gesetzeswerke vorgestellt um<br />
anschließend der Vollständigkeit halber die Regelungen für Telekommunikationsdienste kurz
93 Hagen Barlag<br />
zu umreißen. Die bereichsspezifischen Regelungen haben wie erwähnt den Vorrang<br />
gegenüber dem Bundesdatenschutzgesetz.<br />
2.3.1 Das Informations- und Kommunikationsdienstegesetz<br />
Dieses Gesetz regelt die Rahmenbedingungen für Informations- und Kommunikationsdienste,<br />
wobei vorausgesetzt wird, dass Inhalte übermittelt werden, es wird also ausdrücklich nicht die<br />
Telekommunikation geregelt. Darüber hinaus wird festgelegt, wann ein Anbieter eines Teledienstes<br />
auch Normadressat für die Regelungen der Kommunikation ist, nämlich dann, wenn<br />
Kommunikationsdienste wie E-Mail oder SMS angeboten werden.. Zusammen mit ihm wurden<br />
das Teledienstgesetz und das Teledienste-Datenschutzgesetz verabschiedet (s. u.!).<br />
2.3.2 Das Teledienstegesetz<br />
Dieses Gesetz gibt Anhaltspunkte zur Abgrenzung von Telediensten und Telekommunikationsleistungen<br />
und legt die Anmeldefreiheit von Telediensten fest, sowie die Verantwortung<br />
für deren Inhalt, d. h. ein Anbieter ist nur für eigene Inhalte verantwortlich. Darüber hinaus ist<br />
der Anbieter eines <strong>Dienste</strong>s zu kennzeichnen.<br />
2.3.3 Das Teledienste-Datenschutzgesetz<br />
Hier werden die Regelungen des Bundesdatenschutzgesetzes für Teledienste konkretisiert. Es<br />
wird die elektronisch erklärte Einwilligung geregelt und festgelegt, dass einem Nutzer eine<br />
anonyme Nutzung eines <strong>Dienste</strong>s zu ermöglichen ist, sofern dies technisch möglich und zumutbar<br />
ist. Es wird festgelegt, dass die Datenschutzbeauftragten der Länder zuständig sind.<br />
Ein Anbieter muss eine Privacy Policy verfassen und dem Kunden auf Wunsch zugänglich<br />
machen. Außerdem muss er den Kunden über Umfang und Zweck der Datenerhebung, –Verarbeitung<br />
und –Nutzung unterrichten.<br />
2.3.4 Telekommunikationsverordnungen<br />
Es werden nun die für Kommunikationsdienste gültigen Gesetze stichwortartig umrissen.<br />
• Das Telekommunikationsgesetz. Gültigkeit des Fernmeldegeheimnisses auch im privaten<br />
Verkehr.<br />
• Die Telekommunikations-Kundenschutzverordnung. Regelung der Vertragsverhältnisse<br />
zwischen Anbietern von Telekommunikationsdienstleistungen und ihren Kunden,<br />
Verbraucherschutz<br />
• Die EU-Telekommunikations-Datenschutzrichtlinie. Regelung der Verarbeitung<br />
persönlicher Daten in diesem Zusammenhang, Richtlinien für die Einzelstaaten, insbesondere<br />
auch zur Verarbeitung von Standortdaten (!) z. B. Schutz vor unerwünschten E-<br />
Mails. Diese Richtlinie hat keine unmittelbare Rechtswirkung, sondern muss von den EU-<br />
Staaten in nationales Recht umgesetzt werden.<br />
• Die Telekommunikations-Überwachungsverordnung. Regelt den Zugriff staatlicher<br />
Stellen auf Kommunikationsdaten zum Zwecke der Strafverfolgung: Sollte es möglich<br />
sein mit einem Dienst Bewegungsprofile zu erstellen, könnte man sich der Forderung gegenübersehen,<br />
diese auch preiszugeben, bzw. sogar die entsprechende Möglichkeit zu<br />
schaffen. Andererseits dürfen nach deutschem Recht nur wirkliche Kommunikationsdienste<br />
abgehört werden (E-Mail, Internettelefonie, SMS und Mailboxsysteme).
94 Sicherheit und Datenschutz für Mobile Anwendungen<br />
2.3.5 Weitere praktische Konsequenzen<br />
Über die im Abschnitt über das Datenschutzgesetz formulierten Anforderungen hinaus ergeben<br />
sich aus den genannten Vorschriften noch zwei für mobile Anwendungen bedeutsame<br />
Sachverhalte.<br />
1. Einige Tatbestände sind mit Bußgeld bedroht, darunter u. a.:<br />
• Nutzung der Bestandsdaten für Beratung, Werbung, Marktforschung ohne Einwilligung<br />
des Kunden<br />
• Speicherung der Verbindungsdaten über das Ende der Verbindung hinaus, obwohl sie<br />
nicht mehr erforderlich sind<br />
2. Sollte die Nutzung eines <strong>Dienste</strong>s mit Rechnungsstellung erfolgen, so sind die diesbezüglichen<br />
Vorschriften (z. B. über Einzelverbindungsnachweis usw.) sinngemäß<br />
anzuwenden.<br />
3 Fazit<br />
Bei Überlegungen zur Sicherheit einer mobilen Anwendung ist stets das System als Ganzes<br />
insbesondere einschließlich seiner Benutzer zu betrachten. Hierbei sind in die Überlegungen<br />
neben den klassischen Zielen Integrität, Authentizität, Autorisierung, Vertraulichkeit und<br />
Nicht-Abstreitbarkeit auch die Verfügbarkeit, Verlässlichkeit und Beherrschbarkeit einzubeziehen.<br />
Diesbezügliche Mängel eines Systems können sein Scheitern aufgrund fehlender Akzeptanz<br />
zur Folge haben.<br />
Außerdem müssen schon beim Entwurf die Datenschutzaspekte mindestens gleichwertig neben<br />
den technischen Erwägungen behandelt werden. Hier ist in erster Linie das Prinzip der<br />
Datenvermeidung anzuführen, d. h. nach Möglichkeit auf die Erhebung persönlicher Daten<br />
völlig oder möglichst weitgehend zu verzichten, bei dessen Beachtung die erheblichen Verpflichtungen,<br />
die sich aus den bundesdeutschen Rechtsvorschriften für den Betreiber einer<br />
Datenverarbeitungsanlage ergeben, ganz oder teilweise entfallen. Bei der Abwägung, ob eine<br />
Vorgehensweise überhaupt in Frage kommt, ist die restriktive Auslegung von entscheidender<br />
Bedeutung, also die Tatsache, dass im Zusammenhang mit der Erhebung persönlicher Daten<br />
alles verboten ist, was nicht ausdrücklich durch die einschlägigen Gesetze erlaubt wurde.<br />
Man muss sich bewusst sein, dass Datenschutzverletzungen Verletzungen der Menschenwürde<br />
und des Persönlichkeitsrechts zur Folge haben können, Gütern von zentralem<br />
Verfassungsrang.
95 Hagen Barlag<br />
Referenzen<br />
[Anon99]<br />
Anonymus: Hacker’s guide – Sicherheit im Internet und im lokalen Netz, Markt&Technik,<br />
Haar bei München 1999<br />
[BDSG01]<br />
Bundesdatenschutzgesetz nach der Novelle vom 21. Mai 2001, zitiert nach [BFD03]<br />
[BFD01].<br />
Der Bundesbeauftragte für den Datenschutz: Info Nr. 5 zum Datenschutz: Datenschutz in der<br />
Telekommunikation<br />
http://www.bfd.bund.de/information/pdf/info_5.pdf<br />
[BFD03]<br />
Der Bundesbeauftragte für den Datenschutz: Info Nr. 1 zum Datenschutz: Datenschutzgesetz<br />
– Text und Erläuterung, Stand Januar 2003<br />
http://www.bfd.bund.de/information/pdf/info_1.pdf<br />
[DWDS03]<br />
Berlin-Brandenburgische Akademie der Wissenschaften: Digitales Wörterbuch der deutschen<br />
Gegenwartssprache http://www.zeit.de/schwerpunkte/hochschule/akademie/index<br />
[Haus02]<br />
Hauser, C.; Kabatnik, M.: Towards Privacy Support in a Global Location Service in Proceedings<br />
of the IFIP Workshop on IP and ATM Traffic management, Paris 2001<br />
[Kelt92]<br />
Kelter, U.: Betriebssysteme, Kurs 1802 der Fernuniversität Hagen, Kapitel 6: Sicherheit S.<br />
172-183, Hagen 1992<br />
[Lamp71]<br />
Lampson, B. W. : Protection, in Proc. 5th Princeton Conference on Information Sciences and<br />
Systems, Princeton 1971 S. 437<br />
[Rodd02]<br />
Rodden, T. et al.: A Lightweight Approach to Managing Privacy in Location-Based Services,<br />
Technical Report Equator-02-058, University of Nottingham and Lancaster University and<br />
University of Bristol, October 2002<br />
http://www.equator.ac.uk/papers/Abstracts/2002-rodden-1.html<br />
[Roth03]<br />
Roth, J.: Mobile Computing, Kurs 1679 der Fernuniversität Hagen<br />
Hagen 2003<br />
[Schi94]<br />
Schilit, B. et al.: Context-Aware Computing Applications, Workshop on Mobile Computing<br />
Systems and Applications, Santa Cruz, 1994<br />
http://seattleweb.intel-research.net/people/schilit/wmc-94-schilit.pdf
96 Sicherheit und Datenschutz für Mobile Anwendungen<br />
[Schn01]<br />
Schneier, B.: Secrets and Lies – IT Sicherheit in einer vernetzten Welt, Wiley VCH-Verlag,<br />
Weinheim, 2001<br />
[Wohl99]<br />
Wohlfeil, S.: Sicherheit im Internet, Kurs 1866 der Fernuniversität Hagen<br />
Hagen 1999
Sicherheitsproblematik am Beispiel der<br />
Location Server Infrastructure<br />
Stephan Drautz<br />
Fernuniversität Hagen<br />
Universitätsstraße 1<br />
58084 Hagen<br />
sdrautz@gmx.de<br />
Zusammenfassung: In diesem Dokument wird die Sicherheitsproblematik an einem<br />
konkreten Beispiel dargestellt. Hierzu wird näher auf die Location Server Infrastructure<br />
(LSI) eingegangen, welche von Dr. Jörg Roth an der Fernuniversität Hagen entwickelt<br />
wird. Hierbei wird genauer die Problematik analysiert, welche im Bezug auf die Einbindung<br />
dieser prinzipiell globalen Struktur entstehen können.<br />
1 Vorstellung von LSI<br />
Die Location Server Infrastructure ist ein Framework zur Entwicklung ortsbasierter <strong>Dienste</strong>.<br />
Sie ist selbstorganisierend, dezentral und stellt eine einheitliche Sicht auf Ortsinformationen<br />
zur Verfügung. Die folgende Darstellung der Location Server Infrastructure beruht auf<br />
[Roth03].<br />
1.1 Begriffe und Definitionen<br />
Der Begriff Location Awareness ist ein zentrales Konzept des Mobile Computing. Hier handelt<br />
es sich darum, dass eine Applikation den gegenwärtigen Aufenthaltsort eines Benutzers<br />
berücksichtigt und einen davon abhängigen Output erzeugt.<br />
Bei den bisherigen Entwicklungen, die Location Awareness einschlossen, wurden entweder<br />
physikalische oder semantische Koordinaten berücksichtigt. Bei physikalischen Koordinaten<br />
handelt es sich um eine Positionsangabe auf der Erdoberfläche im Sinne eines Längen- und<br />
Breitenbestimmung evt. mit Höhenangabe (N51 o 22.579/E007 o 29615/169m), wie sie z. B. ein<br />
GPS-System liefert. Eine semantische Positionsangabe beinhaltet Informationen zur Bedeutung<br />
eines Ortes (Hauptbahnhof Hagen/NRW) [Prad00]. Die LSI behandelt beide Arten von<br />
Ortsinformationen. Für Applikationen ist in der Regel die semantische Angabe bedeutsamer<br />
als die physikalische, denn sie ist für den Benutzer unmittelbar bedeutungstragend, eine semantische<br />
Angabe überdeckt i. d. R. eine ganze Anzahl physikalischer Orte und ein semantischer<br />
Name ist z. B. als Index einer Datenbank geeignet, im Gegensatz zu physikalischen Koordinaten.<br />
Der Location Server stellt auf Anfrage des Clients die physikalischen und semantischen Ortsinformationen<br />
zur Verfügung.<br />
Es werden folgende Definitionen vereinbart:<br />
1) Es sei P die Menge aller physikalischen Orte.<br />
2) S⊆P sei eine semantische Ortsangabe.<br />
3) C⊆2 P sei ein semantisches Koordinatensystem.<br />
4) Ein „vernünftiges“ semantisches Koordinatensystem ist für den Benutzer bedeutungstragend.<br />
5) Wir verwenden nur physikalische und semantische Koordinatensysteme.<br />
6) Sei N die Menge aller Namen.
98 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />
7) Mit der Relation C->N werden die semantischen Koordinaten auf die Namen abgebildet.<br />
Namen werden nicht mehrfach verwendet. Ein semantischer Ort mit seinem Namen heißt<br />
Semantische Domäne oder nur Domäne.<br />
8) Domänen können wiederum Domänen enthalten, sog. Subdomänen. Die Fläche einer Subdomäne<br />
muss vollständig in der entsprechenden Domäne enthalten sein; es handelt sich<br />
um ein hierarchisches Modell.<br />
9) Die Relation SL: P->2N ordnet den physikalischen Orten alle dazu gehörenden semantischen<br />
Namen zu.<br />
10) Die Relation SLA: 2P->2N ordnet den physikalischen Orten alle semantischen Namen zu,<br />
die den Ort überlappen.<br />
11) Die Relation PL: N->C ordnet semantischen Namen entsprechende Flächen zu.<br />
1.2 Die Ziele der LSI<br />
Bei der Entwicklung von LSI wurden folgende Ziele verfolgt:<br />
1. Es sollen einheitliche Ortsinformationen zur Verfügung gestellt werden, unabhängig vom<br />
verwendeten Bestimmungssystem.<br />
2. Für jede Position stehen die physikalischen Koordinaten und alle semantischen Namen<br />
zur Verfügung.<br />
3. Die Architektur ist dezentral.<br />
4. Die Clients finden automatisch einen geeigneten Server.<br />
5. Die Infrastruktur ist leicht wartbar. Es werden insbesondere Änderungen in C und N automatisch<br />
über das Netzwerk weitergegeben.<br />
6. Die Infrastruktur skaliert für eine große Anzahl Orte bzw. Clients.<br />
7. Häufig angeforderte Daten stehen mit geringer Netzwerklatenz zur Verfügung, selten<br />
benötigte können dennoch über das WAN aufgelöst werden.<br />
8. Das Serverprogramm ist leichtgewichtig. Die Clients können auch auf beschränkter Hardware<br />
z. B. „embedded“ oder „PDA“ laufen.<br />
9. Die Infrastruktur ist gegen Angriffe abgesichert. Es soll sehr teuer sein, Bewegungsprofile<br />
zu erstellen.<br />
10. Die Infrastruktur soll auch mobile semantische Orte, z. B. Autos, Züge… unterstützen.<br />
Die hierdurch resultierenden Ortsänderungen sollen schnell durch das Netz verbreitet<br />
werden.<br />
1.3 Das Domänenmodell<br />
Wie oben erwähnt, schränken wir die semantischen Koordinatensysteme für die LSI auf hierarchisch<br />
strukturierte ein. Jede Hierarchie hat eine Root-Domäne, diese kann verschiedene<br />
Subdomänen haben, die ihrerseits Subdomänen enthalten können. Jede (Sub)Domäne ist<br />
Master ihrer Subdomänen.<br />
Es gibt eine physikalische Hierarchie, über die die physikalischen Informationen abgebildet<br />
werden, deren root-Domain wird in Anlehnung an DNS-Namensraum benannt (s. u.). Es kann<br />
zahlreiche semantische Hierarchien geben, hier müssen die Konzepte noch entwickelt werden.<br />
Domänen können zwei Arten von Beziehungen haben:<br />
Die Beziehung zwischen Domäne und Subdomäne heißt Relation und bedeutet u. a. wie erwähnt,<br />
dass die Subdomäne in der Domäne enthalten ist. Der Name der Subdomäne wird so<br />
gebildet, dass ein Bezeichner mit einem Trennzeichen vor den Namen der Domäne gestellt<br />
wird. (z. B. „hagen.de“: „hagen“ ist eine Subdomäne von „de“.)<br />
Überlappen sich die Gebiete zweier Domänen, so nennen wir sie „assoziiert“. Diese Beziehung<br />
kann sich sowohl in einer Domäne abspielen als auch über verschiedenen Domänen
99 Stephan Drautz<br />
erstrecken. Ein Beispiel für den ersten Fall wäre, dass sich die Domänen von fley.hagen.de<br />
und fernuniversität.hagen.de überlappen, z. B. weil die Fernuniversität einen eigenen Server<br />
betreibt, der ihr Gebiet genauer abbildet als der Fley-Server, sie aber andererseits nicht vollständig<br />
in Fley liegt. Ein Beispiel für den zweiten Fall wäre, dass die Domäne<br />
„hagen.pizzadienst.service“ mit hagen.de assoziiert ist, weil der Pizzadienst in Hagen ausliefert.<br />
Abb. 2.1 zeigt zwei assoziierte Hierarchien, aus denen die Beispiele stammen.<br />
Abbildung 1: Zwei assoziierte LSI-Hierarchien [Roth03a]<br />
1.4 Die Architektur<br />
Die Architektur folgt aus dem Domänenmodell und besteht aus<br />
• einer Menge von Positionierungssystemen<br />
• der Location Server Infrastruktur<br />
• einer Menge von ortsbasierten <strong>Dienste</strong>n und Applikationen<br />
• mobilen Knoten, die die angebotenen <strong>Dienste</strong> nutzen (Clients).<br />
Der mobile Knoten ist mit einem oder mehreren Positionierungsdiensten verbunden. Außerdem<br />
ist er mit dem Location Based Service verbunden, der die LSI nutzt. Die LSI selbst<br />
besteht aus einer Anzahl von Location Servern, die durch Relationen und Assoziationen<br />
logisch verbunden sind und den semantischen und physikalischen Raum abdecken. Ein Server<br />
ist für seine Domänen und alle diejenigen seiner Subdomänen verantwortlich, für die kein<br />
eigener Server installiert ist. Jeder Client hat zu jedem Zeitpunkt einen speziellen Location<br />
Server, bei dem er sich anmeldet und der die Anfragen für ihn bearbeitet bzw. weiterreicht (s.<br />
u.!), den Local Location Server LLS. Dieser Server kann sich ändern, während der Client sich<br />
bewegt, weil dieser die Domäne wechselt. Dem LLS sind die relevanten Informationen seiner<br />
Domäne bekannt, insbesondere:<br />
• die installierten Positionierungssysteme<br />
• die semantischen Orte<br />
• die physikalischen Orte<br />
• die Relationen SL, SLA und PL<br />
• sein Master<br />
• die mit ihm assoziierten Server.<br />
Die erste Aufgabe eines Clients, wenn er eingeschaltet wird oder wenn er sich in ein neues<br />
Gebiet bewegt ist es, seinen LLS zu finden. Hierzu stehen ihm drei Mechanismen zur Verfügung,<br />
nämlich global discovery, local discovery und positioning system discovery, die sich im
100 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />
Wesentlichen darin unterscheiden, welche Netzinfrastruktur sie benutzen, um den Kontakt zu<br />
ihrem LLS herzustellen, und welche Informationen schon zur Verfügung stehen müssen.<br />
Global Discovery bedient sich Multicast- oder Geocast-Mechanismen, um einen LLS zu<br />
ermitteln. Ist schon mindestens ein LLS bekannt und erreichbar, kann auch dieser nach dem<br />
aktuellen LLS befragt werden (LSI-based Discovery), indem die aktuelle Clientposition<br />
übermittelt wird. Der LLS ermittelt dann ggf. über die Hierarchie den aktuellen LLS.<br />
Local Discovery setzt ein Netzwerk mit begrenzter räumlicher Ausdehnung voraus, z. B. ein<br />
LAN. In diesem Falle können die relevanten Informationen zum LLS z. B. im DHCP-Server<br />
abgelegt werden. Bei einer kleinen Anzahl Hosts kann das gesamte Subnetz nach dem LLS<br />
abgesucht werden. Schließlich ist es noch möglich nach einem festen symbolischen Namen zu<br />
fragen, z. B. „LLS.Subnetz.Netz.de“.<br />
Bei der Positioning System Discovery werden die notwendigen Einzelheiten zum LLS z. B. in<br />
den vom Positionierungssystem verwendeten Beacon Frames mit hinterlegt [WIPS00] und<br />
könnten abgefragt werden.<br />
In der Praxis wird zunächst die positioning system discovery verwendet und nur im Misserfolgsfall<br />
zur local und global discovery eskaliert, damit zunächst der LLS, der am nächsten<br />
am Client ist und am meisten über dessen Gebiet weiß, erreicht wird.<br />
Der Client kann an mehrere Positionierungssysteme angeschlossen sein und befragt diese, ob<br />
sie ihm eine Position geben können. Hat er eine oder mehrere Positionsangaben bekommen,<br />
so wählt er eine aus und befragt den LLS, indem er ihm die Positionsdaten übermittelt und<br />
mitteilt, von welchem Positionierungssystem sie kommen.<br />
Diese Information benutzt der LLS, um dem Client die fehlenden physikalischen und semantischen<br />
Informationen zu übermitteln. Hierbei erfolgt ggf. ein Weiterreichen der Anfrage<br />
durch den LLS an andere Server, sofern er für bestimmte Aspekte nicht lokal, d. h. zuständig<br />
ist. Insbesondere werden dem Client auch die assoziierten Server mitgeteilt, die er nach weiteren<br />
semantischen Informationen befragen kann, sofern er alle selbst erreicht (outbound mode).<br />
Sind die Server nicht oder nicht in angemessener Zeit durch den Client erreichbar, kann diese<br />
Kommunikation auch durch den LLS abgewickelt werden, d. h. dieser führt die weiteren Anfragen<br />
durch und reicht die Ergebnisse an den Client heraus (inbound mode). Da dies bei zahlreichen<br />
verbundenen Clients den LLS stark belastet und es aus Datenschutzgesichtspunkten<br />
bedenklich ist, wird der inbound mode nur aktiviert, wenn der outbound mode gescheitert ist.<br />
Wenn ein Location Server neu in Betrieb genommen wird, muss er andere Location Server<br />
suchen. Dies geschieht mit den Discovery Mechanismen, die im vorangegangenen Absatz<br />
beschrieben wurden. Der Server teilt darin zusätzlich mit, welche physikalische Fläche er<br />
abdeckt. Es ist in diesem Zusammenhang leicht, seinen Master oder eine Subdomain zu identifizieren,<br />
dies geschieht über die beschriebene Namenskonvention (intern: dies setzt allerdings<br />
voraus, dass dem, der den Server in Betreib nimmt, die relevante Hierarchie bekannt<br />
ist.). Die Identifikation assoziierter Server geschieht über die Berechnung überlappender Flächen:<br />
Ein Server ist assoziiert, wenn sich die Flächen überlappen und die Überlappung nicht<br />
vollständig durch eine entsprechende Subdomain abgedeckt ist. Darüber hinaus müssen beide<br />
Server entweder verschiedenen Hierarchien angehören, oder keine direkte Relation miteinander<br />
haben.<br />
Nach dem Eintreffen der Antworten auf die Discovery-Prozedur registriert sich der Server bei<br />
den in Frage kommenden anderen Servern, diese Informationen werden in einer lokalen<br />
Datenbank gespeichert.<br />
Dieser Prozess muss ggf. wiederholt werden, wenn ein Server offline gegangen war; außerdem<br />
müssen sich die Server nach einer bestimmten Zeitspanne erneut registrieren, um nicht<br />
aus den Datenbanken gelöscht zu werden.<br />
Für Mobile Domänen, z. B. das Innere eines Zuges, sind einige Besonderheiten zu berücksichtigen:
101 Stephan Drautz<br />
• Die Assoziationen ändern sich rasch (bzw. überhaupt), da die Domäne sich bewegt.<br />
Dieses Problem wird dadurch gelöst, dass die Domäne sich häufig neu registrieren muss.<br />
• Auch die globale Position ändert sich, d. h. die Domäne muss ihre globale Position<br />
ständig kennen, z. B. über einen GPS-Receiver.<br />
Die Anmeldung an einer mobilen Domäne ist unten bei den Datenschutzerwägungen gesondert<br />
zu diskutieren.<br />
2 Sicherheitsrelevante Aspekte im Bezug auf die LSI<br />
Die LSI als Netzwerkstruktur, welche sowohl im LAN-Bereich als auch drahtlos arbeitet,<br />
muss natürlich unterschiedliche Sicherheitsanforderungen erfüllen. Hierbei gilt es prinzipiell,<br />
zwei Themenschwerpunkte zu berücksichtigen. Zum einen wäre dies die Kommunikation im<br />
Backbone-Bereich zwischen den Servern, zum anderen die Kommunikation zwischen Server<br />
und meist drahtlos angebundenen Clients – in Form von Handys, PDAs, Laptops o.ä.<br />
2.1 Kommunikation Server – Server<br />
Hier gibt es zwei Arten von Nachrichten, die zunächst prinzipiell zu unterscheiden sind, nämlich<br />
einerseits die Kommunikation zwischen physischen Servern (*.de) und jene zwischen<br />
diesen und den mit ihnen assoziierten Servern. Dieser Aspekt spielt jedoch nur im Rahmen<br />
der Vertraulichkeit eine Rolle und wird entsprechend dort diskutiert.<br />
2.1.1 Vertraulichkeit<br />
Die zwischen den Servern ausgetauschten Nachrichten sind zunächst öffentlich, d. h. die<br />
Sicherung einer Vertraulichkeit ist auf den ersten Blick nicht erforderlich. Eine Ausnahme<br />
stellt hier die Authentifizierung eines Clients dar, wenn sie über einen zentralen Server erfolgt<br />
und die Anfrage vom LLS des Clients „hochgereicht“ wird [Roth03a], da der Client seinen<br />
Standort in der Regel nicht weiter als durch die Benutzung des Systems unumgänglich<br />
verbreiten will.<br />
Es ist allerdings zu beachten, dass die zwischen den Servern ausgetauschten Nachrichten<br />
besonders bei geringer Auslastung des Systems und feingranulärer Serverstruktur evt. zur<br />
Rekonstruktion eines Bewegungsprofils dienen können. Eine generelle Verschlüsselung<br />
würde dies wirkungsvoll unterbinden, da dann einzelne Abfragen nicht mehr von einem generellen<br />
Datenabgleich zu unterscheiden wären. Je nach Hardwareausstattung und Auslastung<br />
des Systems sollte man von einer generellen Verschlüsselung zu einer Signierung der Nachrichten<br />
umschalten können(s. u.).<br />
2.1.2 Integrität<br />
Die zwischen den Servern ausgetauschten Daten sind gegen unbemerkte Veränderung zu<br />
sichern. Dies kann entweder durch eine digitale Signatur oder durch (Public Key)-Verschlüsselung<br />
der gesamten Nachricht erfolgen.<br />
2.1.3 Identifikation und Authentizität<br />
Die Server, die Nachrichten verschicken, bzw. ein Gebiet übernehmen, dürfen dies nur nach<br />
erfolgter Identifikation und Authentisierung tun. Einen sicheren Schlüsselaustausch vorausgesetzt,<br />
kann auch dieses Problem mit kryptografischen Verfahren gelöst werden.
102 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />
2.1.4 Autorisierung und Zugriffssteuerung<br />
Für jeden Server ist zu definieren, welche Nachrichten er verschicken darf. Insbesondere gilt<br />
dies für Aktualisierungen von semantischen Orten bzw. des abgedeckten physikalischen<br />
Gebiets. Dies setzt eine sichere Identifikation voraus. Die entsprechenden Berechtigungen<br />
sind im Master des Servers zu verwalten.<br />
2.1.5 Nicht-Abstreitbarkeit<br />
Dieser Aspekt könnte in Zusammenhang mit verschickten „falschen“ Informationen von<br />
Bedeutung sein, wenn es z. B. darum geht, einem malignen LSI-Server diese Eigenschaft<br />
nachzuweisen. Insbesondere im Bereich kostenpflichtiger <strong>Dienste</strong> kann auf eine Implementierung<br />
dieser Eigenschaft wahrscheinlich nicht verzichtet werden.<br />
2.1.6 Verfügbarkeit<br />
Hier steht in erster Linier ein Schutz gegen Denial-of-Service-Angriffe zur Diskussion. Da<br />
durch die Identifikation und Autorisierung klar ist, welcher Server mit welchem kommunizieren<br />
darf und es sich hierbei um überschaubare Größenordnungen handelt, ist ein LSI-Server,<br />
der das System durch exzessives Nachrichtenaufkommen blockiert, schnell von der Kommunikation<br />
abzuschneiden. Ein Nicht-LSI-Rechner, der sich als solcher tarnt und einen Angriff<br />
durchführt, könnte sich nicht identifizieren. Allerdings sind hierzu die entsprechenden Pakete<br />
zu überprüfen, so dass im Endeffekt eine Attacke durchschlagen könnte.<br />
2.1.7 Verlässlichkeit<br />
Die Verlässlichkeit des Systems lässt sich durch Backup-Server, „saubere“ Programmierung<br />
und Sicherung der Server vor fremden Servern herstellen.<br />
2.1.8 Beherrschbarkeit<br />
Dieses Thema trägt insofern zum Kapitel bei, als das durch eine übersichtliche klare Strukturierung<br />
der Programme und Definition klarer Abläufe dazu beigetragen werden kann, Fehlern,<br />
welche durch die Bedienung entstehen, vorzubeugen.<br />
2.2 Kommunikation Server – Client<br />
2.2.1 Vertraulichkeit<br />
Nach den Zielen, die für den Entwurf der LSI definiert wurden, soll es teuer sein, Bewegungsprofile<br />
von Benutzern zu erstellen. Dies soll für die Betreiber und erst recht für nicht<br />
beteiligte Dritte gelten. Damit ist die Vertraulichkeit der Client-Server-Kommunikation<br />
sicherzustellen, sie kann durch kryptografische Verfahren erreicht werden, problematisch ist<br />
hier die z. T. geringe Rechenkapazität der Clients.<br />
2.2.2 Integrität<br />
Die Integrität der zwischen Client und Server ausgetauschten Nachrichten ist zu sichern. Dies<br />
ist aber bei Verwendung geeigneter Verfahren schon durch die im vorigen Kapitel aufgestellte
103 Stephan Drautz<br />
Vertraulichkeitsforderung abgedeckt, d. h. die Verschlüsselungsverfahren dienen beiden<br />
Anforderungen.<br />
2.2.3 Identifikation und Authentizität<br />
Die Frage nach Identifikation und Authentizität hängt davon ab, ob die Infrastruktur auf der<br />
Ebene eines Forschungsprojekts betrieben wird oder ob. z. B. für den Service Rechnungen<br />
gestellt werden sollen. Im Sinne des Datenschutzes wäre es am Besten, man käme ohne Identifikation<br />
aus (s. o.). Dies ist jedoch nur möglich, wenn die LSI als kostenloser Dienst oder für<br />
einen Pauschalpreis betrieben wird. Auch die Verhinderung von Denial of Service Attacken<br />
kann eine Identifikation unumgänglich machen.<br />
2.2.4 Autorisierung und Zugriffssteuerung<br />
Die Autorisierung für die LSI ist dadurch abgedeckt, dass ein Client sich am System anmelden<br />
kann. Es ist also ggf. zu prüfen ob er einen gültigen Account hat. Er erhält dann sein physikalische<br />
Position und alle semantischen Positionen, die sich ermitteln lassen. Eventuell ist<br />
die Liste der semantischen Domänen für einen Benutzer beschränkt (weil er nicht alle abonniert<br />
hat), dann ist der Informationsfluss entsprechend einzuschränken. Weiterer Zugriff ist<br />
nicht erforderlich und auch nicht implementiert. Es ist zu prüfen, ob ein Client sich weitergehenden<br />
Zugriff verschaffen kann, z. B. durch eine Buffer-overflow-Attacke usw. (Diese spezielle<br />
Attacke nicht, da es in Java geschrieben ist.)<br />
2.2.5 Nicht-Abstreitbarkeit<br />
Für den Fall, dass nach Verbindung oder nach in Anspruch genommenem Service abgerechnet<br />
werden soll oder ein Dritter (Pizzadienst) nach Anzahl der vermittelten Kunden bezahlten<br />
muss, ist eine Nicht-Abstreitbarkeit sicherzustellen. In den übrigen Fällen kann auf diesen<br />
Overhead verzichtet werden.<br />
2.2.6 Verfügbarkeit<br />
Auch in diesem Fall sind in erster Linie Denial of Service-Angriffe abzuwehren. Wegen der<br />
begrenzten Rechen- und Kommunikationskapazität der Clients ist hier wohl in erster Linie an<br />
DDoS-Angriffe zu denken. Diesen kann z. B. durch Identifikationsmechanismen und Begrenzung<br />
der Anzahl der Positionsabfragen pro Client und Zeit begegnet werden. Die einzelnen<br />
Mechanismen werden unten näher diskutiert.<br />
2.2.7 Verlässlichkeit<br />
Für den Endanwender ist ein verlässlicher Dienst wichtig, um den Nutzen und damit auch die<br />
Akzeptanz zu erhöhen. Hierunter fällt wie auch schon bei der Serverkommunikation<br />
beschrieben eine „saubere“ Programmierung, um Programmabstürze zu vermeiden. Hierzu<br />
müssen beispielsweise Fehler abgefangen und möglichst korrigiert werden.<br />
2.2.8 Beherrschbarkeit<br />
Auch die Beherrschbarkeit ist für den Anwender ein wichtiger Faktor im Bezug auf die<br />
Sicherheit, wie es aktuelle Beispiele von Betriebssystemen oder Anwenderprogrammen (z.B.<br />
Windows) zeigen. Durch Komplexität und schlechte Strukturierung kann es schnell zu Konfigurationsfehlern<br />
und damit verbunden dann zu Sicherheitslücken in den Systemen kommen.
104 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />
3 Bedrohungsanalyse<br />
Schneier schlägt vor, bei der Bedrohungsanalyse zunächst die möglichen Angriffsziele zu<br />
identifizieren und dann zu untersuchen, wie diese Ziele unter Umständen zu erreichen sind.<br />
[Schn01].<br />
3.1 Betreiben eines malignen LSI-Servers<br />
• Hier handelt es sich um das Betreiben eines Servers, der keine oder falsche Informationen<br />
übermittelt, oder Nachrichten nicht korrekt weiterleitet.<br />
•<br />
3.2 Unbefugtes Betreiben eines LSI-Servers<br />
• Da alle Details der LSI öffentlich sind und das Netzwerk selbstorganisierend ist, ist es<br />
möglich einen Server zu betreiben, der sich einfach ins Netz einklinkt, ohne das er<br />
„angemeldet“ ist, falls eine Anmeldung erforderlich ist.<br />
3.3 Nachträgliche Modifikation von Serverdaten<br />
• Jemand könnte sich nachträglich Zugriff auf Serverdaten verschaffen und diese verändern.<br />
Hier handelt es sich um das Problem der physischen und logischen Absicherung der<br />
Serverdaten. Bei Erfolg mündet diese Attacke in das Betreiben eines malignen Servers.<br />
•<br />
3.4 Denial of Service Attacken<br />
• Bei von Clients ausgehenden Denial of Service-Attacken wird ein LLS durch einen Strom<br />
von korrekten oder inkorrekten Anfragen so ausgelastet, dass der Dienst für legitime<br />
Benutzer nicht mehr zur Verfügung steht.<br />
• Es ist auch möglich, von einem LSI-Server eine Denial of Service-Attacke zu starten,<br />
indem zahlreiche Anfragen gestellt werden, hinter denen keine echten Clients stehen. Hier<br />
ist ggf. die Abgrenzung gegen legitime Anfragen schwierig. Diese Attacke setzt voraus,<br />
dass zuvor die LSI-Software unautorisiert modifiziert wurde.<br />
• Schließlich kann ein Rechner, der nicht in der LSI eingegliedert ist, eine Attacke starten,<br />
indem er den Rechner mit normaler oder fehlerhafte TCP/IP-Kommunikation<br />
überschwemmt<br />
•<br />
3.5 Erstellung von Bewegungsprofilen<br />
• Jemand, der Zugriff auf einen LSI-Server hat, könnte die Daten nutzen um von Clients<br />
Bewegungsprofile zu erstellen, was einen erheblichen Eingriff in die Datenschutzrechte<br />
der Benutzer darstellen würde.<br />
•<br />
3.6 Betreiben eines LSI-Servers mit unautorisiert veränderten Programmteilen<br />
• Wenn es möglich ist, die LSI-Software nachträglich zu verändern, ohne dass die<br />
Funktionalität beeinträchtigt ist, können zahlreiche die Sicherheit gefährdende<br />
Änderungen vorgenommen werden. So wäre es z. B. möglich, die Positionsanfragen zu<br />
speichern, um nachträglich Bewegungsprofile zu erstellen, künstliche Positionsanfragen<br />
für Denial of Service Attacken zu benutzen oder um den gesamten Datenbestand eines<br />
assoziierten Servers abzufragen.
105 Stephan Drautz<br />
•<br />
3.7 Benutzung eines fremden LSI-Accounts<br />
• Sollte die Benutzung von LSI kostenpflichtig erfolgen und pro Anfrage abgerechnet<br />
werden, kann die Benutzung eines fremden Accounts für dessen Eigentümer zu nicht<br />
unbeträchtlichem finanziellem Schaden führen.<br />
•<br />
3.8 Erzeugen falscher LSI-Nachrichten<br />
• Diese Attacke kann als Folge des eben diskutierten Punktes „Server mit unautorisiert<br />
veränderten Programmteilen“ erfolgen oder die Nachrichten können von anderen<br />
Programmen erzeugt werden. Sie können zu Denial of Service Attacken oder zum<br />
Erlangen anderer Informationen verwendet werden.<br />
•<br />
3.9 Mithören der LSI-Nachrichten<br />
• Diese Attacke kann genutzt werden, um entweder in den Genuss von LSI-Informationen<br />
zu gelangen, obwohl man den Dienst nicht lizenziert hat oder um z. B. persönliche<br />
Informationen eines Nutzers zu bekommen.<br />
•<br />
3.10 Unbefugter Zugriff auf persönliche Daten<br />
• Dies kann entweder auf einem Kontenserver oder im Verlauf der Nutzung des <strong>Dienste</strong>s<br />
durch abhören erfolgen. Es ist aus datenschutzrechtlichen Gründen zu unterbinden.<br />
•<br />
3.11 Nichtautorisierte Nutzung kostenpflichtiger <strong>Dienste</strong><br />
• Wenn <strong>Dienste</strong> kostenpflichtig angeboten werden sollen, erfordert es dieses Lizenzmodell,<br />
dass die unautorisierte Nutzung nach Möglichkeit teurer sein sollte als das Lizenzieren des<br />
<strong>Dienste</strong>s, da sonst kein Anreiz besteht, den Service zu kaufen<br />
•<br />
3.12 Nutzung der LSI-Client-Software mit unautorisiert veränderten Programmteilen<br />
• Hier besteht einerseits die Gefahr der Nutzung nichtautorisierter <strong>Dienste</strong>, andererseits die<br />
der Denial of Service Attacke durch Umgehen eingebauter Sicherungen, z. B. eine<br />
Zeitsperre nach erfolgter Abfrage.<br />
•<br />
3.13 Kryptografische Attacken<br />
• Wie eine unbefugte Person – in diesem Kapitel als Charly, oft auch als großer Bruder<br />
Mallory bezeichnet - an die Daten kommt, wird nicht behandelt. Denkbar ist der Einsatz<br />
von Sniffer-Programmen oder die Manipulation von Routern o.ä., damit die Daten<br />
automatisch empfangen werden können. Wichtig ist nun zu untersuchen, welche<br />
Möglichkeiten bestehen, diese in unserem Fall verschlüsselten Daten wieder lesbar zu<br />
machen. In [Schm98] werden hierzu Möglichkeiten aufgezeigt, welche über das simple<br />
Ausprobieren hinausgehen. Oft wird vorausgesetzt, dass der Angreifer sowohl Daten als<br />
auch das verschlüsselte Verfahren, nicht jedoch den Schlüssel kennt. Wie er wiederum an
106 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />
Information über das verwendete Verschlüsselungsverfahren gelangt ist, kann vielfältige<br />
Möglichkeiten haben und wird hier nicht weiter beschrieben. Die kryptografischen<br />
Attacken können auf zwei Arten strukturiert werden.<br />
•<br />
3.13.1 Strukturierung nach Angriffsarten<br />
Cipher Text Only – Angriff<br />
In diesem Fall ist dem Angreifer weder das verwendete Verfahren, noch der benutzte Schlüssel bekannt. Dies ist der in der<br />
Praxis am häufigsten auftretende Fall und zugleich für den Angreifer der schwierigste, da ihm zwar chiffrierte Daten zur<br />
Verfügung stehen, aber keine Hinweise auf die verwendeten Methoden. Eine genaue Vorgehensweise für diesen Fall gibt es<br />
nicht, im schlimmsten Fall muss der im nächsten Abschnitt beschriebene Brute Force-Angriff durchgeführt werden.<br />
Known Plaintext – Angriff<br />
Bei diesem Verfahren ist es dem Angreifer bereits gelungen, sowohl einen chiffrierten Text als auch dessen<br />
Klartextdarstellung zu erhalten. Um weitere Texte entschlüsseln zu können, versucht er nun anhand dieser beiden<br />
vorhandenen Texte den zugehörigen Schlüssel zu identifizieren. Dieses Verfahren kann angewendet werden, wenn Teile von<br />
Nachrichten sich immer wiederholen, d.h. z.B. der Kopf einer E-Mail ist immer der gleiche.<br />
Chosen Plaintext – Angriff<br />
Hierbei besteht für den Angreifer die Möglichkeit, den Klartext selber zur Verschlüsselung zur Verfügung zu stellen. Anhand<br />
des Ergebnisses versucht er dann wiederum, den Schlüssel zu identifizieren. Dieses Verfahren kann beispielsweise<br />
angewandt werden, um Unix-Passwörter zu identifizieren. Steht dem Angreifer die passwd-Datei des Ziel-Rechners zur<br />
Verfügung, so kann er darin die verschlüsselten Passwörter sehen. Dadurch, dass nun viele Wörter über die<br />
Passwortverschlüsselung laufen gelassen und die Ergebnisse mit dem Wert aus der passwd-Datei verglichen werden, ist es<br />
möglich, die eigentlichen Passwörter zu identifizieren.<br />
o<br />
3.13.2 Strukturierung nach Angriffsmethoden<br />
Brute Force – Angriff<br />
Dieser Angriff zeichnet sich dadurch aus, dass nicht besondere Taktiken zur Schlüsselfindung<br />
eingesetzt werden, sondern dass sich der Angreifer auf die Ressourcen verlässt, die ihm zur<br />
Dechiffrierung bzw. zum Code-Knacken zur Verfügung stehen. Ein zur Verfügung stehender<br />
chiffrierter Text wird im einfachsten Fall so lange analysiert, bis er ein brauchbares Ergebnis<br />
liefert. Hierbei kommt es nicht auf eine bestimmte Reihenfolge der Analyse, sondern auf<br />
einen hohen Datendurchsatz an.<br />
Man in the middle<br />
Bei dieser für Public Key-Verfahren genutzten Methode gelingt es dem Angreifer, seinen<br />
Public Key anstelle des eigenen zu übergeben. Werden hiermit nun Nachrichten verschlüsselt,<br />
so kann er sie mit seinem eigenen Private Key wieder entschlüsseln. Da der Angreifer hierbei<br />
zwischen Sender und Empfänger sitzt, wird diese Methode als Man in the Middle bezeichnet.<br />
Eine Möglichkeit, dieses Problem zu vermeiden, besteht darin, Zertifikate anstelle des Public<br />
Key zur Verfügung zu stellen<br />
Denial of Service Angriff<br />
Dieses Verfahren passt auf den ersten Blick nicht in das Kapitel. Gelingt es dem Angreifer<br />
namens Charly jedoch, die Kommunikation zwischen den beiden Partner Alice und Bob zu<br />
behindern und den Verdacht zu erwecken, es liegt am verwendeten kryptografischen Verfahren,<br />
so besteht die Möglichkeit, dass Alice und Bob aus Bequemlichkeit auf die Verschlüsselung<br />
verzichten und die Daten lieber unverschlüsselt versenden, wodurch für Charly dann<br />
natürlich das Ziel erreicht ist.<br />
Verkehrsflussanalyse<br />
Hier geht es Charly als Angreifer zunächst nicht darum, die Daten zu entschlüsseln, sondern<br />
wie häufig oder wann Daten zwischen Kommunikationspartnern ausgetauscht werden. Hieraus<br />
können dann (z.B. in der Wirtschaft) Rückschlüsse auf Kontakte oder Verhalten gezogen<br />
werden.<br />
Replay-Attacke<br />
Charly kann – wenn er eine Nachricht abgefangen hat – diese einfach zu einem späteren Zeitpunkt<br />
erneut versenden. Hierdurch wird dann im besten Fall nur ein erhöhter Verwaltungs-
107 Stephan Drautz<br />
aufwand verursacht. Dieses Problem lässt sich dadurch beheben, dass bei jeder Nachricht einfach<br />
Datum und Uhrzeit mit versendet werden.<br />
4 Sicherheitsstrategien<br />
Um obigen Bedrohungen wirkungsvoll entgegenzutreten, können unterschiedliche Strategien<br />
zum Einsatz kommen.<br />
4.1 Autorisierung der Serveranmeldung<br />
• Um zu vermeiden, dass nichtautorisierte Server – aus welchen Gründen auch immer –<br />
ihren Dienst aufnehmen können, bietet es sich an, eine zentrale Autorisierungs-/ bzw.<br />
Zertifizierungsstelle einzuführen, ohne deren Zustimmung eine Anmeldung an die<br />
bestehende Netzwerkinfrastruktur abgelehnt wird. Hierzu kann etwa eine Zertifizierung –<br />
bestehend aus Public Key, Private Key sowie einer Bestätigung der Zertifzierungsstelle,<br />
dass diese Schlüssel auch echt sind – dienen. Trivialerweise muss hiermit beim<br />
Verbindungsaufbau nur eine Public Key-Verschlüsselung angefordert werden, wobei der<br />
angesprochene Server den benötigten Public Key über die Zertifizierungsstelle, und nicht<br />
über den anfordernden Server beziehen muss. Liegt dort der Schlüssel nicht vor und somit<br />
auch keine Autorisierung, wird die Verbindung abgebrochen.<br />
•<br />
4.2 Vermeidung von Versenden falscher Ortsinformationen<br />
• Um die Übertragung falscher Ortsinformationen zu vermeiden, muss nicht nur der Server,<br />
sondern auch seine Anmeldedaten zertifiziert werden. Dies kann etwa dadurch geschehen,<br />
dass die Server, die ihre Anmeldeinformationen aus XML-Dateien einlesen, dies nur mit<br />
signierten Daten tun dürfen. Die Signatur kann dann zusammen mit der Autorisierung des<br />
Servers übertragen werden.<br />
4.3 Sicherung der Datenübertragung<br />
• Die Sicherung der Datenübertragung kann an verschiedenen Stellen zum Einsatz<br />
kommen.<br />
• Auf Ebene der Kommunikation wäre dies zum einen selbige zwischen den Servern selbst<br />
(Serverkommunikation) und derjenigen zwischen Server und Client. Hier muss dann<br />
abgewägt werden, wie groß ein potentieller Schaden sein kann und wie viele Ressourcen –<br />
z.B. zur Verschlüsselung – zur Verfügung stehen. Hier ist vor allem die Server-Client-<br />
Kommunikation zu berücksichtigen, da ja auf Client-Seite leistungsschwache Geräte wie<br />
PDAs zum Einsatz kommen können, und die Akzeptanz des Systems zwar zum Einen von<br />
der Sicherheit, zum Anderen aber natürlich auch von der Geschwindigkeit des Netzwerks<br />
abhängig ist.<br />
• Auf Ebene der Sicherheitsimplementierung ist es zum einen möglich, Hardware zur<br />
Verfügung zu stellen, welche etwa die Ver- und Entschlüsselung durchführt. Dies ist<br />
wegen des Aufwands und der damit verbundenen Kosten höchstens auf Seite der Server-<br />
Server-Kommunikation denkbar, aber auch hier dürfte wegen der heutigen<br />
Leistungsfähigkeit der Systeme der Einsatz zusätzlicher Hardware in den meisten Fällen<br />
überflüssig sein. Denkbar ist der Einsatz zum Beispiel zur Identifizierung durch SIM-<br />
Karte oder SD-Karte. Auf Client-Seite dürfte sich ein solcher Aufwand erst ab einer<br />
gewissen Stufe von Kosten und potentiellem Schaden rechnen.<br />
• Zum anderen besteht die Möglichkeit, Software zur Sicherung der Daten, der<br />
Kommunikation und zur Identifikation zu Nutzen. Hier ist etwa an den Einsatz gesicherter
108 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />
Datenübertragung mittels IPSec (über TCP/IP) und die Verwendung von Zertifizierung<br />
zur Verschlüsselung und Identifizierung zu denken.<br />
•<br />
4.4 Verhinderung von Bewegungsprofilen<br />
• Bewegungsprofile stellen zum einen aus datenschutzrechtlichen Gründen und zum<br />
anderen aus Akzeptanzgründen der User ein Problem dar. User sind im Normalfall auf<br />
ihre Anonymität bedacht. Bietet ein prinzipiell abgeschlossenes System wie die LSI die<br />
Möglichkeit, Informationen über die User zu sammeln, so würde dies vermutlich die<br />
Nachfrage stark abfallen lassen. Analysen sind hier zum Beispiel in der Form denkbar,<br />
dass sich die Position des Benutzers und somit auch sein Local Location Server ändert,<br />
anhand dessen man eine Bewegung des Anwenders nachvollziehen kann oder in der<br />
Auswertung von Informationen, welche er über die LSI angefordert hat.<br />
• Da die LSI unterschiedliche Methoden der Anfrageverarbeitung anbietet, stellen sich<br />
diese Probleme nur in bestimmten Situationen.<br />
• In einem Fall leitet der Local Location Server alle relevanten Daten (potentielle<br />
Zielserver, welche über Relationen und Assoziationen in Betracht kommen) automatisch<br />
an den Client weiter (Outbound Mode). Die weitere Nutzung dieser Informationen bleibt<br />
dann dem Client überlassen und eine Analyse wird stark erschwert.<br />
• Im anderen Fall erfolgt die Anfrageverarbeitung und Suche durch die Serverstruktur durch<br />
den Local Location Server (Inbound Mode), was die Erstellung von Bewegungsprofilen<br />
erleichtert.<br />
• In diesem und prinzipiell auch im ersten Fall bietet sich der Einsatz von Anfragtickets an.<br />
Hierbei wird für eine Kommunikationsanfrage von einem zum nächsten Server jeweils ein<br />
separates Ticket erstellt, anhand dessen dann die Anfragen durchgereicht und<br />
zurückgegeben werden. Da dieses Ticket auf jeder Zwischenstation neu erstellt wird, ist<br />
hier eine Analyse der Daten wesentlich schwieriger.<br />
5 Fazit<br />
Sicherheit und Datenschutz müssen schon beim Entwurf des Systems berücksichtigt werden,<br />
da man sich bei einem nachträglichen Einbau meist großen oder sogar unüberbrückbaren<br />
Problemen gegenübersieht. Im konkreten Fall bedeutet dies, dass für das System Sicherheitsziele<br />
zu definieren sind, welche in der Implementierungsphase konsequent berücksichtigt<br />
werden müssen. Darüber hinaus sollte man sich in die Rolle eines Angreifers versetzen, um<br />
die möglichen Schwachstellen zu identifizieren und möglichst bereits im Vorfeld zu unterbinden.<br />
Bei Verwirklichung einer konkreten Sicherheitsstrategie legt man sich darüber Rechenschaft<br />
ab, welche der genannten Ziele und Schwachstellen mit dem Softwareentwurf berücksichtigt<br />
wurden beziehungsweise ggf. später noch zu berücksichtigen sind und ob das Ziel,<br />
einen Angriff zumindest teurer zu machen als den Wert der zu sichernden Daten dargestellt<br />
wird.<br />
Für den Bereich der mobilen Datenübertragung muss darüber hinaus noch berücksichtigt<br />
werden, dass hier zu den im EDV-Bereich bisher standardmäßig schon auftretenden Problemen<br />
der Sicherheit noch neue Gefahren hinzukommen, da über die Luftschnittstelle keine<br />
direkte Anbindung mehr vorhanden sein muss, um Spionage oder Manipulation zu ermöglichen.
109 Stephan Drautz<br />
Referenzen<br />
[Prad00] Pradhan, S. Semantic Locations, Personal Technologies, Vol. 4, No. 4, 2000,<br />
213-216<br />
[Roth03]<br />
[Roth03a]<br />
Roth, J.: A Self-Organizing Infrastructure to Provide Uniform Location Data to<br />
Location Based Services<br />
Konzeption und Implementierung von Sicherheitsmechanismen für die<br />
Location Server Infrastructure Internes Papier der FernUniversität Hagen,<br />
Praktische Informatik II<br />
[Schm98] Schmeh, K.: Safer net, dpunkt.verlag (1998), ISBN 3-932588-23-1, S.72<br />
[Schn01]<br />
[WIPS00]<br />
Schneier, B.: Secrets and Lies – IT Sicherheit in einer vernetzten Welt, Wiley<br />
VCH-Verlag, Weinheim, 2001<br />
WIPS Technical Documentation, Royal Institute of Technology, Schweden<br />
http://2g1319.ssvl.kth.se/2000/group12/technical.html
Geographische Adressierung in Computernetzen<br />
Eine Taxonomie<br />
Adalbert Spakowski<br />
Friedenstr. 13<br />
63743 Aschaffenburg<br />
Adalbert.Spakowski@Fernuni-Hagen.de<br />
Zusammenfassung: Die geographische Adressierung ermöglicht den Nachrichtenaustausch<br />
zwischen Applikationen basierend auf dem physikalischen Ort der Netzwerkpräsenzen<br />
und nicht der logischen Netzwerkadresse. Hierzu existieren mehrere Ansätze, die<br />
sich in ihren administrativen Ansätzen unterschieden. Bei allen diesen Ansätzen ist es<br />
möglich gezielt Entitäten in definierten Regionen anzusprechen, diese zu „entdecken“<br />
oder bidirektionale Kommunikation zwischen diesen zu ermöglichen.<br />
1 Einleitung<br />
1.1 Szenarien der geographischen Adressierung<br />
Die geographische Adressierung in Computernetzen verbindet die physikalische Lokation der<br />
Clients und ihre logische Adressierung innerhalb eines Netzwerkverbunds. Durch das Vorhandensein<br />
der Information über die Lage einer Entität im Netzwerk sind Systeme in der Lage<br />
hier spezifische <strong>Dienste</strong> anzubieten. Diese Information kann im Freien über GPS Empfänger<br />
ermittelt werden. In Gebäuden können hier andere Positionierungssysteme zum Zuge kommen.<br />
Navas und Imielinski [NaI99] stellen hier folgende Szenarien vor:<br />
• Geographic Messaging: Eine Nachricht wird nur an Entitäten in bestimmten geographischen<br />
Lokationen verschickt. So können zum Beispiel Fahrzeuge auf einer bestimmten<br />
Autobahn über einen Verkehrsunfall im davor liegenden Tunnel informiert werden.<br />
• Geographic Advertising and Geographic Services: Es wird eine Werbung / ein Service in<br />
einem räumlichen Umfeld relativ zum Server angeboten. Alle Clients die sich innerhalb<br />
dieser Lokation befinden werden hier automatisch informiert. Möglich wäre hier zum Beispiel<br />
das Anbieten von Angaben zu einem Denkmal. So können Benutzer, die über einen<br />
entsprechenden mobilen Client verfügen während eines Stadtrundgangs informiert werden.<br />
• „Who is around“ Service: Es findet eine proaktive Suche nach Entitäten, die sich innerhalb<br />
einer definierten Lokation befinden. Ein Beispiel wäre hier die Suche nach verletzten<br />
Soldaten innerhalb eines Kriegsgebiets<br />
1.2 Aufbaumöglichkeiten des Netzwerks<br />
Zuerst muss unterschieden werden, ob es sich bei dem zu betrachteten Computernetz um ein<br />
homogenes Netz handelt, indem alle Entitäten die gleiche Technologie nutzen, oder ob es eine
112 Geographische Adressierung in Computernetzen<br />
Koexistenz von mehreren Technologien mit einem darüber liegenden einheitlichen Protokoll<br />
handelt.<br />
Möchte man einen universellen Ansatz wählen, betrachtet man hierbei das Internet mit seinen<br />
vielen Service Providern und zum Einsatz kommenden Technologien. Als das einheitliche<br />
Protokoll wird hier TCP/IP genutzt, da es von den Clients durchgehend als die „lingua franca“<br />
angesehen wird.<br />
Im folgenden wird eine Unterscheidung zwischen zentral verwalteten Netzwerken mit einem<br />
bestehenden Backbone und dezentralen Netzwerken auf Peer to Peer (P2P) Basis unterschieden<br />
werden.<br />
Einen zentralen Ansatz mit zusätzlichen technologischen Voraussetzungen beschreiben Navas<br />
und Imielinski [NaI99]. Einen P2P Ansatz findet man bei Heutelbeck [Heu02]<br />
2 Adressierungsmodell<br />
Die momentane Position des Clients wird mit Hilfe des GPS bestimmt. Diese Position dient<br />
im folgenden zur Adressierung. Die Koordinaten des Clients werden bei diesem Ansatz über<br />
ein Zweiertupel verwaltet, wobei der Breitengrad von –90° (Süd)<br />
bis 90° (Nord) und die Längengrad von –180° (West) bis 180° (Ost) als Wert annehmen kann.<br />
Benutzt man zur Darstellung der Koordinaten Fließkommazahlen mit 4 Byte Länge, lassen<br />
sich so mit einer Adressierungsgröße von 8 Byte eine präzise Adressierung des Ziels von bis<br />
zu 200 Meter erreichen. Wählt man genauere Zahlen (z.B. double floats mit 8 Byte Länge)<br />
können hier im Zusammenspiel mit einer entsprechend präzisen GPS-Auflösung erheblich<br />
genauere Eingrenzungen der Adressierung möglich sein.<br />
Mit Hilfe dieser Tupel lassen sich nun geometrische Objekte wie<br />
• Punkte<br />
• Kreise (Mittelpunkt, Radius)<br />
• beliebige Polygone (Punkt(1), Punkt (2), ... , Punkt(n),Punkt(1))<br />
adressieren .<br />
3 GEOcast – ein zentral administrierbarer Ansatz<br />
Im [NaI96] stellen Imielski und Navas drei Lösungsansätze zur geographischen Adressierung<br />
von Nachrichten, wobei der dritte Ansatz lediglich skizziert wird:<br />
• Unicast IP Routing, erweitert um GPS Adressierung<br />
• GPS-Multicasting<br />
• Lösung in der Anwendungsschicht mit Hilfe von DNS<br />
Imielski und Navas stellen weiterhin eine Implemetierung des Unicast IP Routing Ansatz<br />
vor([NaI97]), und nicht wie man aus [NaI96] erwarten würde den GPS Multitasking Ansatz,<br />
da durch die Anzahl der verschiedenen Multicastprotokolle nicht klar ist, welches Protokoll in<br />
Zukunft dominieren wird, und ob dieses auch die Aspekte des Mobile Computing abdeckt.<br />
Das System besteht aus drei Komponenten, den GeoHost, den GeoNodes und den<br />
GeoRouters.
113 Adalbert Spakowski<br />
Abbildung 1: Komponenten des Geographic Routing System [NaI97, Kap. 4.1]<br />
GeoRouter sind für den Transport der Pakete über das Internet zuständig. Sie müssen in der<br />
Lage sein, ihre benachbarten und übergeordneten Router zu kennen, und diese Informationen<br />
in ihren Routing Tabellen zu pflegen. Ebenso müssen sie ihre untergeordneten Router und<br />
GeoNodes kennen. Eine weitere Eigenschaft der Router ist auch das Tunneln der Pakete über<br />
Teile des Internets, die das GeoCast Netzwerk nicht unterstützen.<br />
GeoNodes dienen als Gateways einer Lokation in das geroutete GeoCast Netzwerk. Eine<br />
GeoNode sollte einen Automatismus zum Erkennen von neuen GeoHosts innerhalb ihres Zuständigkeitsbereichs<br />
haben und muss Nachrichten, je nach ihrer Gültigkeitsdauer, zwischenspeichern<br />
können.<br />
Der GeoHost ist ein Daemon auf dem Endgerät. Er muss den Kontakt zum zuständigen Geo-<br />
Node aufbauen und ist für die Verwaltung der geographischen Lokation des entsprechenden<br />
Computers zuständig, wie für die Bereitstellung der GeoCast Funktionalität für andere Prozesse<br />
auf der jeweiligen Maschine.<br />
3.1.1 Routing innerhalb von GeoCast Netzwerken<br />
Senden von GeoCast Nachrichten<br />
Zum Verschicken der Nachrichten erfragt der GeoHost Daemen die IP Adresse des<br />
GeoNodes. Anschließend schickt der GeoHost die Nachricht direkt an den GeoNode, und<br />
dieser dann wiederrum an den zuständigen GeoRouter.<br />
Routing von GeoCast Nachrichten<br />
Der GeoRouter empfängt die Nachricht. Zuerst untersucht er, ob sein Einzugsbereich R Teile<br />
des Zielpolygons Z der Nachricht enthält.<br />
S = R ∩ Z<br />
Ergibt sich hier eine Schnittpolygon S, so versorgt der Router den betroffenen Bereich.<br />
Der Algorithmus zur Ermittlung der Schnittmenge der beiden Polygone liefert als „Abfallprodukt“<br />
das Polygon W (W =Z / R), welches nicht im Einzugsbereich des Routers enthalten ist.<br />
Das Polygon W wird als neue Zieladresse der Nachricht an den übergeordneten Router zum<br />
Weiterleiten geschickt.
114 Geographische Adressierung in Computernetzen<br />
Anschließend berechnet der Router die Schnittpolygone S’ der untergeordneten GeoRouter<br />
und GeoNodes zu dem Zielpolygon S. Die untergeordneten Objekte erhalten die Nachricht<br />
mit den jeweiligen Zielen S’.<br />
Zusätzlich baut der Router einen Nachrichtencache auf. Dieser ermittelt auf Basis der Nachrichten<br />
ID, ob bereits Pakete an ein bestimmtes Polygon geschickt wurden. Sollte dies der Fall<br />
sein, wird keine erneute Schnittermittlung durchgeführt, sondern das Paket, analog seinen<br />
Vorgängern, an die betroffenen Ziele geroutet.<br />
Empfangen von GeoCast Nachrichten<br />
Nachdem der GeoNode die Nachricht von seinem GeoRouter zugestellt bekommt, speichert<br />
der Node sie in seinem GeoNode Cache ab und weist diese Nachricht einer passenden Multicast<br />
Gruppe zu. Der GeoNode sendet dann die Nachricht periodisch den betroffenen an die<br />
entsprechenden GeoHosts.<br />
Die GeoHosts ermitteln daraufhin, ob sie sich innerhalb des adressierten Polygons befinden.<br />
GeoHosts können auch proaktiv mit Hilfe der RECVFROMGEO – Prozedur aus der<br />
Geographic Library sich einer Multicast Gruppe anschießen und entsprechende Nachrichten<br />
empfangen.<br />
3.1.2 Format eines GeoCast Message Headers<br />
Ein Header einer GeoCast Nachricht hat das folgende Format:<br />
Nachrichten ID (9 Bytes)<br />
Port Nummer (2 Bytes)<br />
Lebenserwartung(4 Bytes)<br />
Flags(1 byte)<br />
Area Type (1byte)<br />
Gefolgt von weiteren Informationen, basierend auf den Area Type(Punkt / Kreis / Polygon)<br />
Bei einem Punkt wird zusätzlich die geographische Lokation angegeben:<br />
Type = 1<br />
Breitengrad (8 Bytes)<br />
Längengrad (8 Bytes)<br />
Bei einem Kreis kommt der Radius noch hinzu:<br />
Type = 2<br />
Breitengrad (8 Bytes)<br />
Längengrad (8 Bytes)<br />
Radius (8 Bytes)<br />
Bei einem Polygon wird zuerst die Anzahl der Punkte angegeben. Die Implementierung von<br />
Imielski und Navas lassen hierbei Polygone mit bis zu 65535 Punkten zu:<br />
Type = 3<br />
Breitengrad (8 Bytes)<br />
Längengrad (8 Bytes)<br />
Radius (8 Bytes)<br />
Im Folgenden ist ein Header einer Nachricht an einen bestimmten Punkt exemplarisch dargestellt:
115 Adalbert Spakowski<br />
Abbildung 2: Nachrichten Header mit einer Punkt Zielkoordinate [NaI97, Kap. 5.1)<br />
3.1.3 Aufbau der Routing Tabelle<br />
Der Kern des Routing im GeoCast Netzwerk sind selbstverständlich die Routing Tabellen der<br />
einzelnen GeoRouters. Im folgenden wird der Aufbau dieser erklärt.<br />
Der Cache<br />
Der Cache ist für das schnelle Wiederverwenden von Routing Informationen zuständig. Untersuchungen<br />
haben ergeben, dass im Vergleich zum ersten, nicht zwischengespeicherten Paket<br />
ein Cache die Routing – Zeiten der drauffolgenden und bereits gecachten Pakete reduziert,<br />
und zwar auf ca. 2-3 % der Zeit bei Polygonen und Kreisen und auf ca. 24 % der Zeit bei<br />
Punkten.<br />
Ein Cache Eintrag ist dabei ein Tupel der Form:<br />
<br />
Die Nachrichten ID, welche dem ersten Paket entnommen wird dient hierbei als Schlüssel der<br />
Tabelle. Auf den ersten Blick wäre es sinnvoll das Zielpolygon als Schlüssel zu nehmen.<br />
Hierzu konnten aber bisher keine klaren Implementierungsvorschläge gemacht, die mit der<br />
variablen Strukturlänge umgehen können.<br />
Die Liste der nächsten Ziele enthält die Adressen der GeoRouter und GeoNodes, die das erste<br />
Paket empfangen haben. An diese wird dann die Nachricht geschickt.<br />
Der Zeitstempel dient zum Entfernen von alten Einträgen aus dem Cache. Bei jedem Zugriff<br />
auf einen Eintrag wird der Zeitstempel aufgefrischt. Innerhalb von bestimmten Zeitintervallen<br />
wird der Cache auf alte Einträge überprüft und bereinigt.
116 Geographische Adressierung in Computernetzen<br />
Service Area<br />
Die Service Area beschreibt das Zuständigkeitsgebiet des Routers und umfasst eine Konvexe<br />
Hülle aller Polygone, welche die untergeordneten GeoRouter und GeoNodes bedienen. Da es<br />
bei einer Vereinigung der Polygone zu „Löchern“ innerhalb der Struktur kommen kann und<br />
der Polygonschnittalgorithmus von einzelnen konvexen Polygonen ausgeht, wird hier nicht<br />
die Vereinigung der einzelnen Polygone, sondern die Konvexe Hülle der Vereinigung betrachtet.<br />
Liste der untergeordneten und übergeordneten Knoten des GeoCast Netzwerks<br />
Die Routing Tabelle enthält jeweils eine Liste der direkt unter- und der direkt übergeordneten<br />
Objekte im GeoCast Netzwerk. Diese Liste enthält neben weiteren Informationen die Service<br />
Area Polygone der Knoten und die Art der Kommunikation mit den Knoten (evtl. Tunnelung,<br />
u.ä.).<br />
4 GPS-Multicast Ansatz<br />
Eine Alternative zum obigem GeoCast Ansatz ist der GPS-Multicast Ansatz von Imlielski und<br />
Navas [NaI967]. Der Unterschied ist hier primär im ersten Teilstück der Reise eines Pakets,<br />
vom Sender zur sogenannten Mobile Support Station( MSS), dem Analogon des GeoNode im<br />
vorangegangenem Beispiel. Ebenfalls wird generell von einem Wireless Network ausgegangen.<br />
4.0 Exkurs: Was bedeutet Multicast<br />
Multicast bedeutet, dass eine IP Adresse nicht einer einzelnen Maschine, sondern einer<br />
Gruppe von Maschinen zugeordnet wird. Hierzu sind Adressen im sogenannten Class D Netz<br />
(Range 224.0.0.0 bis 239.255.255.255) reserviert. Im [NaI96] wird aber ein IP Adressenbereich<br />
verwendet, welcher von der Internet Task Force zu Experimentierzwecken bestimmt<br />
wurde(über 240.0.0.0). Präsenzen die sich einer solchen Multicast Gruppe anschließen wollen,<br />
verschicken eine entsprechende Anfrage an ihren Router. Dieser nimmt nun die Präsenzen<br />
mit in seine Routing Tabelle und stellt ihnen die Pakete zu, die an die Multicast Adresse<br />
gerichtet sind. Das Verwenden einer Multicast Struktur macht vor allem Sinn, wenn die<br />
Nachrichten simultan an mehrere Empfänger verschickt werden sollen. Durch Multicasting<br />
werden die Netzwerkkapazitäten, und die Last der Server-CPU entlastet, da die Pakete jedes<br />
Teilstück im Netz nur einmal passieren müssen.<br />
4.1 Grundidee<br />
Beim Multicast Ansatz werden zwei weitere Begriffe geprägt - Partition und Atom. Ein Atom<br />
ist die kleinste geographische Einheit, die sich geographisch adressieren lässt. Eine Partition<br />
ist eine größere geographische Fläche, die selber wiederum Partitionen und Atome enthalten<br />
kann.<br />
Die Grundidee beim Multicast Ansatz ist, beim Verschicken eines Pakets dieses an diejeniege/dasjenige<br />
kleinste Partition/Atom zu adressieren, die/das das eigentliche Zielpolygon<br />
enthält. Jede Partition und jedes Atom erhalten eine dedizierte Multicast Adresse. Somit wird<br />
das Paket nicht an das eigentliche Zielpolygon, sondern an die Partition, die das gesamte Polygon<br />
enthält geschickt. Das geographische Polygon selber ist im Inhalt des Pakets nochmal<br />
zu finden.
117 Adalbert Spakowski<br />
4.2 Aufbau eines Multicast Trees<br />
Da die Partitionen des Netzwerks bereits statisch fest vorgegeben sind, kennt ein MSS beim<br />
Hochfahren, die Partitionen innerhalb seiner Reichweite, die von ihm bedient werden. Dadurch<br />
kann er sich bei den entsprechenden Multicast Gruppen registrieren.<br />
Setzt man das Vorhandensein dieser Multicast Trees voraus, kann ein Sender die Multicast<br />
Adressen der Partition ermitteln, die sein Zielpolygon enthält. Er verschickt dann die Nachricht<br />
an die Multicast Adresse. Alle für diese Adresse registrierten MSS erhalten die verschickte<br />
Nachricht<br />
Hierbei können jedoch aufgrund von vielen Präsenzen sehr große Routingtabellen entstehen.<br />
Aus diesem Grund wird vorgeschlagen, das link state multicast protokoll entsprechend zu<br />
modifizieren um Informationen über kleine Objekte nur lokal zu propagieren.<br />
4.3 Multicast Adressierung der Präsenzen<br />
Wie oben erwähnt, wird jede Partition und jedes Atom einer Multicast Adresse zugeordnet.<br />
Die Multicast Adressierung ist hierarchisch aufgebaut. Bei der Adressierung wird beispielhaft<br />
das folgende Schema vorgeschalgen:<br />
1111.GPS.S.C.x<br />
Dabei gilt Folgendes:<br />
1111: Die ersten 4 bit stellen sicher, dass die IP Adresse oberhalb von 240.0.0.0 liegt, und<br />
somit es sich hierbei um ein Klasse E Netz handelt. Es steht für Experimentierzwecke der<br />
IETF zur Verfügung.<br />
GPS ist eine Bitfolge zum dedizierten GPS Netzbereich. Vorgeschlagen werden hier 6 Bit.<br />
S adressiert das Bundesland – die Partition eines Bundeslands hat dabei die Adresse S/0/0<br />
C adressiert einen Bezirk innerhalb des Bundeslandes. Die Bezirkspartition lässt sich dabei<br />
unter der Adresse S/C/0 ansprechen<br />
x adressiert eine entsprechende geographische Präsenz in S/C.<br />
Hierdurch wird eine zweistufige Partitionierung nach Bundesländern und Bezirken erreicht.<br />
Den einzelnen partitionierten Bereichen werden dedizierte Multicast Router (unter der Adresse<br />
1111.GPS.S.C.0) zugewiesen.<br />
4.4 Polygonadressierung mit Hilfe des DNS<br />
Es stellt sich nun die Frage, wie ein Sender die Multicast Adresse des entsprechenden Empfängers<br />
finden soll. [NaI96] schlägt hier den Einsatz einer hierarchischen DNS Struktur vor.<br />
Innerhalb der root Domäne .geo wird eine hierarchische Zonenstruktur vorgeschlagen, die<br />
Namensräume für Bundesländer, Bezirke , Städte und lokale Server enthält. Somit ist das<br />
Format der geographischen DNS Zonen:<br />
local.county.state.geo<br />
Entsprechend den Zonen werden auch DNS Server aufgebaut.<br />
Die DNS Resource Records (DNS RR) werden entsprechend angepasst, um goegraphische<br />
Polygone aufnehmen zu können.<br />
4.4.1 Routing der Pakete von der MSS zum Empfänger<br />
Zur Zustellung des Pakets von der MSS zum Client existieren drei Lösungsansatze:
118 Geographische Adressierung in Computernetzen<br />
Application Level Filtering<br />
Die MSS verschickt das erste Paket mit dem definierten Polygon an seine Clients innerhalb<br />
seiner Partition. Alle Empfänger, die ja ihre GPS Position kennen, können die Mitgliedschaft<br />
im Zielpolygon, welches im Paket mitenthalten ist, überprüfen und entsprechend nach Bedarf<br />
die Nachricht verarbeiten.<br />
Multicast Filtering<br />
Die MSS propagiert eine neue temporäre Multicast Adresse, die das Zielpolygon ansprechen<br />
soll. Die Clients, die innerhalb des Polygons stationiert sind schließen sich dieser Multicast<br />
Gruppe an. Diese Nachricht wird mehrfach von der MSS verschickt, um verlässlich die entsprechenden<br />
Clients zu erreichen. Anschließend erhalten alle registrierten Clients die eigentliche<br />
Nachricht.<br />
Computer in physikalischen Netzen<br />
Modifizierte Basisstationen mit einem Zugriff ins physikalische Netz(Ethernet, TokenRing<br />
u.ä.) sollten die Nachrichten entsprechend an betroffene Computer im physikalischen Netzwerk<br />
übertragen. Hierzu bietet sich besonders der obere Multicast Ansatz an.<br />
5 Domain Name Service – Ansatz<br />
Ein dritter zentraler Ansatz von Imlielski und Navas[NaI96] basiert auf dem Domain Name<br />
Service. Hierzu wird eine First Level Domain geographic angelegt. Unterhalb dieser Domäne<br />
werden hierarchisch Subdomänen für die Bundesländer und Regionen aufgebaut. In diesen<br />
Domänen finden sich dann die einzelnen Präsenzen und Polygone, die angesprochen werden<br />
können. Eine mögliche Adresse könnte somit sein ezb.frankfurt.hessen.geographic<br />
Der Sender der zum Beispiel eine Nachricht an alle Präsenzen in der Europäischen Zentralbank<br />
schicken möchte, ermittelt im DNS die entsprechende IP Adresse.<br />
Für das Verschicken der eigentlichen Nachricht werden in [NaI96]nun drei Möglichkeiten<br />
vorgeschlagen:<br />
• Die Nachricht wird an MSS Einheiten per Unicast verschickt, die der zurückgelieferten IP<br />
Adressen entsprechen.<br />
• Es wird eine temporäre Multicast Gruppe angelegt, die alle betroffenen Clients enthält.<br />
Diese Gruppe empfängt dann die entsprechenden Informationen.<br />
• Eine zentrale MSS bekommt die Nachricht zugestellt und ist für die Distribution der<br />
Nachricht an die entsprechenden Clients und weitere betroffene MSSs zuständig.<br />
6 ContextCast – ein Peer to Peer Ansatz<br />
Bei den vorherigen Ansätzen wird ein vorhandener, zentraler Backbone vorausgesetzt. In<br />
manchen Szenarien kann es wünschenswert sein ein dezentrales Netzwerk aufzubauen. Dies<br />
senkt die Infrastrukturkosten sowohl bei der Inbetriebnahme, wie auch bei der Wartung. Jedoch<br />
sind Effizienzeinbußen die Kehrseite der Medaille.<br />
[Heu02] beschreibt mit den Context Spaces und dem ContextCast Netzwerk einen solchen<br />
P2P Ansatz. Hierbei existieren im Vergleich zu dem vorherigen zentralen Ansatz minimale<br />
Anforderungen (TCP/IP Kommunikation) an die Entitäten im Netzwerk. Als Vorlage dienen<br />
hierzu vorhandene File Sharing Netzwerke, die ihre Stärken besonders in der Entdeckung der<br />
vorhandenen Ressourcen haben.
119 Adalbert Spakowski<br />
6.1 Begriffsklärung<br />
Funktionell ist der Context Spaces Ansatz in der Lage Nachrichten an alle mobilen Entitäten<br />
innerhalb einer bestimmten Region zu schicken(Contextual Messaging) sowie alle mobilen<br />
Entitäten innerhalb einer Region ausfindig zu machen(Contextual Resource Discovery).<br />
Eine Präsenz im ContextCast Netzwerk hat die folgenden Eigenschaften<br />
• einen beschreibenden String d,<br />
• eine aktuelle Lokation l ∈ G<br />
• eine maximale Bandbreite in 10 3 Byte /s<br />
• eine Kennzahl für die Mobilität der Präsenz<br />
• eine IP Netzwerk Adresse<br />
• eine definierte Portnummer<br />
Ein globaler Raum wird zuerst in lokale, z.T. auch überschneidende Subräume unterteilt.<br />
Hierzu wird zuerst der Context Space definiert:<br />
1. Sei G ⊆ Z n , n∈IN ein Global Context Space, bestehend aus einem Kreuzprodukt der<br />
Grenzintervalle G i =[l i ,u i ], i ∈ {0,...,n-1},li,u i ∈ Z und l i ≤ u i .<br />
2. Sei ein Context Space S ein Tupel, bestehend aus einem Subcube S* des Global Context<br />
Space G und einem einheitlichen Bezeichner s. S* ist das Kreuzprodukt des Subintervalle<br />
der Grenzintervalle von G.<br />
3. Sei S ein Context Space, smin(S) die minimale Größe aller Grenzintervalle von S*.<br />
Sei die Adressierungsmenge A eine Menge aller Sequenzen in B n :={0,...,2 n-1 }, A k ⊂A<br />
die Menge aller Sequenzen der Länge k, k ∈ IN 0.<br />
4. Sei der Clusterlevel l von S a n definiert durch die Länge von a, l ∈ IN 0 und l ≤ ⎣<br />
log(smin(S)) ⎦. Sei c(l) die Menge aller Cluster S a mit dem Clusterlevel l. Sei C(x,l)<br />
ein Cluster von C(l) , das x∈S* enthält.<br />
6.2 Struktur eines ContextCast Netzwerks<br />
Die obigen Definitionen lassen nun eine klare Strukturierung des Netzwerks zu.<br />
Ein Global Context Space lässt sich somit in mehrere Context Spaces unterteilen, die verschiedene<br />
voneinander unabhängige Netzwerke darstellen. Im ersten Schritt besteht ein Context<br />
Space aus einem Cluster. Bei Bedarf aber lässt sich dieser wiederum zu mehreren Subclustern<br />
teilen, wobei hier jeweils eine Unterteilung in 2 AnzahlDerDimensionen Subcluster pro Ebene<br />
geschieht. Die Tiefe der Unterteilung wird hierbei durch den Clusterlevel definiert.<br />
Eine Präsenz befindet sich immer nur in einem Cluster pro Clusterlevel. Die folgende Abbildung<br />
verdeutlicht das.
120 Geographische Adressierung in Computernetzen<br />
Abbildung 3: Partitionierung des Context Space [HEU02, Kap.4]<br />
Die Topologie des ContextCast Netzwerks ist baumartig. Pro aktiven Cluster existiert ein<br />
sogenannter Clusterhead, welcher die administrativen Aufgaben wahrnimmt und somit einen<br />
Knoten in der Baumstruktur abbildet. Weitere Präsenzen innerhalb eines Clusters auf der untersten<br />
Ebene stellen Blätter des Baums dar.<br />
6.3 Initiieren eines ContextCast Netzwerks<br />
Da es sich bei ContextCast Netzwerken um nicht zentrale permanent verfügbare Netzwerke<br />
handelt, muss ein Context Space vor dem Gebrauch erst initialisiert werden. Hierzu definiert<br />
eine Präsenz ein Gebiet S* mit einem eindeutigen Bezeichner s. Somit ist der neue Context<br />
Space S :=(S*,s) definiert.<br />
Möchte nun ein weiterer Teilnehmer A sich dem Netzwerk anschließen, muss er zumindest<br />
eine Präsenz, die bereits Mitglied ist, kennen. Diese wird dann über den JOIN - Befehl der<br />
ContextCast Library kontaktiert. Dieser JOIN Befehl wird dann dem entsprechenden<br />
Clusterhead, der in der Lokation des neuen Teilnehmers die Präsenzen verwaltet, zugestellt.<br />
Der zuständige Clusterhead bestätigt dann dem neuen Teilnehmer seine Aufnahme(JOINACK).<br />
Wenn A die erste Präsenz in einem Cluster ist, kann es auch vorkommen,<br />
dass es für den Cluster in dem sich A befindet keinen Clusterhead gibt. Dann wird der neue<br />
Teilnehmer bei seiner Aufnahe gleichzeitig auch zum Clusterhead. Der übergeordnete<br />
Clusterhead informiert die neue Präsenz über die Rolle in Form einer SPLIT Nachricht.<br />
Ein weiteres mögliches Szenario ist das Erreichen eines Grenzwerts der Bandbreite des aktuellen<br />
Clusterheads durch das Hinzunehmen einer neuen Präsenz. Der Clusterhead führt daraufhin<br />
einen SPLIT Vorgang durch. Er unterteilt seinen Cluster in 2 n Subcluster. Alle neuen<br />
Clusterheads der untergeordneten Cluster werden durch eine SPLIT Nachricht über ihren<br />
neuen Zustand und die zu bedienenden Präsenzen informiert. Alle weiteren untergeordneten<br />
Präsenzen werden anschließend auf die neuen für sie zuständigen Clusterheads hingewiesen.
121 Adalbert Spakowski<br />
Ist hierbei der neue Knoten nicht selber ein Clusterhead geworden, wird seine JOIN Anfrage<br />
an den neuen untergeordneten Clusterhead weitergeleitet.<br />
6.4 Routing<br />
Bei einem vorhandenen Netzwerk ist das Routing der Nachrichten verhältnismäßig simpel. Es<br />
fallen besonders Ähnlichkeiten zum GeoCast Routing auf. Möchte eine Präsenz eine Nachricht<br />
an ein bestimmtes Gebietverschicken, so schickt sie die Nachricht an ihren zuständigen<br />
Clusterhead. Ein Clusterhead des Clusters S a verteilt die Nachricht mit dem Zielgebiet T anschließend<br />
nach folgenden drei Regeln:<br />
1. Wenn die Ebene des Clusterheads keine Subcluster hat, dann wird die Nachricht an<br />
alle Blätter, die sich in S a ∩ T befinden, gesendet.<br />
2. Ansonsten erhalten alle betroffenen Subcluster S a’ , für die gilt T’=T ∩ S a’ , T’ ≠ ∅,<br />
eine Kopie der Nachricht mit dem Zielgebiet T’<br />
3. Dann wird T # := T \ S a bestimmt. Ist T # ≠ ∅,dann wird eine Kopie der Nachricht mit<br />
dem Zielgebiet T # an den übergeordneten Clusterhead geschickt. Existiert kein übergeordneter<br />
Clusterhead wird die Nachricht verworfen.<br />
Die Clusterheads können hier als Cache Speicher für repetitive Nachrichten dienen, oder um<br />
Nachrichten mit einer längeren Gültigkeitsdauer für später hinzukommende neue Clients bereitzuhalten.<br />
Die folgende Abbildung stellt exemplarisch das Routen einer Nachricht vor:<br />
Abbildung 4: Routing einer ContextCast Nachricht [Heu02,Kap.5]<br />
a) Präsenz F verschickt eine Nachricht an die Region T, b) beschreibt den gerouteten Weg der<br />
Nachricht inkl. der möglichen Antworten der Empfänger<br />
Der Vorgang beim Resource Discovery lässt sich mit dieser Technik ebenfalls implementieren.<br />
Es sollten dabei jedoch noch zusätzliche Sicherheitsaspekte betrachtet werden.
122 Geographische Adressierung in Computernetzen<br />
6.5 Bewegung der Präsenzen<br />
Interessant ist ebenfalls der Umgang mit der Lokationsänderung der einzelnen Präsenzen.<br />
Hierbei gilt zuerst, dass eine Präsenz nur Clusterhead oder Blatt eines Clusters sein kann in<br />
dem sie sich selber auch befindet. Hierzu müssen zunächst aus Applikationssicht Grenzwerte<br />
für die Updateintervalle und Lokationsabweichungen gesetzt werden. Um unnötigen Netzwerkverkehr<br />
zu vermeiden muss die Präsenz selber Ihre Koordinatenänderungen an das ContextCast<br />
Netzwerk propagieren.<br />
Bewegt sich eine Präsenz innerhalb des Clusters verschickt sie eine MOVE Nachricht mit den<br />
neuen Koordinaten an ihren Clusterhead. Dieser bestätigt dann die neue Lokation mit einer<br />
MOVEACK Nachricht. In Sonderfällen, wenn zum Beispiel während der Anfrage des Clients<br />
ein Split der Knoten erfolgt, kann es vorkommen, dass sich die Präsenz in einem falschen<br />
Cluster wiederfindet. Da die betroffene Präsenz keine erwartete MOVEACK Nachricht, sondern<br />
eine SPLIT Nachricht erhält, reagiert sie, indem sie ihre MOVE Anfrage an den neuen<br />
Clusterhead stellt.<br />
Führt eine Bewegung zum Verlassen des jeweiligen Clusters, so schickt die Präsenz eine<br />
JOIN Nachricht mit der neuen Lokation. Hat die Präsenz eine administrative Rolle, so schickt<br />
sie eine LEAVE Nachricht an den Clusterhead in der Erwartung einer LEAVEACK Nachricht.<br />
Nach einem abgeschlossenen Umzug bestätigt A dem alten Clusterhead den Erfolg in einer<br />
LEAVEFIN Nachricht. Bis zum Eintreffen dieser Nachricht kann der Clusterhead selber seine<br />
Position nicht ändern. Dadurch wird sichergestellt, dass der Clusterhead nicht in der Zwischenzeit<br />
die Lokation geändert hat, oder ausgeschaltet wurde. Erhält die Präsenz anstelle der<br />
LEAVEACK Nachricht eine Split oder HANDOVER Nachricht (mehr dazu weiter unten), so<br />
wiederholt sie ihre Anfrage nach dem Realokierungsvorgang des Netzwerks.<br />
Verlässt eine Präsenz einen Cluster, in dem sie die einzige Präsenz und somit auch der<br />
Clusterhead war, wird der Cluster geschlossen. Dazu schickt die Präsenz eine<br />
CLOSECLUSTER Nachricht an ihren übergeordneten Cluster. Dieser Bestätigt den Vorgang<br />
mit einer CLOSECLUSTERACK Nachricht. Sollte in der Zwischenzeit eine JOIN Anfrage bei<br />
der Präsenz eintreffen, leitet die Präsenz die Anfrage an den übergeordneten Clusterhead, der<br />
sie nach dem CLOSECLUSTERACK bearbeitet.<br />
Ein weiterer Vorgang ist die Übergabe der Clusterhead Rolle an eine andere Präsenz. Angenommen<br />
B übergibt diese Rolle an C. Hiezu sendet B eine HANDOVER Nachricht an C. Alle<br />
folgenden Nachrichten, die sich an B als Clusterhead richten schickt B dann sofort an C. C<br />
erhält mit der HANDOVER Nachricht Informationen über alle benachbarten Präsenzen. C<br />
schickt an alle seine Nachbarn eine NEWCLUSTERHEAD Nachricht, die die Nachbarn mit<br />
der NEWCLUSTERHEADACK bestätigen. Nachdem alle Anfragen bestätigt wurden, informiert<br />
C B mit der HANDOVERACK Nachricht über die geglückte Rollenübernahme. B Beendet<br />
die Übergabe mit einer HANDOVERFIN Nachricht und schickt selber wiederum bei Bedarf<br />
eine JOIN Message an C, da es sich selber nicht in der Liste, die von<br />
NEWCLUSTERHEAD übertragen wird, enthält, um Endlosschleifen zu verhindern.<br />
Die Folgende Abbildung veranschaulicht die Rollenübergabe nochmals grafisch:
123 Adalbert Spakowski<br />
Abbildung 5: Clusterhead Handover Darstellung [Heu02, Kap. 7]<br />
7 Zusammenfassung / Ausblick<br />
Es wurden Netzwerke betrachtet, die alle auf einer Anbindung per TCP/IP an eine Netzwerk<br />
Infrastruktur bestehen. Dieser einheitliche Ansatz wird durch die hohe Verfügbarkeit des Internets<br />
unterstützt. Darüber hinaus existieren Möglichkeiten mobile, geographisch Adressierbare<br />
Netzwerke auf proprietären Technologien aufzubauen. So lassen sich z.B. die Lokationen<br />
in Mobilfunk- Netzen indirekt aus der Signalstärke und der Zeitverzögerung zum Endgerät<br />
schätzen(vgl. z.B. [ALL+02]). Hier fehlen jedoch Konzepte diese Adressierung proaktiv<br />
für Applikationen zu nutzen. Das Hauptanwendungsfeld ist hier das Aufspüren der Präsenzen,<br />
ohne einen definierten Nachrichtenaustausch und Routingfunktionalität.
124 Geographische Adressierung in Computernetzen<br />
Referenzen<br />
[ALL+02] S.Ahonen, J.Lähteenmäki, H.Laitinen ans S.Horsmanheimo (2002):<br />
Usage of mobile location techniques for UMTS network planing in urban environment,<br />
http://newton.ee.auth.gr/summit2002/papers/SessionW8/2502094.pdf<br />
[Heu02] Dominic Heutelbeck (2002):<br />
Context Spaces - Self-Structuring Distributed Networks for Contextual Messaging and<br />
Resource Discovery,<br />
CoopIS'02, Proc. of Tenth International Conference on Cooperative Information Systems.<br />
- University of California Irvine, USA, October 30 - November 1, 2002<br />
[NaI96] Tomasz Imielinski and Julio C. Nawas (1996):<br />
GPS-Based Adressing and Routing,<br />
RFC 2009, Computer Science, Rutgers University, März 1996<br />
[NaI97] Tomasz Imielinski and Julio C. Nawas (1997):<br />
GeoCast – Geographic Adressing and Routing,<br />
Proc. of the Third ACM/IEEE International Conference on Mobile Computing and<br />
Networking (MobiCom'97), Budapest, Hungary, September 26-30 1997
Mathematische Grundlagen für Augmented-Reality<br />
Systeme<br />
Affine Objektrepräsentation und Registrierungsfehler<br />
Alexander Lorenz<br />
Roermonder Straße 56<br />
52072 Aachen<br />
Lorenz.Alex@gmx.de<br />
Zusammenfassung: Die meisten AR-Systeme basieren auf Messungen und<br />
Positionsbestimmungen von verschiedenen Trackern. Hier wird ein System vorgestellt,<br />
das ohne diese Tracker und ohne Kalibrierungen auskommt. Dazu wird die affine<br />
Darstellung von Punkten benutzt. Es werden die mathematischen Grundlagen dieser<br />
Darstellung beschrieben. edes heutige AR-System produziert Registrierungsfehler. Ein<br />
Registrierungsfehler entsteht, wenn ein virtueller 3D-Punkt nicht exakt auf den richtigen<br />
Punkt im Bild projiziert wird. Die größten Fehlerquellen sind Verzögerungen im System,<br />
optische Verzerrung und Trackermessfehler.<br />
1 Einleitung<br />
Ein Augmented Reality System besteht im Kern aus einer Kamera, die die reale Umwelt<br />
aufnimmt, einer Graphikeinheit, die für virtuelle Objekte zuständig ist, und einem Bildschirm.<br />
Auf diesem Bildschirm werden in das Kamerabild virtuelle Objekte eingeblendet, die sich<br />
auch beim Bewegen der Kamera wie echte Objekte verhalten. Dadurch wird das reale Bild der<br />
Umwelt angereichert („augmented“ = „erweitert“). Augmented Reality Systeme sollen bei der<br />
Lösung von Realweltproblemen helfen, wie sie z.B. in der Medizin oder beim Militär<br />
vorkommen.<br />
Für diese Systeme gibt es im Wesentlichen drei Vorraussetzungen:<br />
• Das Mischen von virtuellen 3D-Objekten mit Bildern der realen Welt<br />
• Eine konsistente Sicht auf diese Objekte von allen Blickwinkeln aus generieren<br />
• Alle Operationen müssen in Echtzeit ausgeführt werden, um eine Interaktion mit dem<br />
Benutzer zu ermöglichen<br />
Augmented Reality kann ein bisschen mit der bekannteren Virtual Reality verglichen werden,<br />
wobei aber bei letzterem die komplette Sicht im Computer generiert ist. Der Vorteil der<br />
Augmented Reality ist sicherlich die wesentlich realistischere und natürlichere Darstellung<br />
zum einen und die bei weitem mehr an Informationen enthaltene reale Umwelt zum anderen.<br />
Wie oben erwähnt muss eine konsistente Sicht auf alle Objekte erzeugt werden. Inkonsistente<br />
Sichten entstehen durch eine Nichtübereinstimmung zwischen dem Koordinatensystem, das<br />
den Blickpunkt des Benutzers in der Realwelt beschreibt, und dem Koordinatensystem, das<br />
den Blickpunkt des Graphiksystems in der virtuellen Welt beschreibt. Es müssen die<br />
geometrischen Beziehungen zwischen den virtuellen und realen Objekten definiert werden.<br />
Fehler in diesen Beziehungen werden als Inkonsistenzen wahrgenommen. Zu unterscheiden<br />
ist zwischen statischen und dynamischen Registrierungsfehlern. Zu den statischen<br />
Registrierungsfehlern zählt die unterschiedliche Platzierung von Objekten in<br />
unterschiedlichen Sichten. Dynamische Registrierungsfehler treten auf, wenn das System den
126 Mathematische Grundlagen für Augmented-Reality Systeme<br />
Echtzeitanforderungen nicht gerecht wird und dadurch bei Bewegungen Positionserschiebungen<br />
sichtbar sind.<br />
2 Transformationen<br />
Um eine korrekte Darstellung zu erhalten, muss man Wissen über die Beziehungen zwischen<br />
Kamera-, Realwelt- und Objektkoordinatensystem besitzen ([Vall]).<br />
object<br />
vertex<br />
object-centered<br />
coordinate system<br />
O<br />
graphics camera<br />
coordinate system<br />
graphics<br />
plane<br />
world<br />
point<br />
image<br />
plane<br />
world<br />
coordinate system<br />
P<br />
C<br />
video camera<br />
coordinate system<br />
Abbildung 1: die verschiedenen Koordinatensysteme und ihre Transformationen ([VaKu98])<br />
Diese Beziehungen werden in Abbildung 1 durch die Transformationen Object-to-World O,<br />
World-to-Camera C und Camera-to-Image plane P dargestellt. In vielen Systemen werden<br />
diese Beziehungen durch Sensoren, Kalibrierungen und Messungen bestimmt. Dabei werden<br />
mechanische, magnetische und optische Techniken benutzt, um die Position und Ausrichtung<br />
der Kamera mit Bezug auf das Welt-Koordinatensystem zu bestimmen. Damit wird die<br />
Transformation C bestimmt. Um P zu bestimmen braucht man die Fokusweite und die<br />
Seitenverhältnis-Parameter der Kamera. Das kann durch Kalibrierung erreicht werden. Die<br />
Transformation O kann durch Messungen bestimmt werden. Damit hat man im Prinzip alles,<br />
um eine korrekte Verschmelzung von virtuellen Objekten mit dem Videobild durchzuführen.<br />
Allerdings werden durch diese Vorgehensweise Einschränkungen auferlegt. Die<br />
mechanischen Sensoren sind in der Reichweite beschränkt, magnetische Sensoren sind<br />
anfällig für Störfelder und haben größere Verzögerungen. Die Parameter der Kamera können<br />
sich mit der Zeit ändern und müssen neu kalibriert werden. Fehler in solchen Messungen<br />
führen dann schließlich zu Registrierungsfehlern.<br />
3 Affine Darstellung<br />
Man kann diese gesuchten Transformationen auch anders bestimmen. Dazu werden<br />
bestimmte Bezugspunkte in der Realwelt verfolgt. In [VaKu] wird beobachtet:<br />
„Sei eine Menge von vier oder mehr nicht-planparallelen 3D-Punkten gegeben. Die<br />
Projektion von allen Punkten dieser Menge kann als eine Linearkombination der<br />
Projektion von nur vier dieser Punkte berechnet werden.“<br />
Dadurch ist es möglich ein globales Koordinatensystem aufzubauen, in dem alle<br />
Koordinatensysteme aus Abbildung 1 ausgedrückt werden können. Dieses Koordinatensystem<br />
basiert nur auf der Verfolgung und Bestimmung von vier nicht-planparallelen Bezugspunkten.
127 Alexander Lorenz<br />
Eine genaue Bestimmung wo ein Punkt eines virtuellen Objektes auf dem Bildschirm<br />
dargestellt wird, ist grundlegend für eine korrekte Registrierung. In homogenen Koordinaten<br />
kann die Projektion eines 3D-Punktes [X Y Z 1] T auf dem Videobild [u v 1] T folgendermaßen<br />
ausgedrückt werden:<br />
⎡u⎤<br />
⎢ ⎥<br />
⎢<br />
v<br />
⎥<br />
= P3<br />
⎢⎣<br />
1⎥⎦<br />
x4<br />
C<br />
4x4<br />
⎡X<br />
⎤<br />
⎢ ⎥<br />
⎢<br />
Y<br />
⎥<br />
⎢Z<br />
⎥<br />
⎢ ⎥<br />
⎣ 1 ⎦<br />
P, C und O sind die entsprechenden oben genannten Transformationen. Diese Gleichung legt<br />
die Vermutung nahe, dass die verschiedenen Transformationen P, C und O unabhängig<br />
voneinander bestimmt werden. In einem System der University of Rochester ([VaKu])<br />
werden alle Koordinaten in einem gemeinsamen affinen Koordinatensystem ausgedrückt.<br />
Dieses Koordinatensystem wird durch vier nicht-planparallele Punkte definiert, die von allen<br />
Positionen aus mit der Kamera verfolgt werden können. Damit kann die Projektion als eine<br />
einzige homogene Transformation angesehen werden, sowohl für virtuelle als auch für reale<br />
Punkte:<br />
wobei [x y z 1] T die affinen Koordinaten für den Punkt [X Y Z 1] T sind und ∏ 3x4 die<br />
Projektion eines 3D affinen Punktes auf die Bildoberfläche ist. Jetzt brauchen nicht mehr alle<br />
Transformationen bestimmt zu werden, sondern es reicht aus, alles in die affine Darstellung<br />
zu bringen und dann für jede Sicht die Projektionsmatrix ∏ zu berechnen. Es müssen dann<br />
keine Kalibrierungen der Kameraparameter oder Tracker mehr vorgenommen werden, was<br />
natürlich hilf Registrierungsfehler zu reduzieren und langwierige Kalibrierungsprozeduren zu<br />
vermeiden.<br />
3.1 Affine Räume und Projektionen<br />
Zuerst werden ein paar Grundbegriffe erläutert, die eine wichtige Rolle spielen: der Begriff<br />
des affinen Raumes und der Begriff der Projektion.<br />
Ein affiner Raum über einem Körper K ist gegeben durch das Tupel (X, V, t). Dabei ist X<br />
eine Menge von Punkten p, q, r…, V ein K-Vektorraum und t eine einfache transitive<br />
Operation mit t : X × V → X ,( p,<br />
v)<br />
→ p + v .<br />
Einfach transitiv bedeutet dabei, dass es zu je zwei Punkte p, q ε X genau einen Vektor v ε V<br />
mit q = p + v gibt, man schreibt dann v = pq . Außerdem muss für die Abbildung gelten<br />
p + 0 r = p,<br />
∀p<br />
∈ X und<br />
p + ( v + w)<br />
= ( p + v)<br />
+ w,<br />
∀p<br />
∈ X, ∀v,w<br />
∈V<br />
.<br />
In diesem affinen Raum kann dann das globale, affine Koordinatensystem aufgespannt<br />
werden (siehe nächster Abschnitt), in dem schließlich alle Punkte beschrieben werden<br />
können.<br />
O<br />
4x4<br />
Gleichung 1<br />
⎡x⎤<br />
⎡u⎤<br />
⎢ ⎥<br />
⎢ ⎥ ⎢<br />
y<br />
= Π ⎥<br />
⎢<br />
v<br />
⎥<br />
3x4<br />
⎢z⎥<br />
⎢⎣<br />
1⎥⎦<br />
⎢ ⎥<br />
⎣1⎦<br />
Gleichung 2
128 Mathematische Grundlagen für Augmented-Reality Systeme<br />
Eine Projektion ist eine Abbildung von Raumgebilden auf eine Ebene, hier einen Bildschirm.<br />
Man unterscheidet Parallelprojektion und Zentralprojektion, je nachdem, ob die<br />
Projektionsstrahlen parallel laufen oder von einem Punkt (dem Zentrum, hier das Auge)<br />
ausgehen. Im Folgenden handelt es sich um Zentralprojektionen. Der Schnittpunkt zwischen<br />
dem Bildschirm und der optischen Achse zum Punkt im Raum ergibt die Projektion des<br />
Punktes auf dem Bildschirm. Die Projektionen der affinen Basispunkte können durch einfache<br />
Messungen bestimmt werden bzw. ergeben sich automatisch aus der Aufnahme per<br />
Videokamera.<br />
3.2 Das globale, affine Koordinatensystem<br />
Durch vier nicht-planparallele Bezugspunkte wird ein globales Koordinatensystem<br />
aufgespannt, in dem alle übrigen Punkte des Systems dargestellt werden. Dieses<br />
Koordinatensystem ist invariant gegenüber affinen Transformationen (Rotation, Translation,<br />
nichteinseitige Größenveränderung). Die affine Darstellung eines Punktes wird durch<br />
• die vier affinen Basispunkte p 0 , p 1 , p 2 und p 3 , von denen p 0 als Ursprung<br />
ausgezeichnet wird, und<br />
• die affinen Koordinaten der Punkte im Bezug auf die affinen Basispunkte<br />
zusammengesetzt.<br />
Der Ursprung p 0 hat also die homogenen affinen Koordinaten [0 0 0 1] T , die Basispunkte p 1 ,<br />
p 2 und p 3 haben die Koordinaten [1 0 0 1] T , [0 1 0 1] T und [0 0 1 1] T . Damit haben die affinen<br />
Basisvektoren die Werte p 1 = [1 0 0 0] T , p 2 = [0 1 0 0] T und p 3 = [0 0 1 0] T . Jeder beliebige<br />
Punkt p kann jetzt durch eine Linearkombination dieser Basisvektoren ausgedrückt werden: p<br />
= xp 1 + yp 2 + zp 3 + 1p 0 = [x y z 1] T .<br />
3.3 Affine Reprojektion und Rekonstruktion<br />
Dieses affine Augmented Reality System basiert auf zwei Eigenschaften [Vall]. Die erste ist<br />
die „Affine Reprojection Property“. Wenn die Projektion eines 3D-Punktes in zwei Sichten<br />
bekannt ist, kann dessen Projektion in einer dritten Sicht berechnet werden. Es muss also<br />
nichts über die Parameter der Kamera oder ähnliches bekannt sein. Allein die Projektion der<br />
Basispunkte muss in den zwei Sichten bekannt sein. Dann kann mit folgendem Satz die<br />
Projektion in einer beliebigen anderen Sicht berechnet werden:<br />
Property 1 (Affine Reprojection Property) If in an image, I m , the projection, [u pi v pi<br />
1] T of the four points, p i i = 0 ... 3, which define the affine basis is known then the<br />
projection, [u p v p 1] T of any point, p, with homogenous affine coordinates [x y z<br />
1] T can be calculated as<br />
m<br />
⎡u<br />
⎤ ⎡<br />
p<br />
u<br />
⎢ m ⎥ ⎢<br />
⎢v<br />
p ⎥ = ⎢v<br />
⎢ ⎥ ⎢<br />
⎣<br />
1<br />
⎦ ⎣<br />
m<br />
p1<br />
m<br />
p1<br />
− u<br />
− v<br />
0<br />
m<br />
p0<br />
m<br />
p0<br />
u<br />
v<br />
m<br />
p2<br />
m<br />
p2<br />
− u<br />
− v<br />
m<br />
p0<br />
m<br />
p0<br />
u<br />
v<br />
m<br />
p3<br />
m<br />
p3<br />
− u<br />
− v<br />
0 0<br />
Gleichung 3<br />
m<br />
p0<br />
m<br />
p0<br />
m ⎡x⎤<br />
u ⎤<br />
p0<br />
⎢ ⎥<br />
m ⎥⎢<br />
y<br />
v ⎥<br />
p0<br />
⎥⎢z⎥<br />
1 ⎥<br />
⎦⎢<br />
⎥<br />
⎣1⎦<br />
(Eigenschaft 1 (Affine Reprojektionseigenschaft) Wenn in einem Bild I m die<br />
Projektion [u pi v pi 1] T der vier Punkte p i , i = 0 ...3, die die affine Basis definieren,<br />
bekannt sind, dann kann die Projektion [u p v p 1] T jedes Punktes p, der die<br />
homogenen affinen Koordinaten [x y z 1]T hat, berechnet werden als…)<br />
Gleichung 3 definiert die Projektion eines 3D-Punktes in jedem neuen Bild als eine<br />
Linearkombination der Projektionen der affinen Basispunkte in diesem Bild. Die affinen<br />
Basispunkte werden durch visuelle Verfolgung bestimmter Eigenschaften oder Bezugspunkte
129 Alexander Lorenz<br />
in der Umgebung festgelegt und deren Projektion im Videobild bestimmt. Um jetzt aber die<br />
Projektion in einer beliebigen dritten Sicht zu berechnen, braucht man noch die zweite<br />
Eigenschaft.<br />
Die zweite Eigenschaft bestimmt die Technik zur Bestimmung der affinen Koordinaten eines<br />
Punktes.<br />
Property 2 (Affine Reconstruction Property) The affine coordinates of any point<br />
can be computed from equation 3 if its projection in at least two views is known<br />
and the projection of the affine basis points are also known in those views.<br />
(Eigenschaft 2 (Affine Rekonstruktionseigenschaft) Die affinen Koordinaten<br />
eines jeden Punktes können aus Gleichung 3 berechnet werden, wenn deren<br />
Projektion in mindestens zwei verschiedenen Sichten bekannt sind, ebenso wie<br />
die Projektionen der affinen Basispunkte in den verschiedenen Sichten bekannt<br />
sein müssen.)<br />
Das Ergebnis ist ein überbestimmtes Gleichungssystem. Hat man zwei Sichten I 1 und I 2 einer<br />
Szene, in denen die Projektion der affinen Basispunkte p 0 …p 3 bekannt ist, dann können die<br />
affinen Koordinaten [x y z 1] T durch folgendes Gleichungssystem bestimmt werden:<br />
⎡u<br />
⎢<br />
⎢v<br />
⎢u<br />
⎢<br />
⎢⎣<br />
v<br />
1<br />
p<br />
1<br />
p<br />
2<br />
p<br />
2<br />
p<br />
⎤ ⎡u<br />
⎥ ⎢<br />
⎥ = ⎢v<br />
⎥ ⎢u<br />
⎥ ⎢<br />
⎥⎦<br />
⎢⎣<br />
v<br />
1<br />
p1<br />
1<br />
p1<br />
2<br />
p1<br />
2<br />
p1<br />
− u<br />
− v<br />
− u<br />
− v<br />
1<br />
p0<br />
1<br />
p0<br />
2<br />
p0<br />
2<br />
p0<br />
u<br />
v<br />
u<br />
v<br />
1<br />
p2<br />
1<br />
p2<br />
2<br />
p2<br />
2<br />
p2<br />
− u<br />
− v<br />
− u<br />
− v<br />
1<br />
p0<br />
1<br />
p0<br />
2<br />
p0<br />
2<br />
p0<br />
Gleichung 4<br />
u<br />
v<br />
u<br />
v<br />
1<br />
p3<br />
1<br />
p3<br />
2<br />
p3<br />
2<br />
p3<br />
− u<br />
− v<br />
− u<br />
− v<br />
1<br />
p0<br />
1<br />
p0<br />
2<br />
p0<br />
2<br />
p0<br />
u<br />
v<br />
u<br />
v<br />
1<br />
p0<br />
1<br />
p0<br />
2<br />
p0<br />
2<br />
p0<br />
⎤⎡x⎤<br />
⎥⎢<br />
⎥<br />
⎥⎢<br />
y<br />
⎥<br />
⎥⎢z⎥<br />
⎥⎢<br />
⎥<br />
⎥⎦<br />
⎣1⎦<br />
wobei [u p v p 1] T die Projektionen des Punktes p und [u pi v pi 1] T die Projektionen der<br />
Basispunkte p j in Bild I i sind. Durch die so bestimmten affinen Koordinaten können jetzt mit<br />
Gleichung 3 die Projektionen in einer beliebigen anderen Sicht berechnet werden.<br />
3.4 Affine Tiefe<br />
Das System muss natürlich auch eine korrekte Tiefenanordnung der Objekte gewährleisten.<br />
Da das System außerdem in Echtzeit arbeiten muss, sind der realistischen Darstellung<br />
virtueller Objekte Grenzen gesetzt und es sollte, wenn möglich spezielle<br />
Hardwareunterstützung genutzt werden. Besonders das so genannte „hidden-surface-removal“<br />
via z-Buffering profitiert sehr von einer Hardwareunterstützung. Dazu wird jedem Punkt ein<br />
Tiefenwert entlang der optische Achse zugeordnet, der so genannte z-Buffer. Der eigentliche<br />
Wert ist unwichtig, wichtig ist nur die Tiefenreihenfolge der Punkte ([VaKu98]). Dazu muss<br />
man als erstes die optische Achse der Kamera als eine 3D-Linie, deren Punkte alle auf<br />
denselben Punkt im Bild projiziert werden, bestimmen. Die optische Achse wird durch den<br />
homogenen Vektor [ζ T 0] T definiert, wobei ζ als das kartesisches Produkt bestimmt ist:<br />
⎡u<br />
⎢<br />
ζ = ⎢u<br />
⎢<br />
⎣u<br />
p<br />
p<br />
1<br />
− u<br />
p0<br />
⎤ ⎡v<br />
p<br />
⎥ ⎢<br />
2<br />
− u<br />
p0<br />
⎥x⎢v<br />
p<br />
− ⎥ ⎢<br />
3<br />
u<br />
p0<br />
⎦ ⎣v<br />
p<br />
Gleichung 5<br />
p<br />
Die erste Spalte entspricht den ersten drei Elementen der ersten Zeile der Matrix ∏, die<br />
zweite Spalte entspricht den ersten drei Elementen in der zweiten Zeile der Matrix ∏. Die<br />
genannte Eigenschaft garantiert, dass alle Punkte {p + t ζ, t ε R}, die die Sichtlinie definieren,<br />
auf ein und denselben Punkt projiziert werden.<br />
1<br />
2<br />
3<br />
− v<br />
− v<br />
− v<br />
p0<br />
p0<br />
p0<br />
⎤<br />
⎥<br />
⎥<br />
⎥<br />
⎦
130 Mathematische Grundlagen für Augmented-Reality Systeme<br />
Der Tiefenwert, der für den z-Buffer benutzt wird, wird jedem Punkt durch das Produkt [ζ T<br />
0] T p zugewiesen. Dadurch kann die komplette Projektion eines affinen Punktes ausgedrückt<br />
werden als:<br />
⎡u<br />
⎤ ⎡u<br />
⎢ ⎥ ⎢<br />
⎢<br />
v<br />
⎥ = ⎢<br />
v<br />
⎢w⎥<br />
⎢<br />
⎢ ⎥ ⎢<br />
⎣1⎦<br />
⎣<br />
p1<br />
p1<br />
− u<br />
− v<br />
p0<br />
p0<br />
u<br />
v<br />
p2<br />
p2<br />
− u<br />
− v<br />
p0<br />
p0<br />
u<br />
v<br />
T<br />
ζ<br />
0<br />
Gleichung 6<br />
p3<br />
p3<br />
− u<br />
− v<br />
p0<br />
p0<br />
u<br />
p0<br />
⎤⎡x⎤<br />
v<br />
⎥⎢<br />
⎥<br />
p0<br />
⎥⎢<br />
y<br />
⎥<br />
0 ⎥⎢z⎥<br />
⎥⎢<br />
⎥<br />
1 ⎦⎣1⎦<br />
Wobei w der z-Buffer des Punktes in der Projektion ist. Diese Matrix hat dieselbe 4x4 Form<br />
wie die Sicht-Matrix, die in gebräuchlichen Graphiksystemen benutzt wird, um<br />
Graphiktransformationen durchzuführen. Dadurch ist es hier möglich das z-Buffering und das<br />
„hidden-surface-removal“ effizient durch die Hardware zu unterstützen. Ein korrektes<br />
Anordnen der Objekte hintereinander ist allerdings nur zwischen virtuellen Objekten möglich.<br />
Verdeckt ein reales Objekt ein virtuelles, so ist eine korrekte Darstellung nur mit zusätzlichen<br />
Informationen über das reale Objekt möglich.<br />
3.5 Interaktive Modellerstellung<br />
Informationen über reale Objekte können mit Augmented Reality selbst gewonnen werden. Es<br />
ist möglich mittels eines kleinen Pointers, der in der Hand gehalten wird, von einem realen<br />
Modell ein virtuelles Objekt zu erschaffen ([VaKu]). Dazu wird erst das globale affine<br />
Koordinatensystem berechnet. Dann wird von zwei Kameras beobachtet wie mit dem Pointer<br />
die Oberfläche des realen Objektes „angemalt“ wird. Durch die zwei Kameras kann die<br />
Affine Reconstruction Property genutzt werden, um die Koordinaten der gezeichneten<br />
Bereiche zu ermitteln (siehe Abschnitt 3.3). Im Projektionsbild können die schon<br />
„angemalten“ Bereiche gerendert werden, um so dem Benutzer sofort die Möglichkeit zu<br />
geben, eventuelle Korrekturen vorzunehmen. Alles wird korrekt gerendert, auch wenn das<br />
Objekt bewegt wird. Das verleiht den Eindruck, virtuelle Farbe auf das Objekt gebracht zu<br />
haben.<br />
4 Registrierungsfehler<br />
Kein heutiges Augmented Reality System ist perfekt. Daraus ergibt sich zwangsläufig, dass in<br />
jedem System Registrierungsfehler vorkommen. Wie groß diese Fehler sind hängt unter<br />
anderem von der verwendeten Hardware und Software ab. [MGGNTO] stellt einen online-<br />
Algorithmus, mit dem die Genauigkeit eines Head-Mounted-Display Augmented Reality<br />
Systems bestimmt werden kann, vor. Welche Fehler noch zu tolerieren sind hängt dabei vom<br />
Anwendungsbereich ab. Bei chirurgischen Eingriffen muss sicher genauer gearbeitet werden<br />
als bei einem Raketenzielsystem. Die folgenden Beschreibungen und Berechnungen beziehen<br />
sich auf ein System mit einem Head-Mounted-Display (HMD).<br />
4.1 Fehlermaße<br />
Bei einem Registrierungsfehler wird ein Punkt nicht genau auf der erwarteten Stelle<br />
abgebildet. Der dargestellte Punkt kann weiter hinten/vorne und/oder weiter rechts/links als<br />
erwartet erscheinen. Daraus ergeben sich die Fehlermaße aus Abbildung 2.
131 Alexander Lorenz<br />
E<br />
r<br />
Θ/2<br />
r<br />
P<br />
s = lateral error<br />
b = linear error<br />
t = depth error<br />
P’<br />
Abbildung 2: die verschiedenen Fehlermaße ([Ho])<br />
E ist das Auge des Betrachters, P der echte Punkt und P’ der falsch dargestellte Punkt. Der<br />
lateral error beschreibt die seitliche Abweichung, beantwortet also die Frage wo der Punkt P’<br />
erscheinen würde, wenn er denselben Abstand vom Betrachter hätte wie P. Der depth error<br />
gibt die Abweichung in der Tiefe an und beschreibt die Frage wie viel weiter hinten oder<br />
vorne der Punkt P’ liegt. Schließlich bestimmt der linear error den Abstand zwischen P und<br />
P’.<br />
Θ<br />
s = 2r<br />
sin<br />
2<br />
Der seitliche Fehler wird dann angegeben durch:<br />
Der Tiefenfehler wird angegeben durch:<br />
t =<br />
v E<br />
− v<br />
_ P'<br />
E _ P<br />
wobei<br />
v<br />
E _ P'<br />
und<br />
E P<br />
v _<br />
die Größen der Vektoren von E nach P und von E nach P’ sind.<br />
Jetzt könnte man meinen, wozu braucht man den lateral und den depth error? Der linear error<br />
beschreibt schließlich beides. Man braucht den seitlichen Fehler sowie den Tiefenfehler unter<br />
anderem deshalb, weil bei stereoskopischer Sicht der Fall vorkommen kann, dass die<br />
Projektionen eines Punktes parallel sind, was zu einem unendlichen linear error führt, der<br />
dann natürlich nicht aussagekräftig ist ([Ho]).<br />
4.2 Fehlertypen<br />
Es gibt im Wesentlichen vier Fehlerkategorien ([Ho95]). Jeder Fehler kann einer dieser<br />
Kategorien zugeordnet werden.<br />
• Erstellungs- und Ausrichtungsfehler: das sind Fehler bei der Erstellung der Daten, z.B.<br />
können beim Einscannen Artefakte auftreten, oder bei der Darstellung in Polygonen<br />
entstehen gewisse Abweichungen. Fehler in der Ausrichtungsprozedur mit den<br />
Landschaftsmerkmalen gehören ebenso zu dieser Kategorie.<br />
• Fehler in der Verfolgung der Kopfbewegungen: das sind Fehler in den<br />
Transformationen zwischen Welt und Tracker und zwischen Tracker und Sensor, die<br />
den Standort des HMD in der Welt definieren. Ursachen hierfür sind<br />
Kalibrierungsfehler, Verzögerungen und Tracker-Messfehler.
132 Mathematische Grundlagen für Augmented-Reality Systeme<br />
• Display Fehler: das sind Fehler in der Darstellung. Dazu gehören optische Verzerrung,<br />
falsche Kalibrierung des virtuellen Bildes mit Bezug auf die Sensoren des Trackers,<br />
ein nicht-flaches Display, seitliche Farbabweichung etc.<br />
• Sichtfehler: Fehler in der internen Darstellung des Blickpunktes des Benutzers. Hierzu<br />
zählen Augenbewegungen, Kalibrierungsfehler und Verrutschen des HMD.<br />
Zu den größten Fehlern gehören die Fehler der zweiten und dritten Fehlerkategorie, die<br />
deswegen auch ausführlicher betrachtet werden.<br />
4.2.1 Verzögerungen im System<br />
Verzögerungen im System gehören zu den Fehlern in der Verfolgung der Kopfbewegungen,<br />
sie sind die größten Fehlerursachen. Selbst kleine Kopfbewegungen haben zum Teil große<br />
Registrierungsfehler zur Folge, die sofort jede Illusion der echten Einbettung virtueller<br />
Objekte in die Landschaft zerstören. Verzögerungen im System sind die Summe aller<br />
Verzögerungen von dem Zeitpunkt an, wo die Positionsbestimmung des Kopfes durchgeführt<br />
wird bis zu dem Zeitpunkt wo das Bild erstellt und schließlich dargestellt wird. Im Einzelnen<br />
sind die Verzögerungsursachen ([Ho]):<br />
• Tracker: die Zeit um Daten zu sammeln und Berechnungen durchzuführen<br />
• Host-Computer-Verzögerung: Holen und Senden der Tracker-Daten,<br />
Betriebssystemaufgaben etc.<br />
• Bilderstellung: die Zeit um das Bild zu rendern<br />
• Videosynchronisation: Warten auf den nächsten Videoframe<br />
• Frame-Verzögerung: viele Geräte zeichnen das Bild sequentiell von oben nach unten,<br />
das dauert bei 60 Hz etwa 17 s. Wenn man also bei der unteren Zeile angekommen ist,<br />
ist das dortige Bild etwa 17 s alt.<br />
• interne Display-Verzögerung<br />
Der Registrierungsfehler durch Verzögerung ist für unbewegliche Objekte durch die Stärke<br />
der Kopfbewegung von dem Zeitpunkt, an dem die Position bestimmt wurde bis zu dem<br />
Zeitpunkt, an dem das Bild dargestellt wird, bestimmt. Für diesen Fehler gilt dann:<br />
b<br />
delay<br />
=<br />
v<br />
head<br />
∆t<br />
+<br />
Θ<br />
head<br />
2sin<br />
S _ P'<br />
Gleichung 7<br />
2<br />
∆t<br />
v<br />
wobei Θ head die Winkelgeschwindigkeit und v head die geradlinige Geschwindigkeit des Kopfes<br />
angibt, ∆t ist die Netzverzögerung und v S_P’ gibt die Entfernung des Punktes P’ vom Sensor<br />
an. Die Geschwindigkeitswerte sind natürlich anwendungsbereichsabhängig. Man kann davon<br />
ausgehen, dass ein Kampfpilot schnellere Bewegungen macht als ein Chirurg. Bei einer<br />
Operation liegt die durchschnittliche Geschwindigkeit bei 164 mm/s und 20 °/s, das<br />
Maximum bei etwa 500 mm/s und 50 °/s. Setzt man letzteres in die Formel ein (für die<br />
Netzverzögerung ∆t nehmen wir 65 ms, was die minimale Verzögerung eines Pixel-Planes<br />
Rendering Systems darstellt, und die für die Entfernung ||v S_P’ || 500 mm) erhält man:<br />
b delay<br />
= 500 mm / s ⋅0.<br />
065s<br />
+
133 Alexander Lorenz<br />
was einen sehr großen Fehler darstellt. Nehmen wir die Durchschnittswerte entstehen immer<br />
noch 22 mm Fehler. Die Frame-Verzögerung ist da allerdings noch nicht mit eingerechnet,<br />
was noch einmal 17 ms ausmachen kann. Aus der einfachen Rechnung kann eine Regel<br />
abgeleitet werden, für jede Millisekunde Verzögerung muss man mit etwa 1 mm<br />
Registrierungsfehler rechnen im schlechtesten Fall, im Durchschnitt 1/3 mm/ms. Wenn man<br />
aber im Submillimeterbereich arbeiten will, hilft nur eine vorrausschauende<br />
Kopfbewegungsbestimmung. Verzögerungsfehler stellen eine so große<br />
Registrierungsfehlerquelle dar, dass sie größer ist als alle anderen Quellen zusammen!<br />
4.2.2 Weltkoordinatensystem-Fehler<br />
Dieser Fehler gehört ebenfalls zur zweiten Klasse. Normalerweise hat man ein benutzer- oder<br />
systemdefiniertes Weltkoordinatensystem als Referenz. Ein solches System wird z.B. dann<br />
gebraucht, wenn man einen Tracker hat, der Punkte in der Welt (W) genau bestimmen kann,<br />
aber keine Kopfbewegungen verfolgen kann ([Ho]). Dann ist W als<br />
Referenzkoordinatensystem gegeben und T wird relativ dazu ausgedrückt. Um jetzt den<br />
virtuellen Punkt P richtig auszurichten muss er in einem Koordinatensystem angegeben<br />
werden, das dem System bekannt ist, also das Sensorkoordinatensystem. Eine Möglichkeit ist<br />
es, den Punkt P relativ zu einem Weltkoordinatensystem W zu messen, und dann diesen<br />
Vektor in das Sensor-Koordinatensystem zu transformieren:<br />
v<br />
S _ P<br />
= T<br />
S _ T<br />
⋅T<br />
T _ W<br />
Gleichung 8<br />
⋅v<br />
W _ P<br />
T T_W stellt dabei die Transformation von W nach T dar, T S_T von T nach S. v W_P und v S_P sind<br />
die entsprechenden Vektoren. Eine zweite Methode ist es, den Punkt mit Bezug auf das<br />
Tracker-Koordinatenssytem zu messen, indem der Punkt mithilfe mehrerer Messungen im<br />
Tracker-Raum digitalisiert wird. Das führt dann zu folgender Gleichung:<br />
v<br />
S _ P<br />
= T<br />
S _ T<br />
⋅v<br />
T _ P<br />
Gleichung 9<br />
Diese Methode hat bessere Fehlereigenschaften, da der Fehler b W_T wegfällt, ist aber nicht<br />
immer möglich, da die meisten guten digitalen Tracker nicht für Kopfverfolgung geeignet<br />
sind. Nur durch Fehler in der Bestimmung des Ursprungs und der Ausrichtung des Tracker-<br />
Koordinatensystem mit Bezug auf das Welt-Koordinatensystem ergibt sich für den Fehler<br />
b W_T :<br />
b W<br />
= δ v<br />
_ T<br />
W _ T<br />
δ Θ<br />
+ 2⋅sin<br />
Gleichung 10
134 Mathematische Grundlagen für Augmented-Reality Systeme<br />
δv W_T ist der Fehler in der Bestimmung des Ursprungs, δΘ W_T der Ausrichtungsfehler. Nur<br />
durch den Ausrichtungsfehler bekommen wir bei einer Entfernung von 500 mm des Kopfes<br />
vom Tracker-Ursprung und 500 mm des Punktes vom Sensor einen Fehler von 4 bis 10 mm.<br />
Um die Kopfposition und –ausrichtung zu bestimmen (T T_S ) kommen noch mehr Fehler<br />
hinzu.<br />
4.2.3 Tracker-Messfehler<br />
Der Tracker-Fehler kann in drei Kategorien eingeteilt werden ([Ho]):<br />
• statische Feldstörung: systematische, wiederholbare Störung der Messgröße z.B. durch<br />
Metall bei magnetischen Trackern. Kann durch Kalibrierung bis zu dem Grad behoben<br />
werden wie er wiederholbar und systematisch ist.<br />
• nicht-wiederholbare Tracker-Fehler (Jitter): dieser Fehler kann nicht herauskalibriert<br />
werden, dazu gehören sowohl kurzzeitige Störungen wie auch Langzeitstörungen<br />
• dynamische Tracker-Fehler: jeder Fehler, der durch die Bewegung des Sensors<br />
hervorgerufen wird<br />
Der Gesamtregistrierungsfehler durch Tracker-Messfehler kann durch die Gleichung 11<br />
ausgedrückt.<br />
b<br />
trac ker<br />
=<br />
δ v<br />
T _ S<br />
δ ΘT<br />
_ S<br />
+ 2⋅sin<br />
⋅<br />
2<br />
v<br />
S _ P<br />
Das zeigt, dass Verschiebungsfehler nur zum Registrierungsfehler addiert werden, der<br />
Ausrichtungsfehler aber mit der Entfernung zum Punkt P multipliziert wird. Für die Polhemus<br />
Fastrak z.B. bekommt man für eine Entfernung von 500 mm einen Fehler von 2.6 mm ([Ho]).<br />
4.2.4 Optische Verzerrung<br />
Dieser Fehler gehört zu den Display-Fehlern. Viele HMDs erzeugen eine Verzerrung des<br />
Bildes, d.h. ein Punkt wird etwas weiter seitlich dargestellt als er eigentlich sollte. Die<br />
häufigste Art der Verzerrung ist die so genannte pincushion distortion. Dabei werden die<br />
Punkte je weiter sie von der optischen Achse entfernt liegen umso weiter nach außen verzerrt<br />
(das Gegenteil davon wird barrel distortion genannt). Die seitliche Abweichung eines Punktes<br />
kann man durch Gleichung 12 annähern.<br />
r = m⋅<br />
r + k<br />
i<br />
s<br />
3<br />
( mrs<br />
)<br />
Gleichung 12<br />
r i bezeichnet dabei den Abstand von der optischen Achse zum Punkt im Bild, m ist die lineare<br />
Vergrößerung, k ist der Koeffizient für die optische Verzerrung und r s ist der Abstand von der<br />
optischen Achse zum Punkt im Bildschirm. Da man auf der optischen Achse keinen (oder nur<br />
einen sehr geringen Fehler im stereoskopischen Fall) sieht, der aber zum Rand hin immer<br />
größer wird, ist Vorsicht geboten, wenn man größere Displays einsetzen möchte. Da der<br />
Fehler sich mit der Zeit nicht ändert, könnte man dem eigentlich sehr gut entgegenkommen,<br />
indem man eine Vorverzerrung z.B. mittels Texture Mapping, das von [WaHo] beschrieben<br />
wird, vornimmt. Leider sind diese Methoden zurzeit noch so rechenintensiv, dass der Fehler<br />
zwar korrigiert werden kann, aber durch die zusätzliche Verzögerung ein noch viel größerer<br />
Fehler entsteht.<br />
Wie kann man sich diesen Fehler optisch vorstellen? Dazu werfen wir einen Blick von oben<br />
auf die Szenerie.
135 Alexander Lorenz<br />
LE<br />
LI<br />
screen<br />
image<br />
RI<br />
RE<br />
Abbildung 3: Auswirkung der optischen Verzerrung von oben gesehen ([Ho])<br />
LE und RE sind das linke und das rechte Auge. LI und RI sind die Zentren der zwei Bilder.<br />
Die gestrichelten Linien zeigen die echte Lage an, die durchgezogenen Linien die Verzerrung.<br />
Für das linke Auge gilt, dass aufgrund der Verzerrung die Punkte auf dem Bildschirm weiter<br />
nach unten versetzt sind (eigentlich nach rechts, da wir ja von oben auf die Szenerie schauen),<br />
und zwar je weiter weg vom Zentrum, desto größer ist die Abweichung. Beim rechten Auge<br />
verschiebt sich der Punkt des oberen Randes des Rechtecks nicht, weil er genau auf das<br />
Zentrum fällt. Der untere Rand des Rechtecks verschiebt sich dagegen wieder gemäß der<br />
üblichen Abweichung. So entsteht eine Verzerrung und die Objekte am Rand des<br />
Bildschirmes machen den Eindruck als würden sie auf den Benutzer zukommen. Ist ein<br />
Objekt erst in der Mitte des Sichtfeldes, so ist es nicht verzerrt. Bewegt jetzt der Benutzer<br />
seinen Kopf, so dass das Objekt jetzt am Rand des Bildes ist, so scheint es als hätte das<br />
Objekt seine Form geändert. Wenn man eine stereoskopische Sicht benutzt, dann entsteht<br />
natürlich immer ein kleiner Fehler, da ein Objekt nie gleichzeitig im Zentrum des Bildes des<br />
linken Auges und des rechten Auges sein kann.<br />
5 Abschließender Kommentar<br />
Die affine Repräsentation aller Punkte bringt den großen Vorteil mit sich, dass komplett auf<br />
Kalibrierungen versichtet werden kann, womit eine Fehlerquelle für Registrierungsfehler und<br />
eine teilweise langwierige Kalibrierungsprozedur beseitigt wird. Da das Koordinatensystem<br />
erst zur Laufzeit berechnet werden kann, können auch erst dann virtuelle Objekte platziert<br />
werden. Allerdings gibt es noch einige Probleme und Einschränkungen mit diesem System.<br />
Es müssen in jedem Bild bestimmte Merkmale verfolgt werden. Diese Merkmale müssen<br />
einen sehr hohen Kontrast und eine einfache Struktur aufweisen. Kein Merkmale darf je<br />
verdeckt oder außerhalb des Sichtradius’ sein, es muss immer eine Verfolgung gewährleistet<br />
sein. Man könnte diese Einschränkung umgehen, indem man mehr als vier Bezugspunkte<br />
wählt. Doch es ist noch nicht ganz klar wie mit einer wechselnden Anzahl von Bezugpunkten<br />
von einem Bild zum nächsten umgegangen werden soll.<br />
In jedem heutigen AR-System sind Registrierungsfehler vorhanden. Darum stellt sich zurzeit<br />
nicht die Frage, ob man ein registrierungsfehlerfreies System bekommt, sondern wie viel<br />
Registrierungsfehler für ein bestimmtes Anwendungsgebiet noch akzeptabel sind. Das größte<br />
Problem stellt die zeitliche Verzögerung im System dar. Sie produziert so viel Fehler wie alle<br />
anderen Fehlerquellen zusammen und lässt Submillimeter-Anwendungen fast unmöglich<br />
erscheinen. Deshalb gilt es hier noch effizientere, schnellere Hard- und Software zu<br />
entwickeln. Optische Verzerrung ist eine weitere auffällige Fehlerquelle. Zurzeit kostet die<br />
Behebung dieses Fehlers so viel zusätzliche Zeit, dass dadurch mehr Fehler produziert werden<br />
als behoben werden. Trackermessfehler lassen sich dagegen durch sorgfältige Kalibrierung<br />
weitestgehend vermeiden.
136 Mathematische Grundlagen für Augmented-Reality Systeme<br />
Referenzen<br />
[VaKu]<br />
[Vall]<br />
[Ho]<br />
[WaHo]<br />
[MGGNTO]<br />
[Ho95]<br />
[VaKu98]<br />
Vallino J., Kutulakos K. N.:<br />
Augmented Reality Using Affine Object Representation<br />
Fundamentals of Wearable Computers and Augmented Reality<br />
Lawrence Erlbaum Associates, Inc. Publisher, 157 - 182<br />
Vallino J.:<br />
Augmented Reality with Minimal Calibration<br />
http://www.se.rit.edu/~jrv/research/ar/thesis.html<br />
Holloway R. L.:<br />
Registration Error Analysis for Augmented Reality Systems<br />
Fundamentals of Wearable Computers and Augmented Reality<br />
Lawrence Erlbaum Associates, Inc. Publisher, 183 – 218<br />
Watson A., Hodges F.:<br />
Using Texture Maps to Correct for Optical Distortion in Head-Mounted Displays<br />
Proceedings VRAIS ’95, IEEE Virtual Reality Annual Symposium (Research Triangle<br />
Park, March), 172 – 178<br />
McGarrity E., Genc Y., Navab N., Tuceryan M., Owen C.:<br />
Evaluation of Calibration for Optical See-Through Augmented Reality Systems<br />
Proceedings of the IEEE and ACM International Symposium on Augmented Reality,<br />
157 – 166<br />
Holloway R. L.:<br />
Registration Errors in Augmented Reality Systems<br />
Dissertation 1995<br />
Vallino J., Kutulakos K. N.:<br />
Calibration-Free Augmented Reality<br />
Computer Science Departement, Univerity of Rochester
Wearable Computer und Augmented Reality<br />
Anwendungen<br />
Hermann Kollmar<br />
Konstanzer Str. 26<br />
D-69126 Heidelberg<br />
Hermann.Kollmar@FernUni-Hagen.de<br />
Zusammenfassung: Wearable Computer (WC) werden bereits in den verschiedensten<br />
Bereichen eingesetzt. Auch für Augmented Reality (AR) existieren schon zahlreiche Anwendungsgebiete.<br />
WC erweitern dabei die Einsatzmöglichkeiten dieser Technologie dort,<br />
wo Mobilität gefragt ist. Die derzeit bedeutendsten Anwendungsbereiche solcher WCund<br />
WC/AR-Systeme sind Fertigungsprozesse und Wartung, Militär, Medizin, Logistik,<br />
Architektur und Unterhaltung. Eine Entwicklungsrichtung zielt darauf ab, WC zunehmend<br />
direkt in die Kleidung zu integrieren. Für die Zukunft ist zu erwarten, dass WC zu<br />
tiefgreifenden Änderungen in Handlungsabläufen des täglichen Lebens und Kommunikationsformen<br />
mit Computern im weitesten Sinne führen.<br />
1 Einführung<br />
1.1 Begriffsdefinitionen<br />
1.1.1 Wearable Computer<br />
Die Grenze zwischen herkömmlichem Computersystem und Wearable Computer (WC) ist<br />
etwas unscharf: Tragbare Computer im Sinne eines Laptops sind damit eigentlich noch nicht<br />
gemeint (es sei denn, sie sind irgendwie am Körper befestigt), in der Regel kann man ungefähr<br />
ab der Größe eines Handheld (z.B. PDA) und darunter von einem WC sprechen. Neben<br />
diesen in der Hand tragbaren Computersystemen bezeichnet man aber besonders informationstechnische<br />
Geräte, die am Körper oder an der Kleidung getragen werden oder sogar direkt<br />
in Kleidungsstücke integriert sind, als WC [Bab01]. Ob man auch noch bei vollständig<br />
implantierbaren Systemen von „wearable“ sprechen will, ist fraglich.<br />
1.1.2 Augmented Reality<br />
Augmented Reality (AR) bedeutet, dass die Wirklichkeit, so wie wir Menschen sie wahrnehmen,<br />
um bestimmte virtuelle, von einer entsprechenden Elektronik (z.B. PC) generierte Informationen<br />
angereichert, d.h. überlagert wird. Die Präsentation dieser Superposition aus Realität<br />
und Virtualität erfolgt dann auf eine für den menschlichen Betrachter geeignete Weise<br />
(bei visuellen Informationen z.B. über ein Brillensystem).<br />
1.2 Spezifische Technologien<br />
WC und AR greifen bei ihrem Einsatz auf eine Reihe spezifischer Technologien zurück, die<br />
sich insbesondere auf die folgenden Punkte beziehen:<br />
• Rechenleistung: Neben Anwendungen für WC, die die Rechenleistung und Vielseitigkeit<br />
eines herkömmlichen Computersystems benötigen, gibt es viele, bei der die Hardware abgespeckt<br />
und auf die spezifische Aufgabe abgestimmt werden kann, wodurch dann oft<br />
überhaupt erst „Tragbarkeit“ erreichbar ist. In solchen Fällen kommen statt vollwertiger<br />
Computersysteme in der Regel Microcontroller zum Einsatz.
138 Wearable Computer und Augmented Reality Anwendungen<br />
• Netzwerkanbindung: Häufig werden WC in ein meist drahtloses lokales Netzwerk (<strong>wireless</strong><br />
LAN) eingebunden: Wenn verschiedene Teile eines WC am Körper verteilt sind, können<br />
diese über ein sog. Body-LAN (auch als Personal Area Network, kurz PAN bezeichnet)<br />
miteinander kommunizieren, oder aber der WC ist als Ganzes über ein LAN oder eine<br />
andere spezielle Funkschnittstelle in einen größeren informationstechnischen Kontext eingebunden.<br />
• Eingabegeräte: Statt der gewöhnlichen Eingabegeräte wie Maus und Tastatur können zur<br />
Steuerung und Dateneingabe z.B. spezielle Miniaturtastaturen (beispielsweise am Handgelenk<br />
zu tragen oder einhändig bedienbar), Touchpads, Trackballs, Datenhandschuhe<br />
oder Spracherkennung verwendet werden. Es gibt auch bereits Versuche mit Techniken,<br />
die Gebärden bzw. Gestiken, elektrische Hirn- oder Muskelströme zur Steuerung einsetzen<br />
[BBS01].<br />
• Ausgabegeräte: Hier kommen statt eines Monitors neben Sprache vor allem brillenbasierte<br />
optische Darstellungssysteme zur Anwendung [Blü02], [Bab01]: Bei einem Head-<br />
Mounted-Display (HMD) nimmt eine am Brillengestell befestigte Videokamera die reale<br />
Szene auf. Zusammen mit virtuellen Informationen werden diese Bilder über kleine, ebenfalls<br />
an der Brille montierten Monitore einem (monokular) oder beiden Augen (biokular)<br />
zur Anzeige gebracht. Ähnlich funktioniert ein See-Through-HMD: Hier werden die virtuellen<br />
Informationen auf einem an der Brille befestigten Monitor über einen vor dem Auge<br />
des Betrachters angebrachten halbdurchlässigen Spiegel in dessen reale Sicht eingefügt.<br />
Statt eines Monitors können die virtuellen Daten auch mittels eines Laserscanners auf die<br />
Netzhaut projiziert werden.<br />
In zunehmendem Maße kommen auch haptische Ausgabegeräte wie Force-Feedback-<br />
Displays zum Einsatz.<br />
Abb. 1: Monokulares See-Through-HMD [LuI] und Handgelenkstastatur [WL]<br />
• Tracking-Systeme: Damit zum realen Sichtfeld passende virtuelle Informationen hinzugefügt<br />
werden können, muss ermittelt werden, worauf der Betrachter schaut bzw. welche<br />
Objekte sich in seinem Sichtfeld befinden und wie der Blickwinkel auf diese ist. Gerade<br />
im Zusammenhang mit WC-Systemen unter outdoor-Bedingungen ist das präzise<br />
Tracking meist schwierig. Daher kommen in solchen Situationen in der Regel Kombinationen<br />
aus mehreren der weiter unten vorgestellten Verfahren zur Anwendung. Man<br />
spricht dann auch von hybriden Tracking-Systemen [AHN99]. Die Position des Beobachters<br />
kann man z.B. mittels GPS tracken, die Orientierung seines Kopfes (Blickrichtung)<br />
durch einen am Kopf befestigten elektronischen Kompass, evtl. kombiniert mit einem<br />
Neigungsmesser. Man kann auch Objekte in der Umgebung des Beobachters tracken: Die<br />
hierzu eingesetzten Tracking-Systeme arbeiten meist auf optischer Basis. Beim sog. Marker<br />
Tracking werden an den zu trackenden Objekten Registriermarken angebracht, z.B. in<br />
Form von Strichcodes oder Kreisen. Das Landmark Tracking hingegen erhält seine Bezugspunkte<br />
aus markanten, fest stehenden Objekten der Umgebung. Auch planare Flä-
139 Hermann Kollmar<br />
chen, beispielsweise von Gebäuden, sind hierfür nutzbar. Diese Methode spielt insbesondere<br />
in der Architektur eine bedeutende Rolle.<br />
Abb. 2: WC-System VuMan 2 von der Carnegie Mellon Universität mit HMD und Drei-Tasten-<br />
Eingabegerät [VuM]<br />
1.3 Verknüpfung von WC und AR<br />
Zunächst lassen sich die beiden Begriffe unabhängig voneinander betrachten: Grundsätzlich<br />
gibt es Applikationen für WC, die keine AR nutzen und umgekehrt solche für AR, die nicht auf<br />
einem WC laufen, sondern auf herkömmlichen Rechnersystemen.<br />
Die vorliegende Arbeit fokussiert hauptsächlich auf solche WC-Anwendungen, bei denen<br />
beide Technologien miteinander verbunden sind: WC erweitern hier die Anwendungsmöglichkeiten<br />
von AR um solche, bei denen Erfassung, Verarbeitung oder Präsentation der Daten<br />
mittels gewöhnlicher Computer nicht praktikabel wäre.<br />
2 Anwendungsgebiete<br />
Für WC und AR existieren mittlerweile zahlreiche Einsatzmöglichkeiten. Die wichtigsten sollen<br />
im folgenden exemplarisch dargestellt werden:<br />
2.1 Fertigungsprozesse und Wartung<br />
Bei einem Fertigungsprozess fallen gewöhnlich viele Daten an, z.B 3D-Strukurpläne von<br />
Teilen, Montageanleitungen, oder den Materialfluss betreffend. Hierbei ist die Verfügbarkeit<br />
und die Möglichkeit zur Manipulation von diesen Daten an beliebigem Ort und jederzeit im<br />
Produktionsablauf wünschenswert. Außerdem finden Montagearbeiten oft unter ungünstigen<br />
räumlichen Bedingungen statt, wo die Verwendung von herkömmlichen Rechnern wie Desktop<br />
oder Laptop nicht möglich ist, zumal wenn der Monteur beide Hände zum Arbeiten<br />
braucht. Mittels WC und AR hingegen ist die Visualisierung dreidimensionaler oder textueller<br />
Daten sowie ein intuitiver, interaktiver Umgang mit diesen Daten auch unter den oben<br />
geschilderten Umständen möglich. Als Ausgabegerät wird dabei meist ein HMD verwendet.<br />
Dies eröffnet u.a. folgende Möglichkeiten [BBS01]:<br />
• Visualisierung von 3D-Bauteilmodellen direkt an der benötigten Stelle im Montageprozess<br />
• Simulation von Arbeitsabläufen mit der Möglichkeit zur Visualisierung des Ergebnisses<br />
direkt auf den betreffenden Werkstücken<br />
• Hilfe bei manuellen Produktionsvorgängen: Beispielsweise kann durch Einblenden einer<br />
Markierung in das Sichtfeld auf das Werkstück direkt die exakte Bohrlochposition angegeben<br />
werden<br />
• Training vor Ort z.B. bei Einführung neuer Montagetechniken oder technischen Änderungen<br />
von Bauteilen<br />
• beidhändiges Arbeiten bei simultaner Projektion von relevanten Informationen (z.B. über<br />
den nächsten auszuführenden Arbeitschritt, hierfür benötigte Werkzeuge und Materialien)
140 Wearable Computer und Augmented Reality Anwendungen<br />
auf das jeweilige Arbeitsumfeld. Dadurch werden auch Informationen in gedruckter Form<br />
wie Pläne usw. überflüssig und der Monteur kann sich voll auf den eigentlichen Arbeitsablauf<br />
konzentrieren. Sprachausgabe ist hier ebenfalls einsetzbar.<br />
• Hilfe bei der Qualitätskontrolle: Über ein HMD kann dem Arbeiter z.B. angezeigt<br />
werden, wo und welche Maßnahme er durchführen muss. Mittels einer zum WC-System<br />
gehörenden Videokamera oder per Spracheingabe kann dabei gleich die Dokumentation<br />
der ausgeführten Tätigkeiten erfolgen.<br />
Derartige Systeme werden u.a. in der Automobilproduktion [RSK99] und im Flugzeugbau<br />
[CMG99] bereits seit einiger Zeit eingesetzt, aber auch bei Inspektions- und Wartungsarbeiten<br />
zeigen sie ihre Stärken: Zur Wartung von Flugzeugen gehört beispielsweise auch die Untersuchung<br />
der Flugzeughaut auf Korrosion und Risse. Gerade hier kommt die physische Bewegungsfreiheit,<br />
die ein WC dem Servicepersonal ermöglicht, voll zum Tragen.<br />
Abb. 3: Links: WC-System VuMan 2R beim Einsatz in der Flugzeugwartung; Rechts: Das<br />
Eingabegerät besteht aus einer Drehscheibe mit drei Drucktasten, womit der Anwender z.B.<br />
durch mittels des HMD angezeigter Menus navigieren kann [VuM]<br />
2.2 Militär<br />
Dieses Einsatzgebiet stellt bezüglich der Technik auch einige spezifische Anforderungen an<br />
WC-Systeme [TRL01]: Gerade bei Kampfeinsätzen sind Steuerungen durch kontinuierlichen<br />
Sprachfluss schlecht einsetzbar. Bezüglich Störgeräuschen unempfindliche Systeme, die nur<br />
auf einzelne Worte oder kurze Phrasen reagieren, eignen sich hier besser. Eine hundertprozentige<br />
Zuverlässigkeit insbesondere bei Kommandos wie „Feuer!“ muss selbstverständlich<br />
sein. Daneben werden besondere Anforderungen an Robustheit, Gewicht und Batterielebensdauer<br />
gestellt.<br />
Im Folgenden sind die wichtigsten militärischen Anwendungsbereiche kurz erläutert[TRL01]:<br />
2.2.1 Kommunikation<br />
Für die Truppenführung gehören gute Kommunikationsmöglichkeiten zu den wichtigsten<br />
Dingen. Im Rahmen einer Aufklärungsmission ist es z.B. grundsätzlich gefährlich, direkt Informationen<br />
an Ort und Stelle drahtlos zu übermitteln, da der Sender dabei angepeilt werden<br />
kann. Wird mit der Weitergabe hingegen bis zur Rückkehr gewartet, ist die daraus entstehende<br />
Zeitverzögerung evtl. zu groß. Ein WC-System kann hier helfen, indem die Informationen<br />
vor Ort im WC gespeichert und erst bei Erreichen einer sicheren Position per Funk<br />
(z.B. über in die Ausrüstung bzw. Kleidung integrierte Antennen) weiter übermittelt werden.<br />
Angesichts des Trends zu multinationalen Einsätzen ist auch die Fähigkeit zu mobiler Kommunikation<br />
mittels automatischer Sprachübersetzung von großer Bedeutung.<br />
2.2.2 Orientierung<br />
In vielen Situationen ist die genaue Kenntnis der eigenen Position nötig (z.B. beim Anfordern<br />
von Artillerieunterstützung, damit man nicht in „friendly fire“ gerät). Aus diesem Grund
141 Hermann Kollmar<br />
wurde vom U.S.-Militär das Global Positioning System (GPS) entwickelt. Die von einem<br />
GPS-Empfänger gelieferten Ortskoordinaten können auf dem Display eines WC-Systems direkt<br />
in einer digitalen Karte angezeigt werden, beispielsweise als Punkt. Dies erleichtert die<br />
Orientierung. Auch die Routenplanung wird durch WC vereinfacht. Im Gegensatz zu zivilen<br />
Produkten müssen hier aber noch andere Faktoren wie verwendeter Fahrzeugtyp, Straßenzustand<br />
und Wetterbedingungen Berücksichtigung finden. WC können diese Informationen<br />
sammeln, aufbereiten und geeignet präsentieren.<br />
2.2.3 Logistik<br />
Militärische Einsätze erfordern neben der Erfassung, Zusammenführung und Bewertung verschiedenster<br />
Daten die Bewältigung zahlreicher logistischer Aufgaben auch direkt am Einsatzort.<br />
So müssen etwa verschiedene Berichte verfasst, die Reichweite der Ressourcen (Sprit,<br />
Munition, usw.) berechnet und Nachschub über entsprechende Formulare angefordert werden.<br />
Alle diese Aufgaben werden durch WC erleichtert, insbesondere sind diese Vorgänge damit<br />
papierlos zu bewerkstelligen.<br />
2.2.4 Wartung und Instandhaltung<br />
Das U.S.-Militär verwendet bereits seit geraumer Zeit verschiedene WC-Systeme bei der<br />
Wartung von Flugzeugen, Helikoptern und anderem komplexen technischen Gerät. Funktionell<br />
sind die hier eingesetzten Systeme mit den in Kapitel 2.1 vorgestellten zivilen Versionen<br />
vergleichbar.<br />
2.2.5 Medizinische Erstversorgung<br />
Für einen im Kampfeinsatz verwundeten Soldaten ist die erste Stunde danach die kritischste<br />
Zeit. Die übliche Rettungskette sieht so aus:<br />
• Erkennung, dass der Soldat überhaupt medizinische Hilfe braucht<br />
• Information der zuständigen Rettungsleitstelle, Anforderung eines Transportmittels<br />
• Untersuchung und Erstversorgung vor Ort<br />
• Transport zur nächstgelegenen medizinischen Einrichtung, dort weitere Untersuchungen<br />
und Versorgung, evtl. Verlegung in andere Einrichtungen<br />
WC mit entsprechender sensorischer Ausstattung können hier eine sehr wichtige Hilfe sein:<br />
Über Sensoren für die medizinischen Basisparameter Puls- und Atmungsfrequenz, Blutdruck<br />
und Blutsauerstoffgehalt kann der physische Zustand eines Soldaten permanent überwacht<br />
und durch ein eingebautes Expertensystem beurteilt werden. Bei Überschreiten kritischer<br />
Werte (die z.B. auf einen Schockzustand hindeuten) kann dann automatisch unter Übermittlung<br />
der gemessenen Werte im Sinne einer einfachen Erstdiagnose und der augenblicklichen<br />
räumlichen Position in Form von GPS-Daten adäquate Hilfe angefordert und zum Einsatzort<br />
dirigiert werden.<br />
Weiterhin können z.B. vom Rettungspersonal erste Videobilder samt Ton des Verwundeten<br />
mittels eines entsprechend ausgestatteten WC-Systems aufgenommen, komprimiert und zu<br />
einem Arzt der Leitstelle übermittelt werden, der dann auch in der Lage ist, Rückfragen zu<br />
stellen und Anweisungen zu geben. Außerdem kann der WC ein Inventar über die den Rettungskräften<br />
aktuell zur Verfügung stehenden Verbrauchsmittel wie Medikamente, Kanülen,<br />
Verbandsmaterial vorhalten, indem die Verpackungen diese Dinge mit einem Barcode versehen<br />
und bei Entnahme gescannt werden. Damit erfolgt auch gleichzeitig die sehr wichtige<br />
Dokumentation über Art, Umfang und Zeitpunkt der Medikation, die ein Verwundeter bis<br />
zum Eintreffen in einer medizinischen Einrichtung bereits erhalten hat. Diese Informationskette<br />
kann auch mit Verfahren der herkömmlichen Telemedizin gekoppelt werden, so dass auf<br />
diesem Wege auch weit entfernte Spezialisten oder Versorgungseinrichtungen z.B. in den<br />
USA direkt erreichbar sind.
142 Wearable Computer und Augmented Reality Anwendungen<br />
2.2.6 Integrierte WC-Systeme<br />
Ein Beispiel eines derartigen Systems ist der Land Warrior der U.S. Army [LW], [TRL01]:<br />
Dabei handelt es sich um eine allwetter- und nachttaugliche integrierte Kampfausrüstung für<br />
Infanteriesoldaten, die aus vier technischen Subsystemen besteht:<br />
• Helmsystem mit Computer und Display zum Anzeigen von digitalen Karten, Bildern der<br />
an der Waffe montierten Wärmekamera und weiteren Informationen<br />
• Befestigungssysstem mit Schutz vor ballistischen Einwirkungen<br />
• Waffensystem einschließlich Wärmebild- und Videokamera, Laser-Entfernungsmesser,<br />
Digitalkompass (koppelbar mit dem GPS)<br />
• Computer- und Funksystem, bestehend aus zwei Funkgeräten, GPS und menugesteuertem<br />
Computerinterface, steuerbar durch ein am Brustgurt befestigtes Zeigegerät<br />
Abb. 4: U.S. Infanterie-Waffensystem Land Warrior [LW]; mittels der am Gewehr befestigten<br />
Sensorik und des am Helm montierten Displays kann der Soldat sogar „um die Ecke“ feuern,<br />
ohne sich selbst wesentlich zu gefährden<br />
Eine neuere Entwicklung stammt von der Firma Xybernaut, USA. Das nur ca. 900 Gramm<br />
schwere System MA4-TC [MA] wird gesteuert von einem 400 MHz-P III-Prozessor mit einem<br />
wechselbaren Speichersystem. Alle kommerziell verfügbaren Standard-Betriebssysteme<br />
sind einsetzbar. Neben einer am Headset mit Bluetooth-Schnittstelle befestigten Farbkamera<br />
und Sprachsteuerung sollen in Kürze auch Spracherkennung und automatische Fremdsprachenübersetzung<br />
als Features hinzukommen. Das System wird zunächst bei der U.S. Navy<br />
und der Nationalgarde bei Wartungsteams für Flugzeuge und Waffensysteme zum Einsatz<br />
kommen im Rahmen einer entsprechenden Machbarkeitsstudie.<br />
Noch einen Schritt weiter gehen die Bestrebungen der Firma Natick Labs [FMW], wo man<br />
versucht, Computer und Elektronik direkt in die Textilien zu integrieren, einschließlich Antennen<br />
und Netzwerkfähigkeiten in Form eines short range-PAN (vgl. Kapitel 1.2). Die PANbasierte<br />
Technologie soll u.a. dazu dienen, chemische Kampfstoffe zu detektieren, den physischen<br />
Status des Soldaten zu überwachen und für eine positive Identifikation zu sorgen, um<br />
Opfer in den eigenen Reihen durch „friendly fire“ zu vermeiden. Inzwischen wurde auch bereits<br />
ein in Textilien integrierbares USB-Kabel entwickelt.<br />
Zusammen mit anderen Firmen ist man nun bestrebt, die Integration von optischen Fasern und<br />
herkömmlichen elektrischen Verbindungen in Textilien zur Serienreife zu bringen. Weitere<br />
Projekte beschäftigen sich u.a. mit der Entwicklung eines drucksensitiven Keyboards mittels<br />
einer soft-switch-Textilfaser.
143 Hermann Kollmar<br />
2.3 Medizin<br />
WC sind im gesamten Spektrum des Gesundheitswesens zum Nutzen sowohl des Patienten als<br />
auch des Arztes einsetzbar. Im Wesentlichen sind dies die Bereiche Prävention, Diagnose und<br />
Behandlung [SJ01] in verschiedenen Situationen, die beispielhaft näher erläutert werden sollen:<br />
2.3.1 Monitoring<br />
Wie im Kapitel 2.2.5 bereits für den militärischen Sektor dargestellt, bietet das Tragen von<br />
Smart Clothing oder anderen intelligenten Accessoires die Möglichkeit des permanenten und<br />
lokal unabhängigen Monitorings von über Sensoren nichtinvasiv erfassbaren wichtigen Gesundheitsparametern,<br />
der Medikation oder auch anderen Dingen wie Art und Ausmaß körperlicher<br />
Belastung eines Athleten: Hier können neben Basisparametern wie Puls, Atmung, Blutdruck<br />
usw. auch spezifische Belastungen an bestimmten Körperstellen wie Knie, Schulter,<br />
Fuß z.B. durch Druck- und Dehnungssensoren ermittelt werden.<br />
Abb. 5: Beispiel eines Sensorsystems zur Erfassung biometrischer Daten [Aff]<br />
Im Rahmen der Prävention kann man z.B. auch vollkommen gesunde, d.h. symptomlose Personen<br />
mit genetischer Prädisposition zu Herz-Kreislauf-Erkrankungen mittels über einen einfachen<br />
Brustgurt oder über in Textilien integrierte Sensoren abgeleitetes EKG permanent monitoren.<br />
Dieses Vorgehen bietet sich natürlich erst recht bei Personen mit bereits bestehender<br />
Symptomatik oder im Zustand nach schädigenden Ereignissen (z.B. Herzinfarkt) an. Ein<br />
weiteres wichtiges Beispiel ist die häusliche kontinuierliche Überwachung der Atembewegungen<br />
von Säuglingen mit Prädisposition zum „Plötzlichen Kindstod“, SIDS (Sudden Infant<br />
Death Syndrome) genannt. Die Daten können drahtlos an einen bedside-Monitor übertragen<br />
und dort ausgewertet werden. Im Falle eines länger dauernden Atemstillstands gibt das Gerät<br />
dann Alarm.<br />
Ganz neue Möglichkeiten ergeben sich durch WC auch für die häusliche Versorgung von Patienten:<br />
Üblicherweise sieht das Schema ungefähr so aus: Eine medizinische Kraft hat pro<br />
Tag eine bestimmte Anzahl von Personen zu versorgen, die nach Plan jeweils ein- oder mehrfach<br />
besucht und je nach Erfordernissen behandelt oder sonstwie unterstützt werden. Dabei<br />
erfolgt auch die Erhebung medizinischer Daten (Blutdruck. Puls, usw.), die man vorteilhafterweise<br />
auch permanent mittels geeignetem Sensorsystem eines WC ermitteln sowie<br />
loggen und auswerten könnte. Bei Gefahr kann dann der WC die Betreuungsperson, die ir-
144 Wearable Computer und Augmented Reality Anwendungen<br />
gendwo unterwegs ist, über Funk alarmieren und ihr beispielsweise über ein HMD die entsprechenden<br />
Informationen anzeigen, so dass diese sofort reagieren kann.<br />
Natürlich gibt es auch Situationen, wo das Monitoring mittels WC die einzige Möglichkeit<br />
dafür ist, etwa bei Raumflügen.<br />
2.3.2 Rettungswesen<br />
Das vom Universitätsklinikum Regensburg entwickelte WC-System NOAH (Notfall<br />
Organisations- und Arbeitshilfe) [Uch] stellt innovatives Kommunikationskonzept für das<br />
Rettungswesen dar. Wesentliches Ziel war es, die Kommunikationsanbindung des Notarztes<br />
an die Rettungsleitstelle und die Notaufnahmen der Krankenhäuser zu verbessern. Mit NOAH<br />
können für das Einsatzmanagement wichtige Informationen in Sekundenschnelle erfasst und<br />
optimal via digitalem Datenfunksystem weitergegeben werden:<br />
Mittels der am Einsatzort erhobenen Daten kann die Rettungsleitstelle während der Patientenversorgung<br />
einen Zielklinikvorschlag erarbeiten und den Patienten dort voranmelden. Die<br />
aufnehmende Klinik ist so frühzeitig in der Lage, vorbereitende Maßnahmen zur Weiterversorgung<br />
des Notfallpatienten zu treffen. Die Eingabe aller für die Notfalldokumentation (Notarzteinsatzprotokoll)<br />
nötigen Daten erfolgt unkompliziert mittels Stift per Touch-Panel oder<br />
Sprache. Auf diese Weise wird gegenüber herkömmlichen Vorgehensweisen ein sehr wichtiger<br />
Zeit- und Informationsvorsprung erreicht. Außerdem besteht die Möglichkeit, mittels einer<br />
Videokamera auch Bilder vom Einsatzort oder von Patienten und deren Verletzungen sowie<br />
12-Kanal EKG-Sequenzen mitzuschicken.<br />
Das ganze System, das ansonsten noch Zentraleinheit, Batterie, Kartenleser und ein GPS-Modul<br />
umfasst, ist in eine Rettungsdienstjacke integriert. Daneben existiert noch eine Systemversion<br />
in Form eines Kleinstcomputers mit integriertem Funkmodul.<br />
Abb. 6: WC-System NOAH [Uch]; eines seiner Features ist die Zielführung mittels GPS<br />
2.3.3 Implantierbare WC<br />
Ein weiteres enorm wichtiges medizinisches Einsatzgebiet für WC stellt der Diabetes<br />
(Zuckerkrankheit) dar. Die im Verlauf der Erkrankung regelmäßig auftretenden, mitunter<br />
schwerwiegenden Schädigungen an vielen Organen sind allesamt letztlich auf einen nicht<br />
exakt auf den aktuellen Blutglucosegehalt angepassten Insulinspiegel zurück zu führen. Neben<br />
dem persönlichen Leid ist der Kostenaufwand für die Behandlungen enorm. Nun ist es<br />
andererseits nicht praktikabel bzw. zumutbar, dass sich ein insulinpflichtiger Diabetiker sehr<br />
häufig am Tag nach erfolgter Blutzuckerkontrolle die entsprechende exakte Menge Insulin<br />
injiziert. Daher wird bereits seit geraumer Zeit an einer künstlichen Bauchspeicheldrüse gear-
145 Hermann Kollmar<br />
beitet: Ein vollständig unter der Haut liegendes Implantat soll permanent den Blutglucosegehalt<br />
messen, daraus die exakt benötigte Insulinmenge errechnen und diese mittels eines dazu<br />
gehörigen Pumpensystems freisetzen. Das Insulinvorratsbehältnis ist dabei per Injektion von<br />
außen nachfüllbar. Zusätzlich könnten z.B. alle Daten geloggt und vom Arzt zur Therapiekontrolle<br />
drahtlos abgerufen werden. Angesichts von weltweit etwa 500 Millionen Betroffenen<br />
[Ber03] wäre solch ein implantierbarer WC von unschätzbarem Wert.<br />
Auf andere intelligente Implantate, wie z.B. Herzschrittmacher, soll hier nicht weiter eingegangen<br />
werden.<br />
2.4 Logistik<br />
Ein Beispiel für den Einsatz von WC-Systemen in der Logistik ist das Wearable Scan System<br />
WSS [Sym] der Firma Symbol Technologies, USA. Das System wird z.B. in den Bereichen<br />
Lagerverwaltung, Produktion, im Einzelhandel, aber auch in anderen Branchen (beispielsweise<br />
im E-Commerce) eingesetzt.<br />
Das System besteht aus einem Scanner und einem am Unterarm befestigten Computer. Der<br />
Ring-Scanner wird am Zeigefinger getragen. Zum Aktivieren dieses Scanners zeigt man einfach<br />
mit dem Finger auf den maximal 60 cm entferneten Barcode, wobei gleichzeitig der<br />
Daumen gegen einen Auslöser drückt. Der für große Reichweiten vorgesehene Scanner wird<br />
auf dem Handrücken getragen. Mit ihm können Barcodes auf Paletten in einer Entfernung von<br />
bis zu 7,6 m gelesen werden. Der Computer besteht aus Prozessor (16 MHz NEC V25), hintergrundbeleuchtetem<br />
LCD-Display, programmierbare Membrantastatur, Lithiumionenakku<br />
und Funkkommunikationseinheit (max. Übertragungsrate: 11 Mbps) und bietet leistungsstarke<br />
Funktionen zur Informationserfassung, Datenverarbeitung und Datenkommunikation.<br />
Abb. 7: Tragbares Dateneingabegerät WSS mit Handrückenscanner und vergrößert<br />
dargestelltem Ringscanner (Bildmitte) [Sym]<br />
2.5 Architektur<br />
2.5.1 Bauaufnahme<br />
Bei einer Bauaufnahme erfolgt eine strukturierte Erfassung von Bauwerksinformationen z.B.<br />
zwecks einer Bestandsaufnahme durch Generierung eines komplexen digitalen Abbildes (Angabe<br />
von verwendeten Materialien, Konstruktionsmerkmale etc.) sowie die Erfassung weiterer<br />
planungsrelevanter Baubeschreibungen, verbunden mit einer Reduktion der Daten auf das<br />
Wesentliche. Die Erfassung der Geometriedaten erfolgt durch Verfahren aus den Bereichen<br />
Geodäsie, Architektur, Stadt- und Regionalplanung. Die hierzu notwendigen Erfassungsgeräte<br />
werden über den WC gesteuert und das aus den Eingabedaten resultierende Gebäudemodell<br />
kann dann per HMD in den Sichtbereich des Anwenders überlagert werden, der damit z.B. in
146 Wearable Computer und Augmented Reality Anwendungen<br />
der Lage ist, mögliche Fehler durch manuelle Anpassung des digitalen Modells an den<br />
Realbestand sofort zu eliminieren.<br />
Abb. 8: Szenario einer Bauaufnahme [Gre01]: Links die reale Szene, in der Mitte das aus den<br />
erfassten Daten vom Computer generierte Bild (statische Elemente), rechts der Gesamteindruck,<br />
der dem Anwender über ein HMD vermittelt wird<br />
2.5.2 Bauwesen<br />
Weitere Einsatzmöglichkeiten von WC/AR-Systemen gibt es auch bei der Konstruktion und<br />
beim Bau von Gebäuden: Wenn strukturelle Gebäudedaten wie z.B. statische Elemente, Wasserrohre<br />
oder elektrische Leitungen auf einem WC verfügbar sind, kann der Architekt, der<br />
diese Daten über ein HMD eingespiegelt bekommt, sich sozusagen mit Röntgenaugen durch<br />
ein reales Gebäude bewegen. Informationen, die normalerweise nur zweidimensional in Form<br />
von Plänen vorliegen, werden so plastisch und leichter „begreifbar“. Auch für spätere Wartungs-<br />
und Reparatureinsätze ist diese Möglichkeit hilfreich, da so nicht sichtbare oder<br />
abstrakte Strukturen vor Ort angezeigt werden können.<br />
2.5.3 Planung<br />
Bei der Planung von Bauwerken wird AR schon seit einiger Zeit eingesetzt: Beispielsweise<br />
können Bilder oder Videoaufnahmen von realen Szenen (z.B. das Baugrundstück oder der<br />
Rohbau) mir Modelldaten überlagert werden. Damit bietet sich dem Betrachter dann das Bild<br />
des fertigen Bauwerks [KSR01]. Die Portierung dieser AR-Techniken auf WC-Systeme erweitert<br />
auch hier die Möglichkeiten: Z.B. kann der Betrachter jetzt nicht nur sehen, wie sich<br />
ein Bauwerk, das noch gar nicht existiert, in die Umgebung einfügt, sondern er ist jetzt auch<br />
fähig, vor Ort nach Belieben um das virtuelle Gebäude herum oder auch hinein zu gehen.<br />
Ein Beispiel eines hierfür entwickelten Systems ist TINMITH2 von der University of South<br />
Australia [TPG99]: Zunächst wird von dem betreffenden Objekt mittels einer Standard-CAD-<br />
Software ein 3D-Modell erzeugt und in Form eines Sets aus 3D-Linien in der Datenbank des<br />
Systems abgelegt. Die Hardware besteht im Wesentlichen aus Tragegestell, Notebook, Batterie,<br />
Antenne, HMD, Mini-Keyboard sowie einem differenziell arbeitenden GPS-Modul und<br />
einem digitalen Kompass zum Tracken des Standorts und der Kopfposition des Benutzers.<br />
Die Software besteht aus mehreren Modulen, die in eine Client-Server-Struktur eingebunden<br />
sind und über TCP/IP miteinander kommunizieren.
147 Hermann Kollmar<br />
Abb. 9: Links: TINMITH2-System; auf dem Kopf ist der Digitalkompass montiert, der zum<br />
Tracken der Kopfbewegungen dient; am linken Unterarm befindet sich das Mini-Keyboard zur<br />
Eingabe von Daten oder Steuerung des Systems; Rechts: Blick durch das HMD: Die in der Datenbank<br />
gespeicherten Informationen des Objekts werden dem realen Sichtfeld überlagert [Tin]<br />
Die rechte Hälfte der Abb. 9 zeigt einen Blick durch das HMD, wie er sich dem Benutzer offenbart:<br />
Am rechten Rand ist die Überlagerung des realen Gebäudes mit Informationen aus<br />
der Datenbank in Form grüner Linien zu sehen; die ebenfalls grün linierte quaderförmige<br />
Struktur zeigt die Grundform eines geplanten Erweiterungsbaus. Es wäre auch möglich, statt<br />
dieser einfachen Liniendarstellung ein komplett gerendertes 3D-Modell, versehen mit Texturen<br />
für die Oberflächen und Berücksichtigung des Sonnenlichteinfalls bzw. des Schattenwurfs,<br />
einzublenden, was dann auch einen realistischen Aspekt des geplanten Gebäudeteils<br />
vermitteln würde. Sogar Animationen beweglicher Gegenstände wie Türen, Fenster oder Personen<br />
sind denkbar.<br />
Das TINMITH-System [Tin] wird laufend weiterentwickelt: In der aktuellen Version kann der<br />
Benutzer seinem Sichtfeld auch virtuelle Gegenstände wie Bäume, Tische, Laternen hinzufügen,<br />
die er mit einem Datenhandschuh frei platzieren, rotieren oder skalieren kann. Diese<br />
Möglichkeiten machen das System damit auch interessant für Aufgaben im Bereich Gartenarchitektur<br />
und Landschaftsbau. Ein weiteres Feature ist das sog. construction at a distance:<br />
Mit dieser Technik kann der Benutzer einfache geometrische Objekte (z.B. Flächen)<br />
platzieren und aus diesen dann Gebäude oder andere Dinge formen, welche zusätzlich noch<br />
texturiert werden können. Insgesamt lassen sich so auch komplexe Welten erzeugen um<br />
entweder reale Szenarien nach Belieben zu modifizieren oder komplett neu zu erschaffen. Bei<br />
bereits existierenden Gebäuden können nach Erfassung ihrer geometrischen Eigenschaften<br />
verschiedene Modifikationen vor Ort ausprobiert und „direkt“ im Kontext des realen Umfelds<br />
beobachtet werden.<br />
2.5.4 Rekonstruktion<br />
Zur Rekonstruktion historischer Gebäude oder Landschaften lassen sich WC/AR-Systeme<br />
ebenfalls nutzen: Das Projekt GEIST [Gei] beispielsweise hat u.a. zum Ziel, Ruinen historischer<br />
Gebäude sowie die 50000 Quadratmeter große terrassenartige Gartenanlage „Hortus<br />
Palatinus“ am Heidelberger Schloss mit ihren geometrisch angelegten Beeten und Hecken<br />
sowie geheimnisvollen Grotten, die auch als „achtes Weltwunder“ bezeichnet, jedoch nie<br />
vollendet wurde und heute nur noch rudimentär vorhanden ist, digital wieder auferstehen zu<br />
lassen. Hierzu wurden die historischen Orginalpläne des Architekten sowie weitere Quellen<br />
wie Stiche und Gemälde mit den aktuellen Geländedaten des heutigen Schlossgartens abgeglichen<br />
und daraus ein 3D-Modell konstruiert. Das mobile AR-System soll dann eine visuelle
148 Wearable Computer und Augmented Reality Anwendungen<br />
Überlagerung von Informationen und graphischen Rekonstruktionen zerstörter Bauwerke über<br />
die noch existierenden Bauwerke mittels eines HMD liefern. Hierbei werden besondere Anforderungen<br />
an das Tracking gestellt: Damit das System die Position und die Blickrichtung<br />
des Benutzers kennt, um gezielt Informationen in die natürliche Umgebung einzublenden,<br />
könnte auch hier zur Ermittlung der Position des Benutzers differentielles GPS, für die Blickrichtungsbestimmung<br />
Orientierungssensoren benutzt werden. Allerdings ist zum einen die<br />
Genauigkeit gängiger GPS-Systeme hier grundsätzlich zu gering, zum anderen werden im<br />
urbanen Umfeld GPS-Signale durch eng stehende Gebäude behindert und verfälscht. Daher<br />
kommen hier zusätzliche Verfahren zur Anwendung, nämlich ein gyroskopbasiertes Tracking<br />
sowie ein videobasierter Ansatz: Letzteres bringt das Videobild mit digitalen dreidimensionalen<br />
Referenzmodellen in Übereinstimmung. Im durch eine kleine Kamera aufgenommenen<br />
Videostrom erkannte Features werden im 3D-Modell identifiziert und dienen zur Ermittlung<br />
der Position und Blickrichtung des Benutzers.<br />
Abb. 10: Links sind im Hintergrund die Mauerreste, wie sie sich heute darstellen, zu sehen; die<br />
Galerie im Vordergrund ist virtuell hinzugefügt; Rechts ist die sog. Scheffelterrasse abgebildet;<br />
das sog. Lusthaus am linken Ende ist nie gebaut worden, es existiert nur als digitale Rekonstruktion<br />
aus alten Quellen [EML]<br />
Geplant ist, das vorgestellte Projekt in erster Linie im Edutainment-Sektor einzusetzen: Auf<br />
unterhaltsame Weise soll Schülern oder auch Touristen das geschichtliche Umfeld des<br />
Dreißigjährigen Krieges vermittelt werden. Neben den bereits vorgestellten Features können<br />
computeranimierte Darstellungen menschlicher Charaktere in Geschichten vor realen Kulissen<br />
agieren, wobei der Anwender interaktiv in das Handlungsgeschehen eingreifen kann.<br />
Hierzu ist neben der 3D-Objektdatenbank noch zusätzlich eine Wissensdatenbank vorhanden,<br />
die entsprechende Informationen liefert. Ein Prototyp des Projekts soll bis zum Jahr 2004 fertig<br />
entwickelt sein.<br />
2.6 Unterhaltung<br />
Inzwischen sind einige Computerspiele am Markt, welche AR-Technologie nutzen. Eines der<br />
ersten war ARQuake [Mat02], [ARQ], welches auf dem bekannten Computer-Actiongame<br />
Quake basiert. In dem Spiel geht es darum, Monster zu bekämpfen, Gegenstände einzusammeln<br />
und bestimmte Aufgaben zu erledigen. Hierzu bewegt sich der Spieler in einer virtuellen<br />
Umgebung, die auf dem Computerbildschirm dargestellt wird. Die Steuerung bzw. Navigation<br />
in der virtuellen Welt erfolgt über Maus bzw. Tastatur.<br />
Das Spiel wurde nun so modifiziert, dass der Spieler sich jetzt in einer realen Umgebung bewegen<br />
und dort gegen die virtuellen Monster kämpfen kann. Diese werden über ein HMD in<br />
das reale Bild des Spielers eingeblendet, der als technische Ausrüstung neben dem HMD u.a.<br />
einen mobilen Rechner sowie eine Kombination aus GPS, digitalem Kompass und Neigungsmesser<br />
zwecks genauer Ermittlung seines Standorts und seiner Kopfpositionierung am<br />
Körper trägt.
149 Hermann Kollmar<br />
Abb. 11: Vorder- und Rückansicht des WC-Systems für ARQuake (University of South<br />
Australia) [ARQ]<br />
Damit sich der Spieler frei bewegen kann, muss zunächst ein Plan mit den sich auf dem Areal<br />
befindlichen Gebäuden erstellt und in den mobilen Rechner eingegeben werden. Monster, die<br />
sich aus der Sicht des Spielers hinter Gebäudeteilen befinden, sind für diesen dann nicht<br />
sichtbar.<br />
Abb. 12: Virtuelles Monster, mittels HMD in das reale Blickfeld des Spielers eingefügt [ARQ]<br />
Als Waffe dient ein umgebautes Spielzeuggewehr aus Plastik, welches zur Simulation des<br />
Rückstoßes beim Abfeuern der Waffe oder bei einem Treffer des Spielers durch ein feindliches<br />
Monster haptisches Feedback liefert. Dies wird durch eine eingebaute Magnetspule erreicht,<br />
die in den geschilderten Situationen dann ein größeres Gewicht anzieht.<br />
3 Ausblick<br />
Es ist zu erwarten, dass WC-Anwendungen in immer mehr Bereiche unseres Lebens eindringen<br />
werden. Dies ist nicht nur auf die Weiterentwicklung von Technologien wie die der AR<br />
oder Netzwerke betreffend zurückzuführen, sondern auch auf die teilweise dramatischen<br />
Fortschritte in der Mikroelektronik und der Mikrosystem- sowie Nanotechnologie. Die dadurch<br />
erzielten Reduktionen bei den Herstellungskosten und den räumlichen Dimensionen<br />
technischer Intelligenz sowie die Erschließung ganz neuer Möglichkeiten (z.B. integrierte<br />
Schaltkreise auf flexiblen Kunststoffträgern) ermöglichen in zunehmendem Maße auch die<br />
Fertigung von Smart Devices aller Art (z.B. in Form von Schmuck), die dem Benutzer gegenüber<br />
ihr HiTec-Innenleben ganz oder teilweise verbergen, typischerweise miteinander ver-
150 Wearable Computer und Augmented Reality Anwendungen<br />
netzt sind und ihre Umgebung mittels entsprechender Sensorik ständig überwachen. Künftige<br />
WC-Systeme werden auch zunehmend in die Kleidung integriert. Als ständig verfügbarer Begleiter<br />
sollen sie dem Verbraucher mehr Komfort bieten und die verschiedensten Dienstleistungen<br />
anbieten wie Kommunikation, Terminplanung oder Navigation. Bei den Smart<br />
Clothes ist die Kleidung Medium, Träger und Schnittstelle zugleich für die unterschiedlichsten<br />
Systemanwendungen. Smart Textiles hingegen sind hochentwickelte Gewebe, bei<br />
denen die technische Intelligenz bereits in die Faser integriert ist.<br />
Alle diese Faktoren führen nicht nur auf den Weg zum Ubiquitous Computing, also der überall<br />
verfügbaren Rechnerleistung, sondern auch zu veränderten Arbeitsabläufen im täglichen<br />
Leben und anderen Kommunikationsformen beim Umgang mit Computern im weitesten<br />
Sinne.<br />
Referenzen<br />
[Aff] MIT Media Lab:<br />
Prototype Sensing System,<br />
http://affect.media.mit.edu/AC_research/sensing.html<br />
[AHN99] Azuma R. T.; Hoff, B. R.; Neely H. E.; Sarfaty R.; Daily M. J.; Bishop G.; Vicci L.;<br />
Welch G.; Neumann U.; You S.; Nichols R.; Cannon J. (1999):<br />
Making Augmented Reality Work Outdoors Requires Hybrid Tracking,<br />
In: Augmented reality : placing artificial objects in real scenes : proceedings of IWAR<br />
’98 (1999), Behringer R.; Klinker G.; Mizell D. (eds.), A K Peters, Ltd., Natick, MA,<br />
USA<br />
[ARQ] Projekt ARQuake:<br />
http://www.tinmith.net/arquake.htm<br />
[Bab01] Baber C. (2001):<br />
Wearable Computers: A Human Factors Review,<br />
International Journal of Human-Computer Interaction, Vol. 13(2), 123-146<br />
[BBS01] Barfield W.; Baird K.; Shewchuk J.; Ioannou G. (2001):<br />
Applications of Wearable Computers and Augmented Reality to Manufacturing,<br />
In: Fundamentals of Wearable Computers and Augmented Reality (2001), Lawrence<br />
Erlbaum Associates, Inc. Publishers, 695-713<br />
[Ber03] Berlinghof H. (2003):<br />
„Künstliche Bauchspeicheldrüse“ als Fernziel,<br />
Rhein-Neckar-Zeitung Heidelberg, Nr. 111 vom 15.05.03, 12<br />
[Blü02] Blümchen K. (2002):<br />
Augmented Reality,<br />
http://wwwiaim.ira.uka.de/Teaching/ProseminarMedizin/Ausarbeitungen/<br />
WS0102/07_Augmented_Reality.pdf<br />
[CMG99] Curtis D.; Mizell D.; Gruenbaum P.; Janin A. (1999):<br />
Several Devils in the Details: Making an AR Application Work in the Airplane<br />
Factory,<br />
In: Augmented reality : placing artificial objects in real scenes : proceedings of IWAR<br />
’98 (1999), Behringer R.; Klinker G.; Mizell D. (eds.), A K Peters, Ltd., Natick, MA,<br />
USA<br />
[EML]<br />
European Media Laboratory Heidelberg:<br />
Den Garten des „Winterkönigs“ digital aufgebaut,<br />
http://www.eml.org/deutsch/News/Topnews/hortus_palatinus.html
151 Hermann Kollmar<br />
[FMW] 10meters.com News Service:<br />
Trend Report: The Fabric of Modern Warfare,<br />
http://www.10meters.com/wearable_military.html<br />
[Gei] Projekt GEIST:<br />
http://www.tourgeist.de<br />
[Gre01] Grether K. (2001):<br />
Konzeption und Entwurf eines technischen Systems zur entwurfsbezogenenplanerischen<br />
Bearbeitung von Bauwerken im Bestand,<br />
http://www.uni-weimar.de/~grether/diplom/Diplom.html<br />
[KSR01] Klinker G.; Stricker D.; Reiners D. (2001):<br />
Augmented Reality for Exterior Construction Applications,<br />
In: Fundamentals of Wearable Computers and Augmented Reality (2001), Lawrence<br />
Erlbaum Associates, Inc. Publishers, 379-428<br />
[LuI] Fa. Essilor / MicroOptical Corp.:<br />
Lunettes informatives,<br />
http://www.snof.org/vue/luninformativ.html<br />
[LW] U.S. Infanterie-Waffensystem Land Warrior:<br />
http://www.fas.org/man/dod-101/sys/land/land-warrior.htm<br />
[MA] ITworld.com:<br />
US military begins testing wearable computers,<br />
http://<strong>wireless</strong>.itworld.com/4276/IWD010420hnxybernaut/page_1.html<br />
[Mat02] Mathes J. (2002):<br />
Augmented Reality: 6. Anwendungen,<br />
http://wwwbruegge.in.tum.de/teaching/ws01/AR-Proseminar/presentations/7-<br />
ProsAR1-Mathes.pdf<br />
[RSK99] Reiners D.; Stricker D.; Klinker G.; Müller S. (1999):<br />
Augmented Reality for Construction Tasks: Doorlock Assembly,<br />
In: Augmented reality : placing artificial objects in real scenes : proceedings of IWAR<br />
’98 (1999), Behringer R.; Klinker G.; Mizell D. (eds.), A K Peters, Ltd., Natick, MA,<br />
USA<br />
[SJ01] Satava R. M.; Jones S. B. (2001):<br />
Medical Applications for Wearable Computing,<br />
In: Fundamentals of Wearable Computers and Augmented Reality (2001), Lawrence<br />
Erlbaum Associates, Inc. Publishers, 649-662<br />
[Sym] Wearable Scan System WSS:<br />
http://www.symbol.com<br />
[Tin] Projekt TINMITH:<br />
http://www.tinmith.net/wearable.htm<br />
[TPG99] Thomas B.; Piekarski W.; Gunther B. (1999):<br />
Using Augmented Reality to Visualise Architecture Designs in an Outdoor<br />
Environment,<br />
http://www.arch.usyd.edu.au/kcdc/journal/vol2/dcnet/sub8/<br />
[TRL01] Tappert C. C.; Ruocco A. S.; Langdorf K. A.; Mabry F. J.; Heineman K. J.; Brick T.<br />
A.; Cross D. M.; Pellisier S. V.; Kaste R. C. (2001):<br />
Military Applications of Wearable Computers and Augmented Reality,<br />
In: Fundamentals of Wearable Computers and Augmented Reality (2001), Lawrence<br />
Erlbaum Associates, Inc. Publishers, 625-648<br />
[Uch]<br />
System NOAH der Unfallchirurie Universitätsklinikum Regensburg:<br />
http://www.uni-regensburg.de/Fakultaeten/Medizin/Uch/noah/
152 Wearable Computer und Augmented Reality Anwendungen<br />
[VuM]<br />
[WL]<br />
Projekt VuMan:<br />
http://www-2.cs.cmu.edu/afs/cs.cmu.edu/project/vuman/www/general.html<br />
WristPC Keyboard (Fa. L3Systems):<br />
http://www.wearlab.de/DOCS/studie/all.php?elch=131&mask=5
Design-Aspekte von Wearable Computern<br />
Olaf Geschonke<br />
og@octopus.baltic.de<br />
Abstract: In diesem Dokument wird auf die soziale Akzeptanz und auf das ergonomische<br />
Design von Wearable Computern eingegangen. Ferner werden mögliche Realisierungen<br />
von wichtigen Komponenten besprochen.<br />
1 Begriffsbestimmung<br />
Ein Wearable Computer ist ein persönlicher Assistent der den Benutzer bei seiner jeweiligen<br />
Tätigkeit unterstützt, immer und überall aktiv, und in allen Situationen benutzbar ist.<br />
Er wird ständig am Körper getragen bzw. ist direkt in die Kleidung integriert.<br />
Laut dem FAQ des MIT soll ein „wearable computer“ die folgenden 5 Eigenschaften besitzen<br />
[1]:<br />
• portable while operational<br />
Der Wearable ist in jeder Lage einsetzbar, insbesondere auch dann, wenn sich der<br />
Anwender in Bewegung befindet<br />
• hands-free use<br />
Die Bedienung sollte möglichst freihändig erfolgen, damit der Anwender in seiner eigentlichen<br />
Tätigkeit nicht behindert wird.<br />
• Sensors<br />
Der Wearable sollte über Sensoren verfügen um seine Umwelt wahrnehmen und sich<br />
kontextsensitiv verhalten zu können.<br />
• attention-getting<br />
Ein Wearable ist in der Lage die Aufmerksamkeit seines Benutzers auf sich zu lenken,<br />
selbst wenn er gerade nicht aktiv genutzt wird.<br />
• allways on<br />
Der Wearable ist ständig in Betrieb und aktiv.<br />
Anders als herkömmliche Computer besitzt ein Wearable ein „gewisses Verständnis“ für<br />
seine Umgebung und „weiß“ was der Benutzer gerade tut. Befindet sich der Benutzer z.B. in<br />
einer Besprechung, so wird er nicht mit Nachrichten über eingegangene E-Mails gestört.<br />
Der Rechner kann Sinneswahrnehmung des Benutzers erweitern oder verstärken.<br />
Von „erweiterter Realität“ (Augmented Reality) spricht man, wenn das Gesichtsfeld des Nutzers<br />
um computergenerierte Objekte erweitert wird.
154 Design-Aspekte von Wearable Computern<br />
Ein Beispiel für eine solche Überlagerung des realen Bildes mit computergenerierten Objekten<br />
wird in Abbildung 1 gezeigt. Hier wird der Blick durch ein Head-up-Display auf eine<br />
Baustelle dargestellt, die mit Daten aus dem Bauplan überlagert wird.<br />
Abbildung 1: Überlagerung des realen Bildes mit computergenerierten Objekten [B1][B2][B3]<br />
Das folgende Beispiel (Abbildung 2) zeigt, wie der Benutzer einen Riss im Mauerwerk zunächst<br />
vergrößert darstellen lässt, und ihn anschließend vermisst.<br />
Abbildung 2: Vergrößerung von Ausschnitten des realen Bildes [B4][B5][B6]<br />
Für Wearables lassen sich vielfältige Anwendungen finden:<br />
Eine wäre z.B. in der Vermessung und Planung zu sehen. Ein mit Entfernungssensoren und<br />
Kamera ausgestatteter Wearable kann diese Aufgabe wesendlich vereinfachen (wie durch das<br />
obige Beispiel schon angedeutet wurde).<br />
Zur Wartung und Reparatur von komplexen Maschinen ist ein Zugriff auf die Dokumentation<br />
unerlässlich. Hier kann ein Wearable die notwendigen Informationen direkt in das Sichtfeld<br />
des Technikers einblenden und geeignete Reparaturmaßnahmen vorschlagen. Falls nötig<br />
könnte ein Experte via Videokonferenz hinzugezogen werden, dem dann übertragen werden<br />
kann, was der Techniker vor Ort sieht und misst.<br />
Es wäre auch denkbar Wearables bei Rettungsdiensten einzusetzen, die die aktuelle Position<br />
innerhalb des Gebäudes anzeigen, die körperliche Verfassung des Feuerwehrmanns, sowie<br />
den Sauerstoffvorrat überwachen und bei Gefahr warnen.<br />
Als abschließendes Beispiel ließe sich ein Wearable auch „zivil“, als persönlicher Assistent<br />
und Kommunikationsmittel, nutzen.
155 Olaf Geschonke<br />
2 Akzeptanz von Wearable Computern<br />
Für die sozialen Wechselwirkungen zwischen Personen ist der gegenseitige Eindruck von<br />
entscheidender Bedeutung. Technische Ausrüstung, die in Gegenwart Anderer benutzt wird,<br />
hat dabei oft einen negativen Einfluss auf die Wahrnehmung der Person. [2] [3]<br />
Dabei übertragen die Menschen oft den Einfluss, den sie vom Einsatz der Technik auf ihr<br />
Sozialleben erwarten, auf den Nutzer der jeweiligen Technik. [3]<br />
Der Umgang von Menschen untereinander beruht auf Konventionen, deren Bruch gesellschaftlich<br />
sanktioniert wird. Ein solcher Bruch kann in einem „extremen Outfit“ bestehen<br />
(z.B. Head-up-Display, Datenhandschuh und Kabel), oder darin scheinbar Selbstgespräche zu<br />
führen (bei nicht sichtbarer Technik).<br />
Mit dem e-SUIT [4] wurde auf Basis eines herkömmlichen PDAs ein Wearable mit dem Ziel<br />
geschaffen, die sozialen Interaktionen des Benutzers möglichst wenig zu stören. Der PDA<br />
wird unsichtbar unter dem Anzug getragen und kommuniziert dabei über im Anzug befindliche<br />
LEDs, kapazitive Schalter und einem Vibrations-Motor mit dem Benutzer.<br />
Dabei ist wichtig, dass der Benutzer, durch die Beschäftigung mit dem Gerät, den sozialen<br />
Kontakt nicht abbrechen muss.<br />
Die negativen sozialen Auswirkungen neuer Geräte können vermieden (bzw. vermindert)<br />
werden, wenn sie in vertrauter Form erscheinen. [3]<br />
Für die jeweiligen Benutzer ist es zunächst wichtig, dass das Gerät bequem und einfach zu<br />
benutzen ist und ihm einen tatsächlichen Nutzeffekt bringt. Dabei soll es die Bewegungsfreiheit<br />
nicht behindern, leicht, flexibel und robust sein und eine ausreichend lange Laufzeit besitzen.<br />
Ist der Wearable in die Kleidung integriert, so muss eine einfache Reinigung möglich<br />
sein.<br />
Da Wearables den ganzen Tag über getragen werden kann es Befürchtungen hinsichtlich gesundheitlicher<br />
Beeinträchtigung oder Überwachung geben, die abgebaut werden müssen.<br />
Das Bedürfnis nach Individualität kann auch dazu führen, dass der Benutzer seinen Wearable<br />
offen zeigen will, denn neuartige Technik hat Statuscharakter. Andere Individuen werden<br />
wiederum soziale Nachteile befürchten und dies daher vermeiden wollen.<br />
Das Design des Wearables muss dabei immer zum persönlichen Stil des Benutzers passen. [2]<br />
Bevor Menschen Computer als tägliche Kleidung akzeptieren, müssen diese ihr störendes<br />
Äußeres verlieren und sich auch anfühlen und tragen lassen wie normale Kleidung. Durch<br />
Fortschritte in der Mikroelektronik ist dies möglich geworden. Kleidung, die in der Lage ist<br />
Informationen zu verarbeiten, zu speichern, zu empfangen und zu senden, wird als „computational<br />
clothing“ oder „smart clothing“ bezeichnet. Diese Fähigkeiten erlauben der Kleidung<br />
als „standalone“ Computer zu arbeiten, auf Sensoren zu reagieren und sich mit Netzwerken zu<br />
verbinden. Durch das Einbetten von Computern in die Kleidung haben die Menschen ständig<br />
Zugang zu Ressourcen, ohne die Unbequemlichkeit verschiedene Geräte mit sich herum tragen<br />
zu müssen. Computerisierte Kleidung wird die volle Funktionalität eines Computersystems<br />
haben und dabei „fast unauflöslich“ mit ihrem Träger verbunden sein. Dies unterscheidet<br />
sie von anderen „wearablen“ Geräten, wie z.B. Uhren, Radios, usw. Der Computer der<br />
Kleidung ist dabei ständig einsatzbereit und muss er nicht eingeschaltet, oder geöffnet werden<br />
wie gewöhnliche Handheld-Geräte, PDAs und Laptops. [5]
156 Design-Aspekte von Wearable Computern<br />
3 Integration<br />
Um digitale Technik in Kleidung zu integrieren gibt es mehrere Möglichkeiten. Kabel können<br />
direkt bei der Herstellung von Polymer-Fasern im Gewebe untergebracht werden. Leitende<br />
Schichten können im mehreren Layern angeordnet und mit Schaltkreisen verbunden werden.<br />
Beispielsweise lässt sich eine einfache Matrix-Tastatur auf Textilbasis aus zwei Layern mit<br />
leitendem Material und einer Nylon-Lage als Isolator aufbauen. Durch Löcher in der Nylon-<br />
Lage kann durch Druck eine Verbindung zwischen Leitern hergestellt und das Signal durch<br />
einen Controler ausgewertet werden.[6]<br />
Einige Komponeten der Wearables sind allerdings nicht einfach aus Gewebe herstellbar, wie<br />
zum Beispiel die Teile der Energieversorgung. Für eine köpergerechte Unterbringung müssen<br />
solche festen Teile hinsichtlich Form und Platzierung einigen Anforderungen genügen.<br />
Um die Bewegungsfreiheit nicht zu beeinträchtigen, müssen zunächst Bereiche auf dem<br />
menschlichen Körper gefunden werden, die einer geringe Bewegung bzw. Dehnung ausgesetzt<br />
sind. Diese Bereiche müssen eine hinreichend große Oberfläche besitzen und sollen ungefähr<br />
die gleiche Größe bei allen Erwachsenden aufweisen.[5]<br />
Abbildung 3: mögliche Bereiche für die Unterbringung von wearablen Objekten [5]<br />
Die Teile sollen einen komfortabeln und stabilen Sitz haben. Dazu ist es notwendig ihre Form<br />
dem menschlichen Körper anzugleichen.[5]<br />
Abbildung 4: Formgebung von wearablen Objekten - (a) konkave Form auf der Körperseite -<br />
(b) Konvexe Form der Oberfläche - (c) verjüngung der Form - (d) fertige Form mit<br />
abgerundeten Ecken [5]<br />
Flexible Bereiche zwischen Körper und den festen Teilen des Wearables tragen den verschiedenen<br />
Körperformen der Benutzer (abhängig von Muskel und Fettaufbau) Rechnung.
157 Olaf Geschonke<br />
Der menschliche Körper kann seine Form durch Bewegung stark verändern. Bewegungsfreiheit<br />
lässt sich durch aussparten der aktiveren Bereiche um die Gelenke, oder durch schaffen<br />
von Freiräume, in denen sich der Körper bewegen kann, erreichen. Der Rumpf ist z.B. ein<br />
guter Platz für einen Wearable. Dabei müssen die Arme aber volle Bewegungsfreiheit haben,<br />
um an den Seiten und vor dem Rumpf zu schwingen. Zusätzlich muss der Rumpf in der Lage<br />
sein, Drehungen und Biegungen auszuführen.[5]<br />
Das Gewicht des Wearables soll die Balance und Bewegungsfreiheit des Körpers nicht behindern.<br />
Der Körper speichert sein zusätzliches Gewicht, in Bauch, Taille und Hüftgegend. Der<br />
Hauptteil der Last sollte hier, nahe am Schwerpunkt untergebracht werden.<br />
Das Gewicht der Ausrüstung kann sich im Druck auf die Haut niederschlagen. Dabei gelten<br />
weniger als 60g/m 2 komfortabel, 60-100g/m 2 sind unkomfortabel und über 100g/m 2 werden<br />
nicht toleriert. [5]<br />
4 Energieversorgung<br />
Wegen der geforderten ständigen Verfügbarkeit, stellt die Batterielaufzeit ein großes Problem<br />
dar. Energieverschwendung wird hier mit einer hohen „Zuladung“ bestraft, denn es müssen<br />
entsprechend mehr (relativ schwere) Akkus mitgeschleppt werden. Lithiumionen-Akkus haben<br />
eine Energiedichte von 155 Wh/kg und (teure) Lithium-Polymer-Akkus kommen auf 170<br />
Wh/kg. Ein Vielfaches an Energieausbeute wird zukünftig von Brennstoffzellen erwartet, die<br />
allerdings einen geringeren Wirkungsgrad besitzen und den größten Teil ihrer Energie als<br />
Wärmeenergie abgeben [7].<br />
Eine zentralisierte Energieversorgung aller Komponenten ist aus verschiedenen Gründen<br />
ideal: Der Ladezustand der Komponenten kann bei einer zentralen Energieversorgung leichter<br />
überwacht werden. Weiterhin gibt es einige Ansätze zur Verlängerung der Laufzeit durch<br />
“mobile“ Energiegewinnung z.B. Solarzellen, Körperabwärme, oder Bewegungsenergie des<br />
Menschen. Piezoelektrische Elemente in Schuhsolen sollen z.B. ca. 5 W (abhängig von Gewicht<br />
und Schrittgeschwindigkeit) erzeugen können[8] (siehe Bild 5 ).<br />
Abbildung 5: piezoelektrische Stromerzeugung im Schuh [B7]<br />
Neben der Aufladbarkeit bietet eine zentrale Energieversorgung noch den Vorteil eines möglichen<br />
Energiemanagements. Nicht benötigte Komponenten können völlig abgeschaltet werden.
158 Design-Aspekte von Wearable Computern<br />
Diese Eigenschaften setzten natürlich eine Verbindung der Komponenten über Kabel voraus.<br />
Über Funk vernetzte Komponenten müssen zwingend über eigene Energiequellen verfügen<br />
und können naheliegenderweise auch nicht ganz abgeschaltet werden.<br />
Weitere Vorteile der Verbindung von Komponenten mit Kabeln gegenüber der Funkvernetzung<br />
bestehen z.B. in der i.A. höheren Bandbreite der Kabel und in der Abhörsicherheit der<br />
Verbindung. Der Vorteil einer Funkvernetzung liegt wiederum in einer höheren Bequemlichkeit<br />
im Umgang mit „extern“ untergebrachten Komponeten, wie z.B. einer Datenbrille. Diese<br />
müsste dann nicht mehr mit einem Kabel „befestigt“ werden.<br />
Hinsichtlich der angestrebten langen Laufzeit ist es entscheidend, dass die eingesetzten Komponenten<br />
eine geringe Leistungsaufnahme besitzen und keiner aktiven Kühlung bedürfen. Als<br />
besonders energiesparende CPU gilt z.B. der Crusoe Prozessor von Transmeta. Das aktuelle<br />
Spitzenmodell „TM5800“ kommt mit durchschnittlich 1 – 2W Leistung aus und kann seine<br />
Taktrate zwischen 667MHz und 1GHz anpassen [9].<br />
Speicherkarten sind aufgrund ihres geringen Energiebedarfs und weil sie über keinerlei beweglichen<br />
Teile verfügen, gut für mobile Computer geeignet. Verfügbar sind z.Z. Karten bis<br />
zu 1 GByte.<br />
Der Energiebedarf ist aber nicht das alleinig bestimmende Kriterium für die Komponentenauswahl.<br />
Bestimmend sind letztendlich die für den Einsatzzweck erforderliche Ausstattung,<br />
sowie Kostenargumente. Daher werden auch z.B. in derzeit erhältlichen Wearables häufig<br />
Festplatten eingesetzt (ViA II PC [10], Xybernaut Mobile Assistant (MA) V [11]).<br />
5 Ausgabemöglichkeiten<br />
Head-up-Displays (HUDs) bzw. Head-Mounted-Displays (HMDs) befinden sich ständig im<br />
Gesichtsfeld des Anwenders. Damit sind sie ideal für einen Wearable, denn der Anwender<br />
muss seine Tätigkeit nicht unterbrechen um auf das Display zu blicken. Das störende Aussehen<br />
dieser Displays ist mittlerweile überholt, diese Displays können inzwischen auch in Form<br />
von gewöhnlichen Brillen realisiert werden.<br />
Abbildung 6: Brillen-Displays [B8]
159 Olaf Geschonke<br />
Abbildung 7: Prinzip von halbdurchsichtigen Displays [B9][B10]<br />
Das Display ist dabei seitlich angebracht und das Bild wird über einen halbdurchsichtigen<br />
Spiegel ins Auge gelenkt. Dabei kann auch die Trägheit des Auges ausgenutzt werden, indem<br />
das Bild nur von einer LCD-Zeile oder einem Laser, über einen schnell beweglichen Spiegel<br />
aufgebaut wird. Derartige Displays habe meist eine feste Fokussierung, d.h. das computergenerierte<br />
Bild ist nur bei einer bestimmten Sehweite scharf.<br />
Häufig sind diese Displays nur monokular ausgeführt. Die Fähigkeit der räumlichen Wahrnehmung<br />
wird durch monokulare Displays stark beeinträchtigt (bzw. unmöglich). Gleichzeitig<br />
hat auch der Computer keine Möglichkeit, Dinge in den Raum zu projizieren.<br />
Abbildung 8: Sicht durch monokulares Display [B11]<br />
Displays können auch in tragbarer Form ausgeführt sein. Diese Displays haben den Nachteil,<br />
dass der Benutzer seine jeweilige Tätigkeit unterbrechen muss, um auf das Display zu<br />
blicken. Eine mögliche Bauform ist in Abbildung 7 dargestellt.<br />
Abbildung 9: Handgelenk-Display von Motorola [B12]
160 Design-Aspekte von Wearable Computern<br />
Polymere Displays (pLEDs / OLEDs) sind noch relativ neue Entwicklungen. Sie sind in flexibler<br />
Form herstellbar und könnten direkt in die Kleidung integriert werden. Möglich sind<br />
auch faltbare oder rollbare Formen. Problematisch ist die bisher recht geringe Haltbarkeit<br />
dieser Displays.<br />
Besonders energiesparend und für vorwiegend statische Anzeigen (Texte) geeignet sind das<br />
s.g. „elektronische Papier“ und die „elektronische Tinte“. Beide Konzepte haben gemeinsam,<br />
dass farbige Partikel durch anlegen eines elektr. Feldes ausgerichtet werden und diese Ausrichtung<br />
nach Abschalten des Feldes beibehalten. Bei der „elektronischen Tinte“ schwimmen,<br />
in kleinen, mit farbiger Flüssigkeit gefüllten Kapseln, kleine weiße elektrisch geladene Partikel.<br />
Diese wandern, je nach anliegender Spannung, nach oben und verdrängen dabei die Flüssigkeit,<br />
oder nach unten, wodurch ein Bildpunkt sichtbar wird. Beim „elektronischen Papier“<br />
hingegen werden geladene Kugeln ausgerichtet, die auf einer Seite schwarz und auf der Anderen<br />
weiß sind. Je nach Ausrichtung des Feldes erscheint der Bildpunkt schwarz oder weiß.<br />
Auch derartige Displays könnten in die Kleidung integriert werden (wenn das Problem der<br />
Haltbarkeit gelöst ist).<br />
6 Eingabemöglichkeiten<br />
Für Wearables gibt es verschiedene Eingabemöglichkeiten. Dazu gehören Spracherkennung,<br />
Augenverfolgung, Gestenerkennung und die Eingabe mit Hilfe von Tasten.<br />
Die Steuerung mittels Spracherkennung funktioniert nur bei einem kleinen Wortschatz hinreichend<br />
zuverlässig. Je weiter die Worte phonetisch auseinander liegen (d.h. je unähnlicher sie<br />
klingen) desto besser sind sie unterscheidbar. Die Wahrscheinlichkeit phonetisch ähnlicher<br />
Worte nimmt mit der Größe des Wortschatzes zu. In wechselnden Umgebungen, insbesondere<br />
wenn (laute) Umweltgeräusche hinzukommen, ist die Spracherkennung nicht immer gewährleistet.<br />
Eine weitere Steuerungsmöglichkeit besteht darin, die Blickrichtung des Benutzers auszuwerten.<br />
Dazu kann eine Kamera das Bild des Auges aufnehmen und an den Rechner übertragen.<br />
Die Blickrichtung ist durch Analyse dieses Bildes auf (bestenfalls) ein Grad genau bestimmbar<br />
[12]. Diese Information kann zur Selektion von Objekten und zur Menu-Auswahl<br />
genutzt werden. Die Bestätigung der Auswahl kann (falls nötig) durch „längeres“ Hinsehen<br />
(ca. 1 Sekunde) erfolgen, oder durch Tastendruck. Die Zeit zur Selektion liegt typischerweise<br />
im 100ms Bereich. Aufgrund der Ungenauigkeit müssen die Selektionsboxen hinreichend<br />
entfernt voneinander liegen.<br />
Auch eine Steuerung durch Erkennung von Gesten ist möglich. Dazu können zwei verschiedene<br />
Verfahren eingesetzt werden: optische Erkennung und physische Erkennung.<br />
Mit Hilfe einer Kamera, die im Gesichtsfeld des Benutzers angebracht ist, können Gesten der<br />
Hand durch Bilderkennung ausgewertet werden. Dabei kann die Kamera so angeordnet werden,<br />
wie der Bildgenerator bei den oben beschriebenen Brillendisplays. Der Nachteil der optischen<br />
Erkennung besteht darin, dass eine relativ hohe Rechenleistung zur Bildauswertung,<br />
sowie entsprechende Lichtverhältnisse erforderlich sind.<br />
Bei der physischen Erkennung wird die jeweilige Stellung der Hand durch spezielle Hardware<br />
(Datenhandschuh) festgestellt. Mit Hilfe von Optischen Leitern, die auf dem Handrücken und
161 Olaf Geschonke<br />
den Fingern angebracht sind, lässt sich der Krümmungsgrad der Finger bestimmen. Je nach<br />
Krümmung der Finger lässt die Glasfaser unterschiedlich viel Licht durch. Auf dem gleichen<br />
Prinzip basiert auch die elektrische Version, bei der spezielle Metallbänder benutzt werden,<br />
die je nach Krümmung ihren Widerstand verändern. Dieses Verfahren gilt aber als genauer als<br />
die Verwendung Optischer Leiter. Das Problem dieser beiden Verfahren besteht darin, dass<br />
sich nur eine Gesamtkrümmung messen lässt, die dann erst auf die einzelnen Fingergelenke<br />
umgerechnet werden muss. Genauer ist hierbei die Verwendung eines Exoskelettes, welches<br />
am Handschuh angebracht ist und jedes Fingergelenk und seine Krümmung einzeln erfasst.<br />
[13]<br />
Abbildung 11: Prinzip Datenhandschuh [B13]<br />
Eine weitere Eingabemöglichkeit ist die Steuerung mit s.g. Einhandkeyboards, die am Unterarm<br />
befestigt werden, oder mit anderen einhändig bedienbaren Steuergeräten.<br />
Abbildung 12: Eingabegeräte [B14][B15]<br />
Wie schon angesprochen ist es auch möglich sensitive Elemente (Tasten) direkt in die Kleidung<br />
zu integrieren [6]. Häufig möchte man die Anzahl der notwendigen Tasten reduzieren,<br />
was zur Entwicklung der s.g. Chord-Tastaturen geführt hat. Bei diesen wird nur ein Minimum<br />
von Tasten benötigt, die aber gleichzeitig, in zu erlernenden Mustern, betätigt werden.
162 Design-Aspekte von Wearable Computern<br />
Hier ein Beispiel für die Zeicheneingabe mit nur 5 Tasten:<br />
Abbildung 13: Zeicheneingabe mit Chord-Tastatur [B16]<br />
Keine der vorgestellten Eingabemöglichkeiten ist zur Eingabe von längeren Texten geeignet.<br />
7 User-interface<br />
Wearables werden häufig für den Zugriff auf Informationen genutzt während eine andere Tätigkeit<br />
ausgeführt wird. Der Wearable soll dabei eine nahtlose Integration von Informationsverarbeitungstools<br />
in die Arbeitsumgebung ermöglichen. Um dies zu erreichen muss das<br />
System seine Funktionalität in einer natürlichen und unkomplizierten Weise zur Verfügung<br />
stellen, um dem Benutzer zu ermöglichen, all seine Konzentration auf seine Tätigkeit zu<br />
richten, ohne Ablenkung durch das System selbst. Viele Konventionen herkömmlicher Interfaces<br />
müssen hinsichtlich ihrer Effektivität überdacht werden, und das Interface den Aufgaben<br />
angepasst werden.[14]<br />
Bei HUDs ist zu beachten, dass die Sicht des Nutzers nicht blockiert wird, wenn er sich in<br />
Bewegung befindet. Die Informationen sollten immer so angeordnet sein, dass die Sicht auf<br />
die Umwelt sichergestellt ist. Die gewöhnlichen GUI-Komponenten (Menues, Scrollbars,<br />
Buttons) sind meist zu klein um während der Bewegung getroffen werden zu können. Generell<br />
sollte es vermieden werden mit dem Cursor auf Objekte zeigen zu müssen. Die Komplexität<br />
des Interfaces sollte möglichst einfach gehalten sein, weil die Aufmerksamkeit des Anwenders<br />
auf seiner eigentlichen Aufgabe liegt und nicht bei der Bedienung des Computers.<br />
Daher sollte die Anzahl der wählbaren Items auf ca. 7 reduziert werden. Eine rotierende Auswahl<br />
erleichtert die Bedienung, dazu muss das Zeigegerät nur zwei Richtungen unterstützen.<br />
[15]<br />
Um den Anwender zu entlasten, soll sich ein Wearable kontextsensitiv verhalten und aus „eigenen<br />
Antrieb“ tätig werden können. Hier sind Fragen der K.I. betroffen. Ein „Agent“ der<br />
tatsächlich ein „Verständnis“ für die Tätigkeit seines Anwenders aufbringt, ist z.Z. technisch<br />
nicht realisierbar. Möglich ist hingegen die Realisierung von Teilaspekten, zum Beispiel<br />
„Orts-Sensivität “ mit Hilfe eines GPS-Empfängers. Wenn beispielsweise der Anwender die<br />
Kaufhalle betritt könnte ihm eine Einkaufsliste angezeigt werden.
163 Olaf Geschonke<br />
8 Design-Beispiel<br />
Bei der Wartung von Fahrzeugen weist die Umgebung extreme Bedingungen bzgl. Schmutz,<br />
Licht und Temperatur auf. Daher muss ein Wearable für Wartungszwecke sehr robust gebaut<br />
sein. Der Techniker muss die Bewegungsfreiheit besitzen um unter, am und im Fahrzeug arbeiten<br />
zu können. Dabei muss er die Hände die meiste Zeit über frei haben.[14]<br />
Der VuMan3[16][17][14] wurde speziell zur Inspektion und Wartung von Fahrzeugen entwickelt.<br />
Die Anforderungen bezgl. Mobilität und Freihändigkeit führten zu einem Design, dass<br />
die Eingabe von Texten nicht gut unterstützt. Das Gerät wird zum Abarbeiten von Umfangreichen<br />
Checklisten eingesetzt. Wie schon erwähnt muss das Interface des Gerätes einfach<br />
gehalten, und speziell auf den Anwendungsfall zugeschnitten sein, um die Aufmerksamkeit<br />
des Technikers nicht von seiner eigentlichen Aufgabe abzulenken. Über ein HUD-Display<br />
kann der Techniker den einzelnen Punkten der Liste einen Status zuweisen, den er aus einer<br />
Liste auswählt. Die Auswahl erfolgt über eine große Drehwählscheibe und 3 große Tasten,<br />
die auch mit Arbeitshandschuhen gut zu bedienen ist. Das Gerät ist kompakt gebaut<br />
(12,7x15,9x5,1cm / 794g) und wird am Gürtel getragen. Das HMD wird über Kabel angeschlossen.<br />
Abbildung 14: VuMan 3 [B17]
164 Design-Aspekte von Wearable Computern<br />
Quellen<br />
[1] S. Mann, Wearable Computing FAQ, Online: http://wearcam.org/wearcompfaq.html,<br />
Stand April 2003<br />
[2] Karvonen, Parkkinen: A Short Note on the Social Consequences of Wearables,<br />
Online: http://www.cs.hut.fi/~karvonen/scii2001_karvonen_parkkinen.pdf, Stand Juni<br />
2003<br />
[3] Dyer, Eisbach, Ark: At what cost pervasive?, IBM Systems Journal, Vol 38 No4,<br />
Online: http://www.research.ibm.com/journal/sj/384/dryer.html, Stand Juni 2003<br />
[4] Toney, Mulley, Thomas, Wayne: Minimal Social Weight User Interactions for<br />
Wearable Computers in Business Suits,<br />
Online: www.tinmith.net/papers/toney-iswc-2002.pdf, Stand Juni 2003<br />
[5] Barfield, Mann, Baird, Gemperle, Kasabach, Stivoric, Bauer, Martin, Cho:<br />
Computational Clothing and Accessories<br />
[6] Post,Orth,Russo,Gershenfeld: Design and fabrication of textile based computing, IBM<br />
SYSTEMS JOURNAL, Vol 39,<br />
Online: www.research.ibm.com/journal/sj/393/part3/post.pdf, Stand April 2003<br />
[7] Jürgen Rink, Volltanken bitte – Brennstoffzellen für Notebooks, Handys und PDAs,<br />
c’t Ausgabe 10/03 , Seiten 94-101<br />
[8] Thad Starner:Human Powerd Wearable Computing, Online: http://wwwwhite.media.mit.edu/vismod/publications/techdir/TR-328.ps.Z,<br />
Stand April 2003<br />
[9] Webseite Transmeta, online:<br />
http://www.transmeta.com/technology/specifications/index.html, Stand April 2003<br />
[10] Webseite Via-PC, http://www.via-pc.com/product/VIAIIPC.HTM, Stand April 2003<br />
[11] Webseite Xybernaut, http://www.xybernaut.de/produkte/ger/d_ixma5.html, Stand<br />
April 2003<br />
[12] Robert Jacob: Eye Tracking in Advanced Interface Design,<br />
Online: http://www.cs.tufts.edu/~jacob/papers/barfield.html, Stand April 2003<br />
[13] entnommen Holger Börschinger: Virtuelle Kommunikation,<br />
Online: http://www2.inf.fh-rhein-sieg.de/mi/lv/vr/ws98/stud/virtkomm/vr.htm, Stand<br />
April 2003<br />
[14] Bass, Siewiorek, Bauer, Casciola, Kasabach, Martin, Siegel, Smailagic, Stivoric:<br />
Constructing Wearable Computer for Maintenance Applications<br />
[15] Schmidt, Gellersen, Beigl, Thate: Developing User Interfaces for Wearable Computers<br />
– Don´t Stop to Point and Click<br />
[16] Bass, Kasabach, Martin, Siewiorek, Smailagic, Stivoric: The Design of a Wearable<br />
Computer,<br />
Online: http://www.acm.org/sigchi/chi97/proceedings/paper/ljb1.htm, Stand April<br />
2003<br />
[17] Smailagic, Siewiorek, Martin, Stivoric: Very Rapid Prototyping of Wearable<br />
Computers: A Case Study of VuMan 3 Custom versus Off-the-Shelf Design<br />
Methodologies, Online: www.cs.cmu.edu/afs/cs.cmu.edu/project/<br />
vuman/www/publications/veryrapid.pdf, Stand April 2003
165 Olaf Geschonke<br />
Bildnachweis<br />
[B1]<br />
[B2]<br />
[B3]<br />
[B4]<br />
[B5]<br />
[B6]<br />
[B7]<br />
[B8]<br />
[B9]<br />
[B10]<br />
[B11]<br />
[B12]<br />
[B13]<br />
[B14]<br />
[B15]<br />
entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_053.htm,<br />
Stand April 2003<br />
entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_054.htm,<br />
Stand April 2003<br />
entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_055.htm,<br />
Stand April 2003<br />
entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_058.htm,<br />
Stand April 2003<br />
entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_060.htm,<br />
Stand April 2003<br />
entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_062.htm,<br />
Stand April 2003<br />
entnommen Alexander Gnodtke: Stromversorgung ubiquitärer Systeme, online:<br />
http://snake.cs.tu-berlin.de:8081/~tom/ubiq-2002/documents/Gnodtke-praes.pdf, (z.Z.<br />
nicht verfügbar)<br />
entnommen Vortrag Krömker, Dörner: Virtual Reality und Augmented Reality, Seite<br />
23, Online:<br />
http://www.agc.fhg.de/uniGoethe/lehre/ss02/unterlagen/vrmr_03_virtual_reality_prinz<br />
ipien.pdf, Stand April 2003<br />
entnommen Vortrag Krömker, Dörner: Virtual Reality und Augmented Reality, Seite<br />
23, Online:<br />
http://www.agc.fhg.de/uniGoethe/lehre/ss02/unterlagen/vrmr_03_virtual_reality_prinz<br />
ipien.pdf, Stand April 2003<br />
entnommen Vortrag Krömker, Dörner: Virtual Reality und Augmented Reality, Seite<br />
24, Online:<br />
http://www.agc.fhg.de/uniGoethe/lehre/ss02/unterlagen/vrmr_03_virtual_reality_prinz<br />
ipien.pdf, Stand April 2003<br />
entnommen Webseite MIT: Building a head mount for the Private Eye, Online:<br />
http://www.media.mit.edu/wearables/lizzy/lizzy/pe.html, Stand April 2003<br />
entnommen Website Phone scoop: Frog Design / Motorola Offspring Wearables<br />
Concept, online: http://www.phonescoop.com/articles/moto_wearables/, Stand April<br />
2003<br />
entnommen Vortrag Krömker, Dörner: Virtual Reality und Augmented Reality, Seite<br />
35, Online:<br />
http://www.agc.fhg.de/uniGoethe/lehre/ss02/unterlagen/vrmr_03_virtual_reality_prinz<br />
ipien.pdf, Stand April 2003<br />
entnommen Webseite S. Lobers: Wearable Computing in der Arbeitswelt<br />
insbesondere im Bauwesen, online: http://www.uniweimar.de/~lobers/Wearable/Wearable_Computing.html,<br />
Stand April 2003<br />
entnommen Webseite Handykey Corporation, online:<br />
http://www.handykey.com/site/twiddler2.html, Stand April 2003
166 Design-Aspekte von Wearable Computern<br />
[B16]<br />
[B17]<br />
entnommen Webseite Keytools, online:<br />
http://www.keytools.com/images/extra/cykey.htm, Stand April 2003<br />
entnommen Webseite, http://www.ices.cmu.edu/design/VuMan.html, Stand April<br />
2003
Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />
Johann Gröbmair<br />
Pitzarweg 22<br />
83624 Otterfing<br />
jonny.groebmair@tiscalinet.de<br />
Zusammenfassung: In Augmented Reality (AR) Systemen werden reale Objekte in<br />
virtuelle Umgebungen eingebettet. Dazu müssen Position, Richtung und oftmals auch<br />
Geschwindigkeit und Beschleunigung der Objekte bekannt sein. Diese Ausarbeitung<br />
befasst sich mit den Methoden zur Messung dieser Grössen. Physikalisch lässt sich das<br />
Problem nach [Rol] in die Bereiche Zeit- Frequenzmessung, räumliche Abtastung,<br />
Massenträgheitsverfahren, mechanische Verbindungen und Feldstärkebestimmung,<br />
einteilen. Auch Ansätze verschiedene Verfahren zu kombinieren finden in dem Abschnitt<br />
Hybrid-Systeme Berücksichtigung. Mithilfe dieser Messverfahren, lassen sich Richtung,<br />
Beschleunigung oder die Geschwindigkeit, meist indirekt bestimmen. Oftmals ist auch<br />
eine teilweise sehr aufwändige Verarbeitung der Messdaten notwendig, die von<br />
leistungsstarken Rechenanlagen bewerkstelligt wird, um die Abtastraten hoch halten zu<br />
können. Neben der Vorstellung der physikalischen Grundlagen, soll exemplarisch an<br />
ausgewählten Beispielen aufgezeigt werden, was davon technisch realisiert ist.<br />
1 Zeit-und Frequenzmessung<br />
1.1 Time-of-Flight Systeme<br />
Will man neben der Position auch die Orientierung messen so benötigt man Systeme mit<br />
sechs Freiheitsgraden (6 DOF). Für die Position sind lediglich drei notwendig, diese<br />
Messungen beziehen sich jedoch nur auf einen ausgezeichneten Punkt des Zielobjektes. Legt<br />
man jedoch auf dem Zielobjekt drei Punkte fest, die natürlich nicht auf einer Geraden liegen<br />
dürfen, so lässt sich durch die Positionsbestimmung dieser definierten Punkte auch die<br />
Orientierung errechnen. Dies ist nichts anderes als eine Kombination von Positionsmessungen<br />
mit anschliessender Auswertung.<br />
Eine erste Möglichkeit die Orientierung von Objekten zu messen, beruht auf der Ermittlung<br />
der Ausbreitungszeit von Ultraschallwellen. Dazu notwendig ist, neben drei Schallemittoren<br />
auf dem zu messenden Objekt, eine Referenzanordnung mit drei Ultraschallempfängern. Die<br />
geometrische Anordnung der Emitter/ Empfänger zueinander muss dabei bekannt sein. Die<br />
Emitter senden nun zu genau festgelegten Zeitpunkten (üblicherweise durch Triggerung)<br />
nacheinander ein Schallsignal, das von den drei Empfängern detektiert wird und so indirekt<br />
durch die Messung der Ausbreitungszeit die Entfernung errechnet werden kann, da die<br />
Ausbreitungsgeschwindigkeit der Schallwellen bekannt ist. So lässt sich über die bekannte<br />
Ortslage der Empfänger auf dem Referenzkörper die genaue Position der Ultrawellensender<br />
auf dem zu bestimmenden Zielobjekt ermitteln. Da nun die goemetrische Anordnung der drei<br />
Sender zueinander ebenfalls bekannt ist, lässt sich daraus die genaue Orientierung dieses<br />
Objektes errechnen. Für die Triggerung existieren zwei Ansätze. Eine Möglichkeit ist das<br />
ganze System zu verkabeln und elektronisch die Sender/Empfänger anzuregen. Will man<br />
ohne Kabel auskommen, so kann man sowohl Referenz als auch Ziel mit Photodioden ausstatten,<br />
die über Leucht- oder auch Laserdioden zum Auslösen der Messung veranlasst<br />
werden.
168 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />
Bild 1: Geometrische Anordnung von Ultraschall-Sendern, -Empfänger<br />
Bild 1 zeigt diese Anordnung und lässt erkennen dass die Orientierung durch Triangulation<br />
berechnet werden kann. Der Algorithmus ist leicht zu implementieren. Das Verfahren erreicht<br />
eine Genauigkeit von etwa 0,1 Grad. Die Reichweite ist auf ca. 4m begrenzt, zudem muss<br />
sich das Zielobjekt in einem Winkelbereich von etwa 45° in Bezug zur Referenz befinden.<br />
Nachteilig an dem System ist die Abhängigkeit der Schallgeschwindigkeit von Temperatur,<br />
Luftdruck und –feuchtigkeit. Auch ist die Sample-Rate durch die relativ niedrige Ausbreitungsgeschwindigkeit<br />
der Schallwellen gering. Zudem müssen Maßnahmen getroffen werden<br />
dass die Messungen nicht durch Umgebungsgeräusche gestört werden. Die Einsatzgebiete<br />
dagegen sind vielfältig. Im Militärbereich werden immense Anstrengungen unternommen um<br />
über die Position des Pilotenhelmes die Bordwaffen von Kampfflugzeugen und –Hubschraubern<br />
in die Ziele zu lenken. Jedoch auch bei der Anwendung von Datenhandschuhen<br />
und –Anzügen wird diese Technologie angewandt. Hierbei ist der Aufwand der Software-<br />
Implementierung jedoch, infolge des Zusammenwirken von vielen Sensoren, erheblich.<br />
Die Firma Logitech bietet, wie in [Log] beschrieben, ein solches Tracking-System zu einem<br />
Preis von 1200 USD an.<br />
Bild 2: Tracking-System von Logitech<br />
Es handelt sich um ein 6 DOF-System, bestimmt also sowohl die Position als auch die Orientierung.<br />
Als Objekt ist der menschliche Kopf gedacht, die Sensoren sind in einem HMD<br />
(Head mounted Display) angebracht. Die Abtastrate ist mit 50 Messungen/s angegeben, der<br />
Messbereich mit 5 Fuss und das System funktioniert in einem Winkelkegel von 100°.<br />
Eine andere Messmethode arbeitet mit der nahezu gleichen Anordnung, misst aber nicht die<br />
Ausbreitungszeit der Wellen, sondern deren Phasenverschiebung. Im Gegensatz zur vorangegangenen<br />
Methode werden hier nicht Einzelimpulse gesendet, sondern jeder Sender strahlt ein<br />
Dauersignal ab, jedoch mit unterschiedlicher Frequenz. Hierbei können natürlich nur Relativbewegungen<br />
detektiert werden, die absolute Position und Orientierung muss vorab bekannt
169 Johann Gröbmair<br />
sein. Das Verfahren ist wesentlich unempfindlicher gegen die Parameter der Luftkonsistenz<br />
und erlaubt höhere Update-Raten. Dadurch erhöht sich die Messgenauigkeit etwa um Faktor<br />
5. Die maximale Bewegung eines jeden Sensors zwischen zwei Messungen darf jedoch die<br />
Wellenlänge der Ultraschallsignale nicht überschreiten, da sonst die Messungen nicht mehr<br />
eindeutig wären. Bei Ultraschall beträgt die Wellenlänge typischerweise etwa 8 mm.<br />
1.2 Optisches Gyroskop<br />
Mit einem optischen Gyroskop lässt sich die Winkelgeschwindigkeit eines Gegenstandes ermitteln.<br />
Zu unterscheiden ist dabei zwischen dem FOG (Fiber Optik Gyroskop) und dem RLG<br />
(Ring Laser Gyroskop). Die Funktionsweise des FOG wird anhand von Bild 3 erläutert.<br />
Bild 3: Fiber Optik Gyroskop<br />
Ein Laserstrahl wird zunächst, wie in [Mey] erläutert, von dem ersten halbdurchlässigen<br />
Spiegel gesplittet. Die beiden aufgeteilten Lichtwellen wandern in entgegengesetzter<br />
Richtung durch die Anordnung, die noch aus drei weiteren, völlig reflektierenden Spiegeln<br />
besteht. Am Ausgang wird die Inteferenz der beiden Lichtwellen betrachtet. Ist das Gyroskop<br />
nicht in Bewegung so beträgt die Phasendifferez der beiden Wellen genau pi, sie löschen sich<br />
also gegenseitig aus. Wird nun das Gyroskop im Uhrzeigersinn gedreht, so legt die Welle<br />
gegen den Uhrzeigersinn einen kürzeren Weg zurück als die andere. Dies kann am Ausgang<br />
durch Inteferenzringe sichtbar gemacht werden. Durch die Anzahl der Ringe lässt sich somit<br />
auf die Winkelgeschwindigkeit und einmal integriert auf die Orientierung schliessen. Werden<br />
nun drei Gyroskope orthogonal angeordnet, so ist die komplette Orientierung eines Objektes<br />
im Raum bestimmbar.<br />
Beim RLG werden die Lichtwellen durch ein stimulierendes Medium geschickt. Beim Drehen<br />
des Gyroskops wird die Frequenz der einen Welle leicht erniedrigt, die der anderen geringfügig<br />
erhöht. Bei der Überlagerung der beiden Laserstrahlen entsteht eine Welle mit der<br />
Differenzfrequenz, die proportional zur Winkelgeschwindigkeit ist.<br />
Gyroskope haben eine hohe Sample-Rate und sind weitgehend unempfindlich bezüglich äusserer<br />
Einflüsse. Auch die Winkelgenauigkeit von 0,1° zeichnet dieses Messverfahren aus.<br />
Gyroskope werden meist zusammen mit anderen Messverfahren angeboten. Ein praktisches<br />
Beispiel folgt mit dem Motion Pack in einem späteren Kapitel (Hybrid-Verfahren).<br />
1.3 Doppler-Verfahren<br />
Ein vor allem in der Radartechnik eingesetztes Verfahren zur Bestimmung der Geschwindigkeit<br />
von Luftfahrzeugen oder Raketen nutzt den Doppler-Effekt aus. Wird eine Schall- oder<br />
elektromagnetische Welle von einem sich auf die Quelle zu- oder wegbewegenden Ziel reflektiert,<br />
so ist die Frequenz der zurückgeworfenen Welle höher bzw. niedriger. Die Frequenzerhöhung,<br />
-erniedrigung ist direkt proportional zur Geschwingigkeit des erfassten Zielob-
170 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />
jektes. Unter anderem, wird diese Technik auch bei Geschwindigkeitskontrollen im<br />
Strassenverkehr eingesetzt.<br />
2 Räumliche Abtastung<br />
Die räumliche Abtastung lässt sich grundsätzlich in die beiden Bereiche Outside-In und<br />
Inside-Out unterscheiden. Der wesentliche Unterschied dieser beiden Prinzipien ist die Lokalisation<br />
der Sensoren. Bei ersterem befinden sie sich auf der Referenz, bei letzterem auf dem<br />
zu messenden Objekt.<br />
2.1 Outside-In<br />
Die Outside-In Methode benutzt in der Regel eine oder auch mehrere CCD Video-Kameras.<br />
Mithilfe dieser wird die Umgebung auf 2D Bilder abgebildet und anschließend mittels<br />
spezieller Algorithmen ausgewertet. Beim Multiskop-Verfahren muss die Lage der Kameras<br />
zueinander bekannt sein um mittels Triangulation die Lage und Orientierung des zu<br />
bestimmenden Objekts errechnen zu können. Um sowohl die Position als auch die Ausrichtung<br />
des Objektes zu bestimmen werden mindestens drei Kameras benötigt. Zu vergleichen<br />
ist diese Methode mit dem menschlichem Sehsystem, bei dem zwei Augen für eine räumliche<br />
Wahrnehmung sorgen. Ein praktisches Beispiel für dieses Verfahren ist der OPTOTRAK<br />
3020 von der Firma Northern Digital.<br />
Bild 4: OPTOTRAK 3020<br />
Ein anderes Verfahren wird als pattern recognition nach [Gen] bezeichnet. Hier wird mit nur<br />
einer Kamera gearbeitet, jedoch muss die geometrische Struktur des Messobjekts bekannt<br />
sein. Folgende Abbildung soll das Prinzip illustrieren.<br />
Bild 5: Pattern recognition<br />
Als Beispielobjekt soll ein Würfel mit bekannter Seitenlänge dienen. Betrachtet man die<br />
sicht-baren Flächen und berücksichtigt die Größenverhältnisse zueinander, so lässt sich die<br />
Orien-tierung der geometrischen Figur errechnen. Berücksichtigt man darüber hinaus noch
171 Johann Gröbmair<br />
die abso-lute Größe der Kameraaufnahme, kann die Entfernung und zusammen mit der<br />
Position auf der 2D-Aufnahme, die genaue Position im Raum bestimmt werden. Dieses<br />
Beispiel zeigt den wohl einfachsten aller Fälle. Tatsächlich existieren Algorithmen, die mit<br />
diesem Prinzip die Ausrichtung eines menschlichen Körpern mit all seinen Gliedmassen in<br />
akzeptabler Weise zu detektieren vermögen. Die sehr komplizierte dazu notwendige<br />
Algorithmik wird teilweise von speziell dafür entwickelten Hardwarekomponenten<br />
unterstützt, um die Berechnungszeiten deutlich reduzieren zu können. Auch mit neuronalen<br />
Netzen wird an diesen sehr aufwändigen Applikationen entwickelt.<br />
Eine interessante Variation dieses Verfahrens bedient sich eines nützlichen Hilfsmittels. Dazu<br />
wird ein optisches Gitter auf das zu bestimmende Objekt projiziert. Diese Projektion kann auf<br />
zwei verschiedene Arten erfolgen. Eine erste Möglichkeit ist die Erzeugung eines optischen<br />
Gitters durch Interferenz von mindestens zwei Laserstrahlen. Das hierdurch erzeugte Gitter ist<br />
sehr regelmässig und die Auflösung kann bis zur halben Wellenlänge des Laserlichtes<br />
reichen. Nachteilig wirkt sich jedoch der kleine Scan-Bereich dieser Methode aus. Der<br />
Abtastbereich lässt sich, allerdings durch Verschlechterung der Auflösung, dadurch<br />
vergrössern, wenn anstatt des Laserlichtes herkömmliches Licht an einem Gitter gebeugt<br />
wird. Die optische Struktur entsteht durch die Inteferenzringe, die natürlich hier auch nicht<br />
mehr die Regelmässigkeit der Lasermethode aufweisen. Beiden Verfahren gemeinsam ist<br />
jedoch, dass durch diese Rasterung die Abtastung durch die Videokameras ganz wesentlich<br />
unterstützt wird, da das Zielobjekt elegant in viele unterscheidbare Teilbereiche eingeteilt<br />
wird.<br />
2.2 Inside-Out<br />
Bei diesem Ansatz befinden sich die Sensoren, wie bereits o.a. auf dem zu messenden Zielobjekt.<br />
Auch dieser Bereich lässt sich grundsätzlich wieder in zwei Teilgebiete unterteilen,<br />
nämlich der videometrische Ansatz und die Methode bei der die Winkel eines sweeping beam<br />
gemessen werden. Ein Vorteil dieser Methoden ist die um ein Vielfaches höhere Genauigkeit,<br />
die durch folgenden Sachverhalt bedingt ist: Eine sich bewegende Kamera verursacht, selbst<br />
bei kleinen Winkelauslenkungen, eine viel grössere Veränderung in den aufgenommenen Bildern<br />
als ein relativ weit entferntes Zielobjekt bei einer Positions-oder Richtungsänderung.<br />
Bei der Videometrik-Methode sind die Sensoren i. d. R. Videokameras, die auf dem Zielobjekt,<br />
z.B. auf dem Helm den eine Person trägt, starr justiert sind. Es existieren jedoch auch<br />
Ansätze, die mit Photodioden und einem raffiniert ausgelegten Linsensystem bestückt sind.<br />
Als Referenz dient die Umgebung, die dem System bekannt sein muss. Idealerweise ist diese<br />
mit einem sich wiederholendem Muster, wie z.B. Fliesen ausgestattet. Die Ausstattung der<br />
Umgebung mit in regelmässigem Muster angebrachten blinkenden LED’s ist auch eine<br />
Möglichkeit, dem System die Postions-und Orientierungsmessung zu ermöglichen, die bei der<br />
Vermessung mittels Photodioden eingesetzt wird. Jede Kamera nimmt nun zu jedem<br />
Zeitpunkt ein Bild auf, das je nach Position und Ausrichtung einen bestimmten Bereich der<br />
Umgebung beinhaltet.
172 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />
Bild 6: Abtastung anhand eines Musters<br />
Bild 5 veranschaulicht die Wirkungsweise dieser Methodik. Ganz erheblich ist hier wieder<br />
der zu betreibende Aufwand, die aufgenommenen Bilder auszuwerten und daraus die Position<br />
und Orientierung zu gewinnen. Werden anstelle der Kameras Photodioden verwendet, so<br />
müssen in der Umgebung regelmäßig blinkende Leucht- oder Laserdioden angebracht sein.<br />
Mithilfe intelligenter Spiegelanordnungen lassen sich sehr genau auflösende 6D Tracker<br />
realsieren. HiBall von 3rdTech, wie es in [HiB] beschrieben ist, stellt ein Beispiel dafür dar.<br />
Der Sensor ist mit jeweils 6 Photodioden und Linsen ausgestattet. Durch die Vielzahl, der an<br />
der Decke mittels der LED-Leisten angebrachten Leuchtdioden, lässt das System<br />
Messgenauigkeiten bis zu 0,2 mm bzw. 0,01° für die Orientierung zu. Die Abtastrate ist dabei<br />
mit 2000 Hz sehr hoch. Das grosse Problem ist natürlich die aufwendige, und teure<br />
Auskleidung der Umgebung mit den LED-Leisten. Auf der anderen Seite kann der<br />
Messbereich auf bis zu 150 qm ausgedehnt werden.<br />
Bild 7: HiBall von 3rdTech a: Sensor<br />
b: LED-Leisten<br />
Ein anderes Verfahren wird als beam sweeping bezeichnet. Die Referenz ist ein Körper auf<br />
dem Lichtstrahlen (meist Laserlicht) mit konstanter Winkelgeschwindigkeit rotiert werden.<br />
Auf dem Zielobjekt befinden sich meist mehrere Empfänger (z.B. Photodioden) um das Licht,<br />
wenn es sich darüberbewegt, zu erfassen. Dabei werden die genauen Zeitpunkte gemessen, an<br />
denen die Lichtstrahlen die Empfänger passieren. Da das Rotationsverhalten des oder auch<br />
der Referenzkörper bekannt ist, lassen sich aus den Zeitpunkten die exakten Winkel ermitteln,<br />
die die Lichtquellen gerade überstreichen. Mit entsprechend komplexen Anordnungen (6 Freiheitsgrade)<br />
lassen sich auch hier Position und Orientierung durch Triangulation mittels der indirekt<br />
gemessenen Winkel bestimmen.<br />
Eine andere Möglichkeit besteht darin, nicht Laserlicht sondern eine Kamera rotieren zu<br />
lassen, und die nacheinander aufgenommenen Bilder auszuwerten. Dadurch entfallen die<br />
Empfänger auf der Referenz. Hier ist natürlich der sehr hohe (Software-) Aufwand zu berücksichtigen,<br />
der mit der Bilderauswertung einhergeht.
173 Johann Gröbmair<br />
3 Massenträgheit<br />
Bei diesen Verfahren wird die Eigenschaft der Masse oder eines Moments sich einer<br />
Bewegung verursachenden Kraft zu widersetzen, ausgenutzt. In diesem Zusammenhang wird<br />
dies auf zwei unterschiedliche Arten praktiziert. Zum einem misst ein mechanisches<br />
Gyroskop die Abweichung der Orientierung. Auf eine andere Art kann direkt eine lineare<br />
Beschleunigung gemessen werden.<br />
3.1 Mechanisches Gyroskop<br />
Diese Anordnung ist wohl besser unter dem Namen Kreiselkompass bekannt, wie er vor allem<br />
in Schiffen und Flugzeugen Verwendung findet. Der Kern des Gyroskops ist eine sich sehr<br />
schnell (20000 U/min) um eine feste Achse drehende Scheibe, die dadurch ein sehr starkes<br />
Drehmoment erzeugt. Ändert nun das Objekt, auf dem das Gyroskop fest montiert ist, seine<br />
Orientierung aus dieser Achse heraus, so versucht das Drehmoment seine ursprüngliche Lage<br />
wieder herzustellen. Dies äußert sich als eine Kraft, die mittels Encoder gemessen werden<br />
kann. Es sind jedoch mindesten zwei Gyros notwendig (üblicherweise benutzt man drei) um<br />
eine räumliche Orientierung vermessen zu können. Die Bestimmung einer Orientierungänderung<br />
um die Rotationsachse selbst ist ja nicht möglich, da das Drehmoment dadurch nicht<br />
beeinflusst wird. Ein großer Vorteil dieses Prinzips ist, dass es keine äußere Referenz<br />
benötigt. So kann z.B. eine 3D-Maus konstruiert werden, die keine Auflagefläche benötigt.<br />
Die Fa. Gyration stellt in ihrer Gyropoint Produktfamilie derartiges her.<br />
3.2 Beschleunigungsmessung<br />
Die Messung der Beschleunigung mittels des Trägheitsprinzips beruht auf dem 2. Gesetz von<br />
Isaac Newton, F = m * a. Dabei wird die Kraft gemessen, die auf eine bekannte Masse wirkt.<br />
So kann direkt die Beschleunigung errechnet werden. Zur Bestimmung dieses Kraft eignen<br />
sich die beiden in folgender Abbildung dargestellten Methoden.<br />
Kondensatorplatten<br />
Piezokristall<br />
Dielektrikum<br />
Massekörper<br />
Bild 8a: Kapazitätsmessung<br />
8b: mit Piezokristallen<br />
Bei der in Bild 7a gezeigten Abbildung ist an der bekannten Masse ein Dielekrikumstreifen<br />
angefügt. Wird nun der Körper, an dem die Anordnung befestigt ist, beschleunigt so wird die
174 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />
Masse mit dem Dielektrikum in Richtung der Beschleunigung verschoben. Durch die Federn<br />
an beiden Enden entspricht die Auslenkung exakt der Größe der diese Verschiebung verursachenden<br />
Beschleunigung. Die Lageveränderung des Dielektrikumstreifens zwischen den Kondensatorplatten<br />
verursacht eine Veränderung der Kapazität. Die aktuelle Kapazität des Kondensators<br />
ist demnach ein Maß für die Beschleunigung.<br />
Die zweite Möglichkeit, Beschleunigung zu messen, ist in Bild 7b dargestellt. Zur Messung<br />
der Kraft werden kugelförmige Piezokristalle verwendet. Drückt etwas auf diese Kristalle so<br />
entsteht entsprechend der verformenden Kraft eine elektrische Spannung. Diese steht, bedingt<br />
durch die Massenträgheit, wieder in direkter Proportionalität mit der Beschleunigung.<br />
4 Mechanische Verbindungen<br />
Diese Art der Positions- und Orientierungsbestimmung findet, bedingt durch sein relativ hohes<br />
Gewicht, hauptsächlich im Einsatz von Industrierobotern Verwendung. Ausgehend von<br />
einem Referenzpunkt ist das Zielobjekt (bei Robotern meist ein Werkzeug) durch einen oder<br />
auch mehreren Armen verbunden. Die Verbindungen zwischen den Armen besteht aus Dreh-<br />
Kugel- oder Schubgelenken. Diese sind entsprechend mit Winkel – oder Längensensoren ausgestattet.<br />
Diese Sensoren erlauben, zusammen mit den geometrischen Abmessungen der<br />
Arme, die genaue Errechnung von Position und Orientierung des Zielobjekts. Durch die Multiplikation<br />
von Transformationsmatrizen lässt sich dies mit Computerhilfe relativ leicht implementieren.<br />
Jedoch existieren bereits Entwicklungen, mechanische Systeme als Eingabetools für virtuelle<br />
Objekte zu verwenden. Das Phantom 1,5/6DOF von der Firma Sensable Technologies [Sen]<br />
ist ein Beispiel dafür. Es wird direkt an den PC angeschlossen und kann so Position und<br />
Orientierung direkt übernehmen.<br />
Bild 9: Phantom 1,5/6DOF<br />
Die Auflösung ist mit 0,05 mm/ 0,2° sehr gut, der Preis liegt bei diesem noch nicht lange auf<br />
dem Markt befindlichem Tool bei stolzen 27.500 Euro.<br />
5 Feldmessung<br />
5.1 Elektro-Magnetisches Feld<br />
Die hier beschriebene Methode ist die Messung der magnetischen Feldstärke. Als Feldquelle<br />
dient eine Spule, welche sich an einem bekannten Referenzpunkt befindet. Im Empfänger, der<br />
wieder auf dem zu vermessenden Zielobjekt justiert ist, sind drei Spulen angebracht, jeweils<br />
zueinander orthogonal verdreht. Durch das erregende elektro-magnetische Feld wird in diesen<br />
eine Spannung induziert. Aus dem Verhältnis der induzierten Spannungen der drei
175 Johann Gröbmair<br />
Empfänger-Spulen kann die Orientierung ermittelt werden, da nur die orthogonale<br />
Komponente des Feldes eine Induktionsspannung hervorruft. Die Amplituden sind ein Maß<br />
für die Entfernung des Objektes von der Erregerspule. Zur Feldanregung werden zwei<br />
Ansätze verwendet. Zum einem kann die Spule von einem sinusförmigen Wechselstrom<br />
gespeist werden. Ein Nachteil ist dabei zu bedenken. Durch diese Anregung entstehen auf<br />
einem metallischen Zielobjekt Wirbelströme, die wiederum ein elektro-magnetisches Feld<br />
erzeugen. Eine zweite Möglichkeit besteht darin die Spule mit einem gepulsten Gleichsignal<br />
zu versorgen. Auch hier entstehen durch den Einschaltvorgang Wirbelströme, die jedoch<br />
schnell abklingen. Wird nun die von den Empfängerspulen induzierte Spannung zum<br />
letztmöglichen Zeitpunkt, also unmittelbar vor dem nächsten Gleichstromimpuls gemessen,<br />
so ist diese Störquelle weitgehend eliminiert. Permanente Störquellen wie ferromagnetische<br />
Stoffe oder auch Computer-Monitore sollten sich nicht im Bereich dieser Messungen<br />
befinden, da auch sie Felder erzeugen, die die Messungen verfälschen würden.<br />
Die Reichweite ist bei dieser Technologie auf etwa 5m begrenzt, bezüglich der Winkel gibt es<br />
keine Grenzen. Die Genauigkeit dieser Messverfahren liegt im Zehntel-Millimeter bzw. im<br />
Zehntel-Grad Bereich.<br />
Ein praktisches Beispiel dieses Messverfahrens bietet die Firma Ascension [Asc] mit einem<br />
Produkt an, das den Namen Flock of Bird trägt.<br />
Bild 10: Flock of Birds<br />
Dieser Tracker arbeitet mit der gepulsten DC-Methode und hat eine Reichweite von 1,2 m.<br />
Seine Positions- Winkelgenauigkeit ist mit 1,8mm/ 0,5° angegeben.<br />
5.2 Magnetisches Erdfeld<br />
Eine andere Möglichkeit zur Orientierungsmessung ist die Nutzung des magnetischen Erdfeldes.<br />
Bewegt man eine Spule in diesem Feld (nicht parallel zu den Feldlinien) so ändert sich<br />
durch die magnetischen Flussänderung ihre Induktivität. Um diese, durch das verhältnismäßig<br />
schwache Erdmagnetfeld, kleine Induktionsänderung auch messen zu können, integriert man<br />
die Spule in einem LCR-Schwingkreis. Die durch die Verdrehung resultierende Änderung der<br />
Spuleninduktivität macht sich in einer Verschiebung der Resonanzfrequenz des Schwingkreises<br />
bemerkbar. Mit drei orthogonal angeordneten Sensoren lässt sich dann die Orientierung<br />
eines Objektes bestimmen. Ein Handicap sind Inhomogenitäten, die im Magnetgürtel der Erde<br />
auftreten, so dass Kompensationsmassnahmen unternommen werden müssen um die mögliche<br />
Genauigkeit von etwa einem Grad zu erreichen. Ein grosser Vorteil ist dass keine Referenz<br />
für die Orientierungsmessung notwendig ist. Als Beispiel kann hier das CXM 539 der Firma<br />
Crossbow angeführt werden. Die erreichbare Messgenauigkeit wird mit < 0,5° angegeben.
176 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />
Bild 11: Crossbow CXM 539<br />
5.3 Erd-Gravitationsfeld<br />
Die Orientierung kann auch unter Ausnutzung der Erdgravitationsfeldes bestimmt werden,<br />
jedoch nur zwei Freiheitsgrade. Eine Messung der Auslenkung um die senkrechte Achse auf<br />
die Erdoberfläche ist dabei nicht möglich. Grundsätzlich bedient sich dieses Verfahren des<br />
Prinzipes der allseits bekannten Wasserwaage. Es wird die Höhe eines Flüssigkeitspegels bestimmt,<br />
woraus direkt auf die Neigung des Objektes geschlossen wird. Diese Höhe kann nun<br />
auf zweierlei Arten gemessen werden.<br />
Die erste Möglichkeit ist eine dielektrische Flüssigkeit in ein U-förmiges metallisches Rohr<br />
einzubringen. Dieses Rohr stellt einen Kondensator dar, dessen Kapazität abhängig ist vom<br />
Flüssigkeitspegel der Flüssigkeit. So kann durch Ermittlung dieser Kapazität auf den Neigungswinkel<br />
geschlossen werden. Versetzt man zwei derartige Anordnungen um 90°, so kann<br />
die Orientierung bezüglich der Erdachse orthogonalen Ebene bestimmt werden.<br />
Die andere Möglichkeit den Füllpegel einer Flüssigkeit zu messen ist optischer Natur. Hier<br />
befindet sich eine sehr dunkle, undurchsichtige Flüssigkeit in einem durchsichtigen (Glas-)<br />
Rohr. In diesem Rohr ist eine Vielzahl von photoempfindlichen Bauelementen (z.B. Phototransistoren)<br />
eingebracht. Die ganze Anordnung wird nun beleuchtet. Da nur die Transistoren,<br />
die nicht in die dunkle Flüssigkeit eingetaucht sind, erregt werden, lässt sich aufgrund dieser<br />
Anzahl wieder die Füllhöhe ermitteln.<br />
Ein grosser Nachteil ist bei diesen Verfahren die Detektionsgeschwindigkeit, da diese von der<br />
Viskosität der Fluide abhängt und so keine hohen Sample-Raten zulässt. Die Firma<br />
MicroStrain, Inc. bietet ein solches Gerät zum Preis von 425 USD an. Es ist in der Lage<br />
Winkelauslenkungen für zwei Achsen mit einer Auflösung von 0,01° zu vermessen.<br />
Bild 12: Microstrain FAS
177 Johann Gröbmair<br />
6 Hybridformen<br />
Einige der bisher vorgestellten Verfahren beinhalten bestimmte, teilweise schwerwiegende<br />
Einschränkungen. Eine Messung der Phasenlage liefert nur relative Resultate, Messungen des<br />
Gravitations- oder Magnetfeldes keine 3 Freiheitsgrade für die Orientierung. Aus diesem<br />
Grund werden oft mehrere Verfahren kombiniert eingesetzt um die gesamten erwünschten<br />
Angaben zu erhalten. Auch eine Erweiterung von eingeschränkten Messumgebungen lässt<br />
sich mit einer Kombination von zwei, oder auch mehreren Verfahren, bewerkstelligen.<br />
Die Firma Systron-Donner bietet mit dem Motion Pack [Mot] ein Gerät an, das durch<br />
Kombination zweier Messprinzipien in der Lage ist, Position und Ausrichtung zu bestimmen.<br />
Bild 13: Motion Pack<br />
Motion Pack besteht aus drei Beschleunigungsmessern sowie drei Gyroskopen zur<br />
Bestimmung der Winkelgeschwindigkeit. Über die normierte RS-232 Schnittstelle sind die<br />
Daten sowohl digital als auch analog für jede Achse verfügbar. Daraus kann durch entsprechende<br />
Software die Position und Orientierung laufend errechnet werden. Das Gerät ist klein,<br />
robust und mit 900 Gramm ausgesprochen leicht.<br />
Eine weitere Möglichkeit, Verfahren zu kombinieren, ist eine Erweiterung der eingangs beschriebenen<br />
Time of Flight Methode mittels Ultraschallwellen. Ein Nachteil dieser Methode<br />
ist der kleine Winkelbereich, in dem die Messungen durchgeführt werden können. Stattet man<br />
die Referenz mit einem Quaterniärdiodenarray aus, und lagert sie beweglich, so dass sie sich<br />
mit einem Kugelgelenk drehen kann, so kann dieser Nachteil vermieden werden. Eine<br />
Laserdiode auf dem Zielobjekt wird vom Diodenarray erfasst. Diese erzeugt, abhängig wie<br />
zentral der Laser das Array trifft, eine elektrische Spannung, ist also ein Maß für die ungefähre<br />
Lage des Zieles. Mittels Elektromotoren wird nun die Referenz, mit den Ultraschallemittoren,<br />
in die richtige Lage gedreht. Nun kann über die bereits beschriebene Zeitmessung<br />
der Schallwellen in Kombination mit den Winkelsensoren des Kugelgelenks, die Orientierung<br />
in einem weit grösserem Winkelbereich bestimmt werden.<br />
7 Schlusswort und Ausblick<br />
Die Entwicklung in diesem Bereich ist voll Im Gange. Eine Richtung hat das Ziel die Genauigkeit<br />
weiter zu verbessern. Speziell im Nanobereich, vor allem in der Medizintechnik, hat<br />
man sich zur Aufgabe gemacht die physikalische Beschränkung, die Heisenberg’sche Unschärferalation,<br />
möglichst anzunähern. Ein anderer Entwicklungsschwerpunkt liegt im Echtzeitverhalten.<br />
Damit ist gemeint, die Sampleraten so hoch zu halten, dass das menschliche<br />
Auge zwei aufeinander folgende Bilder nicht als Einzelbilder zu erkennen vermag, also eine<br />
durchgehende Bewegung sieht. Diese Bemühungen haben das Ziel, die Verarbeitungsgeschwindigkeit<br />
zu reduzieren. Diese wird begrenzt durch Wellenausbreitungsgeschwindigkei-
178 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />
ten, elektronische Verarbeitung aber auch Antwortzeiten von Programmen, die zum einen<br />
durch Implementierungsstrategie, aber auch mit schnellerer Hardware verbessert werden soll.<br />
Um dem menschlichen Betrachter Durchgängigkeit vorzutäuschen werden z.Zt. Kalman-<br />
Filter eingesetzt. Diese erzeugen, nicht durch Messungen ermittelte Zwischenbilder, die über<br />
die Veränderungen der letzten Bewegungen als wahrscheinlich nächstes „vorhergesehen“<br />
werden. Zudem ist die Tatsache, dass die räumlichen Umgebungen, in denen Objekte<br />
bestimmt werden können, oft doch sehr beschränkt sind, Gegenstand weitergehender Untersuchungen.<br />
Wie man sieht ist diese verhältnismäßig junge Technologie in vielerlei Hinsicht<br />
noch nicht weit über die Kinderstube hinaus, jedoch lässt die Zukunft auf interessante und<br />
spannende Ergebnisse hoffen.<br />
Quellen<br />
[Rol]<br />
Jannick P. Rolland; Larry D. Davis; Yohan Baillot;<br />
A Survey of Tracking Technology for Virtual Environments<br />
[Log] Logitech Tracker<br />
www.vrealities.com/logitech.html<br />
[Mey] J. R. Meyer-Arendt; (1995)<br />
Introduction to Classical and Modern Optics<br />
[Gen] D. B. Gennery; (1993)<br />
Visual Tracking of known three diamensional objects<br />
[HiB] Homepage Fa. 3rd Tech (2003)<br />
www.3rdtech.com/HiBall.htm<br />
[Sen]<br />
[Asc]<br />
[Mot]<br />
Sensable Technologies Inc. Product Brochure<br />
www.sensable.com/products/datafiles/Phantom_Ghost<br />
Ascension Technology Corporation, Produktbeschreibung<br />
www.ascension-tech.com/products/flockofbirds.php<br />
Systron-Donner Motion Pack<br />
www.systron.com/prodinfo/MotPk.html<br />
Bildquellen<br />
Bild 1,3,6 : Jannick P. Rolland; Larry D. Davis; Yohan Baillot;<br />
A Survey of Tracking Technology for Virtual Environments<br />
Bild 2 : Logitech Tracker<br />
www.vrealities.com/logitech.html<br />
Bild 4 : Northern Digital OPTOTRAK 3020<br />
www.ndigital.com<br />
Bild 7 : 3rd Tech (2003)<br />
www.3rdtech.com/HiBall.htm
179 Johann Gröbmair<br />
Bild 9 : Sensable Technologies Inc. Product Brochure<br />
www.sensable.com/products/datafiles/Phantom_Ghost<br />
Bild 10 : Ascension Technology Corporation, Produktbeschreibung<br />
www.ascension-tech.com/products/flockofbirds.php<br />
Bild 11 : Crossbow CXM 539<br />
www.xbow.com<br />
Bild 12 : Microstrain FAS<br />
www.microstrain.com/ecb/cat20_1.htm<br />
Bild 13 : Systron-Donner Motion Pack<br />
www.systron.com/prodinfo/MotPk.html
Display Technologien<br />
Verwendung in Augmented-Reality Systemen<br />
Dirk Schröder<br />
Kleiststraße 1<br />
35091 Cölbe<br />
dirk@hallo-schroeder.de<br />
Zusammenfassung: Ein wichtiger Bestandteil eines Augmented-Reality Systems ist das<br />
Display. Neben den Durchsicht- und Video-Durchsicht-Displays existieren noch eine<br />
Reihe von weiteren Ansätzen, die sich teilweise aber noch im experimentellen Stadium<br />
befinden. Entscheidend für die Verwendung solcher Displays in Augmented-Reality<br />
Szenarien ist aber immer die Akzeptanz durch den Anwender.<br />
1 Augmented-Reality Systeme<br />
1.1 Definition von Augmented-Reality System<br />
Ein Augmented-Reality System reichert die reale Welt um zusätzliche virtuelle Objekte an.<br />
Die virtuellen Objekte existieren gleichberechtigt neben den realen Objekten mit dem Ziel,<br />
dass der Unterschied zwischen beiden nicht mehr wahrnehmbar ist Nach Azuma besitzt ein<br />
Augmented-Reality System folgende Eigenschaften [ABB+01]:<br />
• Kombination von realen und virtuellen Objekten<br />
• Interaktion in „real-time“<br />
• reale und virtuelle Objekte beeinflussen sich gegenseitig<br />
Abbildung 27: Visualisierung eines virtuellen Kniegelenks<br />
Damit ist Augmented-Reality nicht nur auf die visuelle Wahrnehmung beschränkt, sondern ist<br />
auf alle menschlichen Sinne, einschließlich Hören, Tasten, Riechen ausgedehnt. Nach<br />
Milgram existiert zwischen den Extremen der gänzlich realen und der komplett virtuellen<br />
Welt ein Kontinuum, der gemischten Realität [MK94]. Augmented-Reality ist hier die erste<br />
Stufe in Richtung virtueller Realität.
182 Display Technologien<br />
Mixed Reality<br />
reale<br />
Welt<br />
Augmented<br />
Reality<br />
Augmented<br />
Virtuality<br />
virtuelle<br />
Welt<br />
Abbildung 28: Mixed Reality Kontinuum<br />
Es ist anzumerken, dass an Augmented-Reality Systeme höhere Anforderungen gestellt werden,<br />
als an Virtual-Reality Systeme [MP01], da der Anwender bei Virtual-Reality Systemen<br />
in eine in sich geschlossene Welt eintaucht, die mit der realen Welt nicht mehr in Wechselwirkung<br />
steht. Bei einem Augmented-Reality Systeme sollen aber die Objekte aus der realen<br />
Welt im Idealfall so mit den virtuellen kombiniert, dass der Anwender selbst bei Bewegung<br />
keinen Unterschied mehr zwischen künstlichen und realen Objekten wahrnimmt. Das erordert<br />
eine exakte Bestimmung der Position und Ausrichtung der realen Objekte, da sich auch<br />
kleinste Differenzen sofort störend bemerkbar machen [Ja01].<br />
1.2 Genereller Aufbau von Augmented-Reality System<br />
Augmented-Reality System setzen sich im Wesentlichen aus den folgenden Komponenten<br />
zusammen:<br />
• Tracker<br />
• Bildgenerator<br />
• Erfassung<br />
• Darstellung<br />
Für die korrekte Überlagerung der realen und virtuellen Objekte ist eine genaue Positionsbestimmung<br />
eine entscheidende Voraussetzung. Neben der Position muss aber auch die Blickrichtung<br />
genau bestimmt werden. Hierzu werden Tracker-Systeme eingesetzt. Bei den<br />
Tracker-Systemen existiert eine Vielfalt verschiedener Systeme: Elektromagnetik, Optik,<br />
Wegaufnehmer, Sonar, Beschleunigungs- und Gyrosensoren [Pa02]. Es gibt auch Ansätze, die<br />
mehrer Systeme kombinieren. So wird beim Hybrid Tracking optische Mustererkennung mit<br />
Magnetischem Tracking kombiniert [SHC+96].<br />
Der Bildgenerator berechnet aus den Positionsdaten die darzustellenden virtuellen Objekte<br />
und kombiniert sie geeignet mit den realen Objekten. Falls es sich um ein geschlossenes<br />
System ohne Blick auf die reale Welt handelt, werden die erfassten realen Objekte ebenfalls<br />
in das Bild integriert.<br />
Die Darstellung visualisiert die von Bildgenerator erzeugten optischen Informationen. Dabei<br />
kommen neben LCD- und TFT-Monitoren auch noch Röhrenmonitore zum Einsatz. Ein<br />
geeignetes optisches System bildet die erzeugten Bilder auf das menschliche Auge ab.<br />
1.3 Displays in Augmented-Reality Systemen<br />
In Augmented-Reality Systemen werden bevorzugt Durchsicht- und Video-Durchsicht-Displays<br />
zur Darstellung verwendet. Beide Systeme werden im englischen Sprachraum unter<br />
dem Begriff Head-Mounted Display (kurz HMD) subsumiert.<br />
2 Durchsicht-Display<br />
Die Entwicklung der ersten Durchsicht-Displays (englisch optical see-trough Head-mounted<br />
Display kurz OST-HMD) begann in den 60er Jahren. Ivan Sutherland stellte 1965 die ersten<br />
funktionstüchtigen Durchsicht-Displays vor [RF01]. Die meisten in Augmented-Reality<br />
Systemen eingesetzten Displays sind Durchsicht-Displays.
183 Dirk Schröder<br />
Die Komponenten des Durchsicht-Displays sind bis auf den Bildgenerator am Kopf des<br />
Anwenders befestigt (Bild aus [Ku02]). Der Anwender schaut durch einen halbtransparenten<br />
Spiegel, der nur wenige Zentimeter vor dem Auge sitzt, weitestgehend ungestört auf die reale<br />
Welt. Aus den Positionsdaten werden die zusätzlichen virtuellen Objekte berechnet, die dann<br />
im halbtransparenten Spiegel mit dem Bild der realen Welt überlagert werden.<br />
Abbildung 29: Durchsicht-Display [Az97]<br />
Durch den halbtransparenten Spiegel wird allerdings, wie bei einer Sonnenbrille, die Intensität<br />
des einfallenden Lichtes geschwächt. Dieses Problem kann man durch Einsatz von<br />
monochromen Displays und einer dielektrischen Beschichtung des Spiegels, die nur die<br />
Wellenlänge des Displays reflektiert, lösen.<br />
Zurzeit erhältliche Durchsicht-Displays haben folgend Schwächen: geringe Helligkeit, kleines<br />
Sichtfeld, geringer Kontrastbereich um reale Objekte komplett auszublenden, relativ schwer,<br />
zu groß und noch sehr teuer [ABB+01]. Ein großer Sicherheitsvorteil der Durchsicht-Displays<br />
im Vergleich zu den Video-Durchsicht-Displays ist jedoch der direkte Blick auf die reale<br />
Welt und die unbeeinträchtigte Auflösung der realen Objekte.<br />
3 Video-Durchsicht-Display<br />
Beim Video-Durchsicht-Display (englisch video see-trough Head-mounted Display kurz<br />
VST-HDM) hat der Anwender keine Sicht mehr auf die reale Welt. Er ist komplett isoliert.<br />
Stattdessen wird die reale Welt mit zwei Videokameras für jedes Auge einzeln aufgenommen.<br />
Abbildung 30: Video-Durchsicht-Display
184 Display Technologien<br />
Wie beim Durchsicht-Display werden aus den Positionsdaten des Trackers die virtuellen<br />
Objekte berechnet. Anschließend werden die Bildinformationen der virtuellen Objekte mit<br />
den Kameraaufnahmen der realen Welt elektronisch kombiniert. Die so erweiterten Stereobilder<br />
werden von zwei Monitoren erzeugt und mit einem geeigneten optischen System auf<br />
die Netzhaut abgebildet.<br />
Bei der Kombination der realen und virtuellen Bilder wird in der Regel chroma-keying<br />
verwendet. Dazu wird der Hintergrund des virtuellen Bildes in einer Farbe gefärbt, die im<br />
Bild der realen Welt nicht oder nur sehr selten vorkommt. Über diese Farbe wird nun das Bild<br />
der realen Welt gelegt.<br />
Video-Durchsicht-Displays werden vor allem in der Virtual-Reality intensiv genutzt. Aufgrund<br />
der geringen Pixelzahl der heute erhältlichen Miniatur LCD Panels besitzen Video-<br />
Durchsicht-Display eine schlechte Auflösung.<br />
4 Weitere Displaytypen für Augmented-Reality Systeme<br />
4.1 Retina Display<br />
Ein sehr interessantes Display-Prinzip ist das Retina Display (englisch: Virtual Retinal<br />
Display VRD). Das Prinzip des Virtual Retina Displays wurde 1991 von HIT Lab entwickelt<br />
[Hi03]. Kommerzielle verfügbare Displays werden heute von der Firma Microvision Inc.<br />
hergestellt [Micro].<br />
Das Retina-Display zeichnet die Bildinformation direkt auf die Nervenzellen der Netzhaut im<br />
menschlichen Auge. Das Bild wir Zeile für Zeile (ähnlich einer herkömmlichen Bildschirmröhre)<br />
direkt auf die Netzhaut projiziert. Als Lichtquelle kommt eine kompakte und unempfindliche<br />
Laserdiode zum Einsatz, deren Lichtstärke durch den Strom fein und hochfrequent<br />
geregelt werden kann. Für die horizontale und vertikale Ablenkung kommen 1,5 mm<br />
große Mikrospiegel zum Einsatz - das so genannte Mikro-Elektro-Mechanisches System<br />
(MEMS). Eine Optik bildet die Bildinformation schließlich auf die Netzhaut ab.<br />
Abbildung 31: Retina Display<br />
Vorteile dieser Technik sind das geringe Gewicht des Displays, das sehr große Sichtfeld (bis<br />
zu 120°), der sehr hohe Kontrast, helle Darstellung der virtuellen Objekte, gut Auflösung<br />
(800x600 Pixel), geringe Stromaufnahme und die Möglichkeit das Display bei entsprechendem<br />
Design schnell und einfach aus dem Sichtfeld nach oben zu klappen. Zurzeit sind Retina-<br />
Displays nur in monochromer Darstellung zu erhalten (typischerweise in roter Farbe).<br />
Es ergeben sich eine Reihe von interessanten Anwendungen: Unter anderen ist diese Technik<br />
für Helikopterpiloten interessant, für die der Instrumentenflug aufgrund der starken Vibrationen<br />
außerordentlich schwierig ist. Das Retina-Display kann die Flugdaten und für militärische<br />
Zwecke auch den Waffenstatus und die Zieldaten direkt ins Blickfeld projizieren.<br />
Jenseits der Augmented-Reality hat das Retina-Display aber eine weitere große Bedeutung, da
185 Dirk Schröder<br />
sie Menschen, die aufgrund von Erkrankung der Linsen oder Hornhäute erblindet sind aber<br />
noch intakte Sehnerven besitzen, wieder das Sehen ermöglichen könnte.<br />
4.2 Image Overlay Systeme<br />
Ein Image Overlay System entspricht technisch einem Durchsicht-Display. Der Unterschied<br />
liegt allerdings in der Größe und Lage des halbdurchlässigen Spiegels. Bei Image Overlay<br />
Systemen befindet sich der halbdurchlässige Spiegel nicht vor dem Auge sonder nahe am<br />
betrachteten Objekt. Der Spiegel hat eine Ausdehnung von bis zu 100 cm. Diese Anordnung<br />
findet oft Anwendung in der Medizin, da statt der schweren HMD nur noch Shutter-Brillen<br />
für die Stereodarstellung zu tragen sind.<br />
4.3 Head-Up Displays<br />
Eine weitere Variante von Durchsicht-Display sind Head-Up Displays. Hier fungiert die<br />
Windschutzscheibe eines Autos oder Flugzeugs als halbdurchlässiger Spiegel, der die<br />
virtuellen Objekte ins Auge des Anwenders reflektiert.<br />
4.4 Mikroskop<br />
Die grundlegende Technik von Durchsicht-Display kann auch bei Mikroskopsystemen zum<br />
Einsatz kommen. Dazu muss lediglich ein halbdurchlässiger Spiegel an geeigneter Stelle in<br />
den Strahlengang eingebracht werden. Allerdings ist es hier günstiger hoch auflösende monochrome<br />
Displays, als farbige Displays einer mit geringer Auflösung, zur Darstellung der<br />
virtuellen Objekte zu verwenden [RF01].<br />
4.5 Monitor-Systeme<br />
Bei monitorbasierten Augmented-Reality System handelt es sich um eine Variante des Video-<br />
Durchsicht-Displays. Eine Videokamera nimmt die Bilder der realen Welt auf, die dann mit<br />
den virtuellen Objekten angereichert werden. Die kombinierte Bildinformation wird dann auf<br />
einem Monitor dargestellt.<br />
Abbildung 32: Monitor-System<br />
Um mit einem Monitor-System dreidimensionale Bilder darstellen zu können, werden neben<br />
zwei Kameras auch 3D-Brillen benötigt [No02]. 3D-Brillen trennen die Bildinformation für<br />
das rechte und das linke Auge auf. Dabei kommen folgende Variationen zum Einsatz:
186 Display Technologien<br />
• Anaglyphenbrille: Die Trennung erfolgt mittels verschiedener Farbfilter<br />
• Polarisationsbrille: Die Trennung erfolgt durch Polarisationsfilter. Diese Technologie<br />
kann nur mit Projektoren verwendet werden.<br />
• Shutter-Brille: Hier erfolgt die Trennung aktiv. Das Display zeigt die Bilder für das rechte<br />
und linke Auge abwechselnd an. Die Shutter-Brille ist mit dem Display synchronisiert und<br />
verdeckt jeweils das andere Auge [Ru99].<br />
Augmented-Reality System, die Handhelds, Palmtops oder Tablett PC zur Anzeige verwenden,<br />
gehören zur Gruppe der Monitor-Systeme. Anwendungsgebiete für diese speziellen<br />
Displaytypen werden im Abschnitt 6.11 erläutert.<br />
4.6 Projektion<br />
Bei der Projektion kann die reale Welt als Bildschirm verwendet. Hierbei gibt es aber eine<br />
Reihe von Problemen:<br />
• Für die Ausleuchtung der Schattenbereiche sind mehrer Projektoren notwendig<br />
• Überdeckung realer Objekte durch virtuelle ist nur schwer zu erreichen<br />
• Bei der Projektion muss der Oberflächenverlauf der realen Objekte berücksichtigt werden.<br />
Dazu muss das System entsprechend kalibriert werden (z.B. an einen Patientenphantom)<br />
Projektionen mit mehr als nur einem Anwender erfordern für jeden Anwender separate<br />
Projektoren. Bei der Projektion kann auch von Kopf des Beobachters ein Stereo-Bildpaar auf<br />
die realen Objekte projiziert. Die Objekte sind mit Mikroretroreflektoren beschichtet, die die<br />
Projektionsstrahlen wieder direkt auf den Anwender zurück reflektieren. Solange die verschiedenen<br />
Beobachter sich nicht in derselben Sichtgeraden auf das reale Objekt befinden,<br />
stören sich auf diese Weise ihre Projektion gegenseitig nicht [ABB+01].<br />
Projektionen werden in der Virtual Reality sehr häufig eingesetzt (z.B. ImmersaDesk, Cave).<br />
5 Probleme bei Durchsicht- und Video-Durchsicht Displays<br />
Die heute angebotenen Systeme sind noch nicht perfekt. Einige befinden sich sogar noch im<br />
Entwicklungsstadium. Die Benutzbarkeit heutiger Systeme hängt von technologischen<br />
Problemen und von menschlichen Faktoren einschließlich der optischen Wahrnehmung ab,<br />
die im Folgenden erläutert werden.<br />
5.1 Technologische Probleme<br />
Die Verschmelzung der Bildinformationen der realen Welt mit den künstlich erzeugten<br />
Objekten ist eine besondere Herausforderung, da das menschliche Auge bereits kleinste<br />
Ungenauigkeiten in der Position der zusätzlichen virtuellen Objekte vor dem realen Hintergrund<br />
störend bemerkt.<br />
5.1.1 Systemträgheit<br />
Eines der Hauptprobleme bei Augmented-Reality Systemen ist die Trägheit des Systems.<br />
Diese Trägheit äußert sich in der verzögerten Darstellung der zusätzlichen Bildinformation.<br />
Die Trägheit entsteht durch die Informationsverarbeitung bei Bildaufnahme, Positionsbestimmung,<br />
Bildberechnung und der Ausgabe des Bildes auf dem Display.<br />
Bereits eine Verzögerung von nur 60 bis 180 ms, wie sie für kommerzielle Systeme üblich ist,<br />
führt bei schnellen Bewegungen des Anwenders bereits zu eine „schwimmen“ der künstlichen<br />
Objekte vor dem realen Hintergrund.<br />
Dieser Nachteil ist für Video-Durchsicht-Displays nur bedingt gültig, da das Bild der realen<br />
Welt mit derselben Verzögerung dargestellt werden kann, wie die berechneten Objekte. Somit
187 Dirk Schröder<br />
ist zumindest die optische Information stimmig, obwohl es aufgrund der Verzögerung bei der<br />
Interaktion mit Realwelt-Objekten immer noch zu Störungen kommen kann.<br />
Für die Verarbeitung der Bildinformation braucht der Mensch ungefähr 100 ms. Um eine<br />
„flüssige“ Darstellung der künstlichen zu ermöglich sind als Bildwiederholungsraten von<br />
größer oder gleich 10 erzeugten Szenen pro Sekunde notwendig.<br />
Damit der Unterschied zwischen virtuellen und realen Objekten weitestgehend unbemerkt<br />
bleibt, ist auf eine photorealistische Darstellung der virtuellen Objekte zu achten. Diese<br />
Anforderung führt bei ausgedehnten Objekten aber zu einer Erhöhung der Rechenzeit für die<br />
Darstellung der virtuellen Objekte.<br />
5.1.2 Sichtfeld<br />
Unter dem Begriff Sichtfeld versteht man einen horizontalen und vertikalen Winkelbereich<br />
der optisch erfasst werden kann. Man unterscheidet zwischen einem zentralen Sichtfeld und<br />
einem peripheren Sichtfeld. Im zentralen Sichtfeld kann das Display virtuelle Objekte der<br />
realen Welt überlagern. Im peripheren Sichtfeld ist nur die reale Welt sichtbar. Bei Video-<br />
Durchsicht-Displays stimmen das zentrale und das periphere Sichtfeld überein. Bei<br />
Durchsicht-Displays ist das periphere Sichtfeld in der Regel deutlich größer als das Sichtfeld<br />
von Video-Durchsicht-Displays.<br />
Die Größe des zentralen Sichtfelds sollte der Aufgabe angepasst sein. Das heißt z.B. bei<br />
bewegten Objekten ist ein großes Sichtfeld unabdingbar. Dahingegen reicht bei kleinen<br />
nahezu unbewegten virtuellen Objekten ein kleines zentrales Sichtfeld aus.<br />
Techniken um große Sichtfelder zu erreichen sind das Kacheln und die Projektion. Beim<br />
Kacheln wird das Display wie ein Insektenauge aus vielen einzelnen Displays aufgebaut.<br />
Problematisch sind aber die Überlagerungsbereiche der einzelnen Displays.<br />
5.1.3 Auflösung und Abbildungsfehler<br />
Hinsichtlich Auflösung und Abbildungsfehler sind Durchsicht-Displays am günstigsten. In<br />
den Strahlengang ragt lediglich eine plan parallel Platte die als halbdurchlässiger Spiegel<br />
beschichtet ist. Dadurch wird zwar die Intensität des einfallenden Lichtes stark reduziert. Der<br />
zusätzlich erzeugte optische Fehler liegt aber bei unter einem Prozent.<br />
Beim Video-Durchsicht-Display hingegen wird das Bild der Real-Welt zuerst von einer<br />
Video-Kamera aufgenommen und dann auf einem Display dargestellt. Die typische<br />
Auflösung der verwendeten Miniaturbausteine beträgt zurzeit 640 x 480 Pixel. Die dabei<br />
tatsächlich erreichte Auflösung hängt aber stark vom Sichtfeld und von der Vergrößerung des<br />
optischen Gesamtsystems ab. Systeme mit großem Sichtfeld (≥ 50°) haben aufgrund der<br />
bauformbedingten großen optischen Aberration eine schlechte Abbildungsqualität. Hinzu<br />
kommt, dass sich die Displayauflösung bei der hohen Vergrößerung durch deutlich sichtbare<br />
Pixel bemerkbar macht. Aber auch bei kleinen Sichtfeldern (10-20°) ist die Auflösung noch<br />
deutlich schlechter als die des menschlichen Auges ohne Hilfsmittel. Ein Display mit einer<br />
mittleren Auflösung von 512 Pixeln pro Zeile hat z.B. bei einem kleinen Sichtfeld von 25°<br />
eine Auflösung von rund 0,05 °/Pixel oder 2,5 Bogenminuten pro Pixel. Das menschliche<br />
Auge hat aber dagegen ein Auflösungsvermögen von 0,5 Bogenminuten. Jeder einzelne Pixel<br />
wird also noch deutlich vom Anwender bemerkt.<br />
5.1.4 Positionsbestimmung<br />
Jeder Fehler in der Positionsbestimmung des Nutzers in Bezug auf die reale Welt führt zu<br />
Fehlern in der Darstellung. Da das optische System des Menschen sehr sensitiv ist können die<br />
resultierende Fehler in der Darstellung der virtuellen Objekte im Extremfall dazuführen, dass<br />
das System nicht mehr zu benutzen ist. Zu bemerken ist, dass natürlich auch die<br />
Positionsbestimmung durch das Rauschen limitiert ist. Dadurch sind selbst für einen<br />
stillstehenden Anwender die virtuellen Objekte ständig in Bewegung.
188 Display Technologien<br />
5.1.5 Offene Technologische Probleme<br />
Heutige Displays haben trotz des hohen Preises noch viele Nachteile: schlecht Auflösung,<br />
geringes Sichtfeld, schlecht Ergonomie und ein hohes Gewicht. In einigen Bereich wie der<br />
Bilderzeugung hat es schon gewaltige Fortschritte gegeben. So werden inzwischen nicht mehr<br />
wie in der Anfangszeit monochrome Miniaturröhrenmonitore sonder farbige Miniaturflachbildschirme<br />
zur Bilderzeugung eingesetzt.<br />
5.2 Menschliche Faktoren und optische Wahrnehmung<br />
Auch wenn technisch perfekte Displays vorliegen würden, wird die Nutzbarkeit aufgrund von<br />
menschlichen Faktoren eingeschränkt bleiben. Diese Faktoren sind sowohl psychologischer<br />
als auch physiologischer Art und begrenzen die Akzeptanz und die Nutzbarkeit des Systems.<br />
5.2.1 Akzeptanz und Sicherheit<br />
Akzeptanz und Sicherheit sind psychologische menschliche Faktoren, die die Anwendbarkeit<br />
von Augmented-Reality Systemen beschränken. Akzeptanz kann durch psychologische<br />
Hemmschwellen begrenzt werden: So würden zurzeit wohl nur wenige Leute bereit sein, mit<br />
einem Display auf dem Kopf z.B. durch die Stadt zu bummeln zu gehen. Besonders die<br />
geschlossenen Video-Durchsicht-Displays dürften bei „unbehelmten“ Gesprächspartner zu<br />
Irritationen führen.<br />
Der Sicherheitsgedanke ist ebenfalls entscheiden. So gibt der Nutzer eines Video-Durchsicht-<br />
Displays den optischen Kontakt zur Außenwelt komplett auf. Bei sicherheitskritischen Anwendungen<br />
wie z.B. in der Medizin sind daher Durchsicht-Displays vorzuziehen, da hier im<br />
Fehlerfall ohne Verzögerung direkt in der realen Welt lediglich ohne die zusätzlichen<br />
virtuellen Objekte weitergearbeitet werden kann.<br />
5.2.2 Wahrnehmung der Tiefeninformation<br />
Die Wahrnehmung der Tiefeninformation ist ein sehr komplexer Prozess. Die menschliche<br />
Wahrnehmung bedient sich dabei einer Reihe von zusätzlichen Informationen:<br />
• Verdeckung von Objekten<br />
• Helligkeit der einzelnen Objekte<br />
• Abbildungsschärfe eines Objekts<br />
• Größenvergleich zwischen ähnlichen Objekten<br />
• Größenvergleich der Texturen auf den Objekten<br />
• Perspektivische Information durch die beiden Stereobilder<br />
• Verschiebung der Objekte bei Bewegung des Beobachters<br />
Hier beweisen Graphiken des niederländischen Künstlers M.C. Escher (z.B. Konkav und<br />
Konvex oder Wasserfall aus [Es89]) wie leicht sich die Wahrnehmung der Tiefeninformation<br />
durch unstimmige Details täuschen lässt.<br />
Um die virtuellen Objekte in einer bestimmten Tiefe in der realen Welt korrekt erscheinen zu<br />
lassen, benötigt man zu allererst verlässliche Tiefeninformation der realen Objekte. Hierbei<br />
kann es bereits zu ersten Fehlern kommen. Auf dieser Tiefeninformation setzt dann ein<br />
Berechnungsmodell auf, das die virtuellen Stereobildpaare berechnet. Diese werden dann im<br />
Display den Objekten der realen Welt überlagert. Sowohl das Berechnungsmodell als auch<br />
die Überlagerung auf dem Display kann fehlerbehaftet sein und die Tiefenwahrnehmung<br />
beeinträchtigen.<br />
Besonders problematisch ist es, die berechnete Verdeckung von realen und virtuellen<br />
Objekten im Display darzustellen. Hier sind die Video-Durchsicht-Displays im Vorteil da sie<br />
die verdeckten Objekte der realen Welt einfach ausblenden können. Durchsicht-Displays<br />
können die verdeckten realen Objekte in der Regel lediglich durch hohe Leuchtdichten der
189 Dirk Schröder<br />
virtuellen Objekte näherungsweise überlagern. Erste Prototypen können aber durch ein<br />
zusätzliches LCD-Display bestimmte Bildbereiche der realen Welt ausblenden.<br />
Alle virtuellen Objekte werden unabhängig von ihrer räumlichen Tiefe in einer Ebene scharf<br />
abgebildet. Das steht im Widerspruch zu den Seherfahrungen bei realen Objekten, die nur im<br />
Bereich der Tiefenschärfe gleichzeitig scharf abgebildet werden können. Diese Eigenschaft<br />
kann zu Störungen bei der Erfassung der räumlichen Tiefe führen.<br />
5.2.3 Anpassung<br />
Viele Video-Durchsicht-Displays haben einen Parallaxenfehler, das heißt dass die Sichtlinie<br />
der Kamera nicht identisch mit der Sichtlinie des Auges ist. Der Fehler entsteht dadurch, dass<br />
die Kameras in der Regel überhalb der Augen montiert sind. Dieser Unterschied, der sich<br />
gerade bei Kopfbewegungen stark äußerte wird nach kurzer Zeit in vielen Fällen aber nahezu<br />
kompensiert. Die menschliche Wahrnehmung hat sich dem mangelhaften System angepasst.<br />
Interessanter Weise traten aber nach Absetzen des Displays erneut Anpassungsschwierigkeiten<br />
auf. Diese äußerten sich in Schwierigkeiten die räumliche Tiefe korrekt einzuschätzen,<br />
bis hin zu starkem Schwindel. Solche Nachwirkungen sind natürliche für einige Personengruppen<br />
wie z.B. Chirurgen nicht akzeptabel. Die Dauer der Nachwirkung verkleinert sich<br />
mit abnehmendem Abstand zwischen Auge und Kamera.<br />
5.2.4 Tiefenschärfe<br />
Die Tiefenschärfe gibt an in welchem Bereich um den Fokus Objekte noch scharf durch die<br />
Netzhaut wiedergeben werden. Die Tiefenschärfe steigt mit kleiner werdendem Pupillendurchmesser.<br />
Die Tiefenschärfe bei nahen Objekten ist kleiner als für solche die weiter vom<br />
Beobachter entfernt sind.<br />
Bei Video-Durchsicht-Display müssen die Kameras also auf eine mittlere Arbeitsdistanz<br />
eingestellt werden und eine geeignete Tiefenschärfe zu bieten.<br />
Bei der Nutzung eines Durchsicht-Displays ergibt sich dieselbe Tiefenschärfe wie mit dem<br />
Auge ohne Hilfsmittel, nur das eine größere Pupillenöffnung wegen der Lichtabschwächung<br />
durch den halbdurchlässigen Spiegel angenommen werden muss. Somit ergibt sich eine leicht<br />
verminderte Tiefenschärfe, die sich allerdings erst bei der Arbeit an nahen Objekten auswirkt.<br />
Geringe Abweichungen der Tiefenschärfe im Bereich von ±0.25 Dioptrien werden vom<br />
Nutzer unbemerkt korrigiert.<br />
5.2.5 Qualitative Aspekte<br />
Die Überlegungen zur Tiefenschärfe gelten auch für die Projektionsoptik im Display. Die<br />
Abbildungsebene der virtuellen Objekte sollte bei Durchsicht-Displays im Bereich der Tiefenschärfe<br />
um den Fokus der realen Objekte liegen, auf die der Nutzer gerade blickt. Aufgrund<br />
technischer Limitationen kann diese Bedingung aber nicht für alle Arbeitsdistanzen<br />
aufrechterhalten werden, so dass die virtuellen und realen Objekte nicht immer gleichzeitig<br />
scharf gesehen werden können. Die meisten heute angebotenen Displays besitzen noch keine<br />
Autofokusfähigkeit, sondern müssen auf einen bestimmten Arbeitsabstand eingestellt werden.<br />
Bei Video-Durchsicht-Display werden die realen Objekte bedingt durch die Aufnahme mit<br />
der Weitwinkel-Miniaturkamera verändert. Das betrifft den Kontrast, die Farben, die Texturen<br />
und die Detailauflösung. Einige Anwendungen wie z.B. im medizinischen Bereich können<br />
solche Änderung am Erscheinungsbild der realen Objekte nur begrenzt tolerieren.<br />
6 Anwendungen von Displays in Augmented-Reality Systemen<br />
6.1 Militär<br />
Im militärischen Bereich ist der Einsatz von Head-Mounted-Displays sehr verbreitet und<br />
treibt die Entwicklung immer zuverlässiger und hochwertiger Systeme stetig voran. Dort
190 Display Technologien<br />
werden diese Displays von Flugzeug- und Hubschrauberpiloten zum Training, in der<br />
Navigation und im Luftkampf eingesetzt. Aber auch die Bodentruppen setzten zunehmend<br />
Augmented-Reality System ein. Ziel des Einsatzes von Augmented-Reality Systemen im<br />
militärischen Umfeld ist die Minimierung von Kosten und Risiken.<br />
6.2 Medizin<br />
In der Medizin spielt die Bildgebung eine entscheidende Rolle für die effiziente und richtige<br />
Behandlung des Patienten. Seit der Entdeckung der Röntgenstrahlen durch Wilhelm Röntgen<br />
im Jahre 1895, haben sich im medizinischen Bereich vielfältige Bildgebungsverfahren (CT,<br />
MRT, Ultraschall) etabliert. Augmented-Reality Systeme nutzen die Daten dieser Verfahren<br />
und stellen diese als zusätzliche Information zur Verfügung:<br />
• Überlagerung von CT-Bilder mit dem Blick auf den Kopf des Patienten in einem Durchsicht-Display<br />
(University of North Carolina at Chapel Hill). Der entstehende „Röntgenblick“<br />
erlaubt dem Chirurgen die Optimierung des Operationsplans, da das komplexe Verhältnis<br />
zwischen Knochen und Weichteilen deutlich besser beurteilt werden kann [RF01].<br />
Abbildung 33: Brustbiopsie mit Visualisierung eines Tumors<br />
• Bei der ultraschallgestützten Brustbiopsie wird das Ultraschallbild des Brustgewebes mit<br />
dem virtuellen Bild der Biopsienadel überlagert. Ziel ist es den potentiellen Brusttumor<br />
schnell und sicher zu lokalisieren (Abbildung 33).<br />
• Ebenfalls an der University of North Carolina at Chapel Hill wird die Visualisierung der<br />
Bewegung der Knochen im Kniegelenk entwickelt. Dazu wird die Lage des Knies mit<br />
Infrarotkameras und -sensoren gemessen. Mit einem mathematischen Modell des Kniegelenks<br />
wird die Bewegung der Knochen im Kniegelenk berechnet. Die virtuellen<br />
Knochen werden visualisiert und in einem Durchsicht-Display mit dem Blick auf das<br />
Kniegelenk überlagert (Abbildung 27).<br />
• In der United Medical and Dental School of Guy’s and Saint Thomas’s Hospital in<br />
England werden präoperativen MRT- und CT-Bildern mit dem Blick durch ein Stereo-<br />
Operations-Mikroskop überlagert. Ziel des Projekts ist es dem Chirurgen die unterhalb des<br />
Gewebes liegenden Strukturen zu visualisieren.<br />
• Operationsplanung und -durchführung mit dem ARION System in der Leberchirurgie<br />
unter der Verwendung verschiedner Displaytypen [SVH+02].<br />
• University of Blaise Pascal in Clermont Ferrand: Ein Image-Overlay-System wird bei<br />
chirurgischen Scoliosis Eingriffen (Wirbelsäulenverkrümmung) eingesetzt. Einzelnen<br />
Rückenwirbel werden mit einer Genauigkeit von 0,01 mm erfasst.<br />
6.3 Fertigung<br />
Der Einsatz von Augmented-Reality Systemen in der Fertigung zielt dahin das Risiko für die<br />
Arbeiter sowie die Fehlerwahrscheinlichkeit zu verringern. Die hohen Anforderungen an<br />
Präzision und Genauigkeit im Millimeterbereich wie bei der Medizin sind hier nicht zwingend<br />
notwendig. Anwendungsgebiete sind z.B.
191 Dirk Schröder<br />
• Elektrische Verkablung innerhalb von Flugzeugen: Kabelstränge mit vielen einzelnen<br />
Adern können ohne zusätzliche schriftliche Dokumentation verdrahtet werden. Durch<br />
Umstellung der Software sind zudem schnelle Änderungen in der Verkablung möglich.<br />
• Wartungsarbeiten an Laserdruckern (KARMA-Projekt): Während der Wartung werden<br />
die einzelnen Schritte auf dem Display erläutert. Die Position der beweglichen Teile des<br />
Druckers wird mit Ultraschallsensoren überwacht.<br />
6.4 Tourismus<br />
Die vielfältigen Visualisierungsmöglichkeiten<br />
der Augmented-Reality können im<br />
Tourismus ideal genutzt werden. Antike<br />
Bauwerke können so z.B. virtuell im realen<br />
Gelände wieder auferstehen.<br />
6.5 Lehre und Forschung<br />
Die statischen Darstellungen in Lehrbüchern sind für viele dynamische Vorgänge suboptimal.<br />
Als Alternative zu PC gestützten Multimedia Lernprogrammen, bietet sich der EnhancedDesk<br />
an [Ge00]. Hier wird neben dem Lehrbuch eine dynamische Darstellung projiziert. Der Leser<br />
kann mit den eigenen Händen ohne weitere Hilfsmittel intuitiv mit den künstlichen Objekten<br />
interagieren. So können z.B. in einem Physiklehrbuch Pendel zum Schwingen gebracht<br />
werden, um das dynamische Verhalten zu studieren.<br />
6.6 Benutzereingaben<br />
Sind für ein Augmented-Reality System während der Nutzung Eingaben nötig, so bietet es<br />
sich an, die zusätzlichen Möglichkeiten durch virtuelle Objekte zu nutzen. Im Studierstube<br />
Projekt der technischen Wiener Universität wurde demonstriert wie sich eine Benutzerschnittstelle<br />
bestehend aus einem Datenhandschuh und einem berührungsempfindlichen<br />
Display dynamischen den aktuellen Anforderungen anpassen kann [VKL+02].<br />
6.7 Geodatensysteme<br />
Ein Anwendungsgebiet für Augmented-Reality Systeme sind die<br />
Visualisierung von Geoinformationen, die als virtuelle Objekte die<br />
Objekte der realen Welt überlagern. So könne z.B. unterirdische<br />
Versorgungsleitungen, Grundstücksgrenzen oder Mineralienvorkommen<br />
beim Blick auf die reale Welt eingeblendet werden. Diese<br />
Informationen helfen dem Nutzer die vorliegende Situation, besser<br />
einschätzen zu können.<br />
6.8 Automobilsektor<br />
Augmented-Reality ist für den Automobilsektor in vielerlei Hinsicht<br />
interessant. Der Einsatz solcher Techniken beginnt beim Entwurf, setzt<br />
sich beim Fertigungsprozess fort und endet bei Sicherheitstechniken<br />
während der Fahrt. Bei Crashtests im Rahmen des ARVIKA Projekts<br />
können Augmented-Reality die berechnete Verformung der realen<br />
Verformung überlagern, so dass der Entwicklungsingenieur die Differenzen<br />
schnell erkennen kann [ARVIKA03] So können zum Beispiel während der Fahrt bei<br />
Nebel oder in der Nacht zusätzliche Informationen zu Gefahrenquellen auf die Windschutzscheibe<br />
projiziert werden (Head-Up-Display). Auch bei der Wartung von Automobilen<br />
können in Zukunft Augmented-Reality Techniken als Unterstützung genutzt werden [TZ00].
192 Display Technologien<br />
6.9 Architektur<br />
Auch in der Architektur ergeben sich viele Anwendungsmöglichkeiten, so kann das Aussehen<br />
einer neuen Einrichtung oder Änderung an Räumen und Bauwerken ohne Eingriffe an der<br />
realen Welt schnell und kostengünstig bewertet werden.<br />
6.10 Sport<br />
Auch im Fernsehen wird Augmented-Reality in einfacher Form bereits intensiv genutzt. So<br />
werden z.B. bei Fußballübertragungen die Abstände zum Tor oder zur Freistossmauer<br />
zusätzlich eingeblendet. Beim Skispringen wird die kritische Marke rot hervorgehoben. Und<br />
bei Schwimmwettbewerben wird die Position, die die Schwimmerin erreichen muss, um einen<br />
Rekord zu schwimmen dynamisch angezeigt.<br />
6.11 Augmented-Reality mit Handhelds<br />
Handheld Computer können aufgrund ihrer kleinen Bauform vielfältig in Augmented-Reality<br />
Szenarien verwendet werden. Interessante Anwendungen sind ortsbasierte Informationen zu<br />
Kunstgegenständen in einem Museum. Im Krankenhaus ist die Einführung der digitalen<br />
Krankenakte denkbar, die beim Betreten des Raumes gleich die Daten des richtigen Patienten<br />
anzeigt. Auch Navigationsanwendungen, die dem Anwender seine aktuelle Position im<br />
Stadtplan auf dem Display anzeigen, sind heute bereits machbar und werden in Verbreitung<br />
mit der UMTS Technik tägliche Realität werden [SMT02].<br />
Wird der Handheld mit einer Kamera kombiniert, kann man ihn wie ein Fenster oder eine<br />
Vergrößerungsglas benutzen, das die realen Objekte mit den überlagerten virtuellen zeigt.<br />
Abbildung 34: Landeanflug mit Retina-Display<br />
Eine interessante Anwendung im Bereich der privaten Fliegerei ist das Normad Personal<br />
Flight System. Hier wird das Retina-Display der Firma Microvision Inc. mit einem Handheld<br />
vom Typ Compaq iPAQ ® gekoppelt, der unter dem Betriebssystem Windows CE auf der<br />
Plattform Pocket PC 2002 läuft. Die Flugdaten wie z.B. Geschwindigkeit, künstlicher Horizont,<br />
GPS Position und Uhrzeit werden über eine genormte Schnittstelle zwischen Flugzeug<br />
und Handheld ausgetauscht, der diese Daten dann aufbereitet und dem Retina-Display zur<br />
Projektion zur Verfügung stellt (Abbildung 34)<br />
Das Bundesministerium für Bildung und Forschung fördert von 2001-2004 ein Projekt für<br />
Augmented-Reality mit einem mobilen digitalen Assistenten [ARPDA03]. Ziel des AR-PDA<br />
Projektes ist es die Augmented-Reality Technologie für Endanwender im täglichen Umfeld<br />
zur Verfügung zu stellen. Der Anwender visiert mit der am Handheld befestigten Kamera ein<br />
reales Objekt. Die Bilder werden über Video-Streams via UMTS an einen Server geleitet, der<br />
die Bilder analysiert, um virtuelle Objekte anreichert und zum Handheld zurück sendet<br />
[Fr02] [GKRS03]. Als Anwendungsfelder sind zunächst folgende Szenarien geplant: Haushalt<br />
(z.B. Assistenz bei der Programmierung eines Videorekorders), Einkauf (Visualisierung von<br />
Erklärungen zu Hausgeräten) sowie Reparatur (Hotline Kontakt und Hinweise für den<br />
Kundendienst vor Ort) [FGGK01].
193 Dirk Schröder<br />
7 Produktübersicht<br />
Im Folgenden soll eine grobe Übersicht über die am Markt erhältlichen Augmented-Reality<br />
System gegeben werden. Diese Übersicht erhebt keinen Anspruch auf Vollständigkeit,<br />
sondern zeigt für die verschiedenen Systeme einige Beispiele der erhältlichen Produkte.<br />
Weiterführende Produktinformationen finden Sie z.B. in [EST] und [S3D].<br />
7.1 Head-Mounted Displays<br />
n-Vision Datavisor SeeThrough<br />
Durchsicht-Display<br />
640 x 480<br />
78° x 52° Sichtfeld (horizontal x vertikal)<br />
1590 g<br />
7995 € (Preis vor Steuer)<br />
Kaiser Electro Optics Pro View XL50 STm<br />
Durchsicht-Display<br />
1024 x 768 monochrom grün<br />
27° x 48° Sichtfeld<br />
24 % Transmission<br />
794 g<br />
50.000 €<br />
MicroOptical SV-3 Instrument Viewer<br />
Durchsicht-Display (kein 3D)<br />
640 x 480 Farbe<br />
16° x 19° Sichtfeld<br />
35 g<br />
1250 €<br />
8 Stunden maximale Arbeitsdauer<br />
Kaiser Electro Optics Pro View SO35 Monocular<br />
Video-Durchsicht-Display (kein 3D)<br />
800x600 Farbe<br />
32° x 24° Sichtfeld<br />
348 g<br />
Militärische Kampfausrüstung beständig gegen:<br />
Feuchtigkeit, Wasser, Salz und Vibration<br />
10500 €<br />
Kaiser Electro Optics Pro View XL35<br />
Video-Durchsicht-Display<br />
1024x768 Farbe<br />
21° x 28° Sichtfeld<br />
992 g<br />
19500 €
194 Display Technologien<br />
7.2 Retina-Display<br />
Microvision Normad ND 1000<br />
Retina Display (kein 3D)<br />
800 x 600 monochrom rot<br />
32 Graustufen<br />
23° x 17° Sichtfeld<br />
765 g<br />
7495 €<br />
7.3 Monitor-System<br />
Virtual Research Window VR<br />
Monitor System (kein 3D)<br />
1600 x 1200 Farbe<br />
Touchscreen und Montierung zum Tracking<br />
15000 €<br />
7.4 Projektion<br />
Fakespace Systems CAVE<br />
Projektionssystem für VR<br />
1280 x 1024 Farbe<br />
3 m x 3,6 m Projektionsfläche<br />
Shutter-Brillen<br />
1200 kg<br />
> 100.000 €
195 Dirk Schröder<br />
Referenzen<br />
[ABB+01] Azuma R., Baillot Y., Behringer R., Feiner S., Julier S., MacIntyre B. (2001):<br />
Recent Advances in Augmented Reality<br />
IEEE Computer Graphics and Applications 21, 6 (Nov/Dec 2001), 34-47<br />
[Az97] Ronald A. (1997):<br />
A Survey of Augmented Reality<br />
Presence: Teleoperators and Virtual Environments 6, 4 (August 1997), 355 - 385<br />
[ARPDA03] Fründ, J. (2003):<br />
Ein digitaler mobiler Assistent für VR/AR-Inhalte<br />
www.ar-pda.de<br />
[ARVIKA03] Projekt des BMBF zur Untersuchung der Mensch-Technik-Ineraktion<br />
Projektkoordinator Siemens AG, Nürnberg (2003):<br />
ARVIKA - Augmented Reality für Entwicklung, Produktion und Service<br />
www.arvika.de/www/index.htm<br />
[De02] Denby B. (2002):<br />
Augmented Reality for Subsurface Visualisation<br />
Seminar und Workshop University of Nottingham 17.06.2002 AIMS<br />
www.nottingham.ac.uk/aims/ar-seminar/imain.htm<br />
[Es89] Escher M. C. (1989):<br />
Graphiken und Zeichnungen,<br />
Taco Verlaggesellschaft und Agentur mbH Berlin<br />
[EST] EST, Engineering Systems Technologie, Kaiserslautern, Deutschland<br />
Marktübersicht Augmented-Reality und Virtual-Reality Systeme<br />
www.est-kl.com<br />
[FGGK01] Fründ J., Geiger Ch., Grafe M., Kleinjohann B. (2001):<br />
The Augmented Reality Personal Digital Assistant<br />
Proceeding of Int. Conf. on Mixed Reality, Yokohama, Japan<br />
[Fr02] Fründ J. (2002):<br />
Verbundprojekt AR-PDA<br />
wwwhni.uni-paderborn.de/vr/ar-pda/index.php3<br />
[Ge00] Gerold A. (2000):<br />
Augmented Reality<br />
Ausarbeitung zum Seminar "Aktuelle Themen zu Benutzungsschnittstellen" SS 2000<br />
Bei Prof. Dr. Gerd Szwillus Universität Paderborn<br />
www.uni-paderborn.de/cs/ag-szwillus/lehre/ss00/seminar/Ausarbeitungen/Gerold/<br />
[GKRS03] Geiger Ch., Kleinnjohann B., Reimann Ch., Stichling D. (2003):<br />
Mobile AR4ALL<br />
2nd IEEE and ACM International Symposium on Augmented Reality (ISAR'01)<br />
New York, October 29 - 30, 2001, p. 181<br />
www1.cs.columbia.edu/graphics/courses/mobwear/resources/geiger-isar01.pdf<br />
[Hi03] HIT Lab (2003):<br />
Virtual Retinal Display (VRD) Group<br />
www.hitl.washington.edu/projects/vrd/<br />
[Ja01] Vallino J. (2001):<br />
Introduction to Augmented Reality<br />
Department of Software Engineering Rochester<br />
www.se.rit.edu/~jrv/research/ar/introduction.html
196 Display Technologien<br />
[Ku02] Kunz A. (2002):<br />
Einsatz der Augmented Reality zur Unterstützung von e-Commerce und e-Business<br />
Eidgenössisch Technische Hochschule Zürich (ETH) Gastvorlesung in St. Gallen zum<br />
Thema „Augmente Reality“<br />
www.ikb.mavt.ethz.ch/NewPortal/Lehre/Weiterbildung/Vortraege/<br />
kunz2002-06-05_09.42.55.810/augmented_slides.pdf<br />
[Micro] Microvision Incorporation:<br />
Produkthomepage der Firma Microvision<br />
www.mvis.com<br />
[MK94] Milgram, P. and F. Kishino (1994):<br />
A Taxonomy of Mixed Reality Visual Displays<br />
IEICE Trans, on Information and Sstems Vol. E77-D(12): 1321-1329<br />
[MP01] Möske M., Preuss P. (2001):<br />
Spatial-Aware Ubiquitous Computing<br />
VIROR-Teleseminar WS 2001/2002 Universität Mannheim<br />
Praktische Informatik IV Prof. Dr. W. Effelsberg<br />
tele.informatik.uni-freiburg.de/Teaching/ws01/UbiComp/spatial1.pdf<br />
[No02] Vinko Novak (2002):<br />
Virtual and Augmented Reality<br />
www.mmk.ei.tum.de/~alt/ebof/vlss02/kref_ebof02_Virtual_Reality.pdf<br />
[Pa02] Paetzel M. (2002):<br />
Trackingsysteme<br />
Seminarausarbeitung an FH Karlsruhe bei Prof. Dr. Norbert Link Juni 2002<br />
www.fbi-lkt.fh-karlsruhe.de/~lino0001/skripte/Seminararbeiten/Martin%20<br />
Paetzel%20-%20Trackingsysteme/Trackingsysteme.doc<br />
[RF01] Rolland J. P.; Fuchs H. (2001):<br />
Optical versus Video See-Trough Head-Mounted Displays,<br />
Aus Fundamentals of Wearable Computers and Augmented Reality,<br />
Lawrence Erlbaum Associates, Inc. Publishers, 2001, 113-156<br />
[Ru99] Rügge I. (1999):<br />
Alternativen zum Desktop: Virtual, Augmented und Real Reality<br />
Frauenarbeit und Informatik, 19/1999, S.17-22.<br />
www.informatik.uni-bremen.de/~ruegge/PDF-Dateien/GI-R19-99-RR.pdf<br />
[SMT02] Steuer J., Meincke M., Tondl P. (2002):<br />
Hightech-Mobilfunk<br />
c’t 2002, Heft 8, Seite 222-227<br />
[STC+96] State A., Hirota G., Chen D. T., Garrett W. F., Livingston M.A. (1996):<br />
Superior Augmented-Reality Registration by Integrating Landmark Tracking and<br />
Magnetic Tracking<br />
Proceedings of SIGGRAPH 96 (New Orleans, LA, August 4-9, 1996). In Computer<br />
Graphics Proceedings, Annual Conference Series 1996, ACM SIGGRAPH, 429-438<br />
[S3D] Produktseite für 3D-Anwendungen und Virtual Reality<br />
www.stereo3d.com<br />
[SVH+02] Suthau T., Vetter M., Hassenpflug p., Meinzer H.-P., Hellwich O. (2002):<br />
Konzeption zum Einsatz von Augmented Reality in der Leberchirurgie<br />
E. Seyfert (Hrsg.), Publikationen der Deutschen Gesellschaft für Photogrammetrie und<br />
Fernerkundung, Band 11, 22. Wissenschaftlich-Technische Jahrestagung der DGPF<br />
24.-26. November 2002, Neubrandenburg, S.427-438
197 Dirk Schröder<br />
[TZ00] Technologie-Zentrum Informatik Universität Bremen (FB 3) (2000):<br />
TZi aktuell<br />
1.Ausgabe 2000 www.tzi.de/aktuell<br />
[VKL+02] Veigl S., Kaltenbach A., Ledermann F., Reitmayr G., Schmalstieg D. (2002):<br />
Two-Handed Direct Interaction with ARToolKit<br />
Proceedings of the IEEE First International Workshop on ARToolKit, 2002<br />
www.ims.tuwien.ac.at/media/documents/publications/PinchGloveFinal.pdf
Wearcomp, Personal Imaging und Mediated Reality<br />
Grundlagen, Konzepte und Visionen<br />
Klaus Liedel<br />
Am Ölper Berge 4<br />
38114 Braunschweig<br />
klaus_liedel@yahoo.com<br />
Zusammenfassung: Bei WearComp handelt es sich um eine Spezialisierung und<br />
Erweiterung des Begriffes der „ergänzten Wirklichkeit“ (augmented reality). Prof. Dr.<br />
Steve Mann an der Universität in Toronto beschäftigt sich seit etwa 20 Jahren damit die<br />
Realität des Individuums nicht nur mit nützlichen Details zu ergänzen, sondern durch die<br />
Möglichkeiten der modernen Elektronik und Informationsverarbeitung neu zu gestallten,<br />
zu filtern und alleine als Realität darzubieten, zumindest soweit dies möglich ist<br />
(eingeschränkt ist dies etwa im Bereich der Schwerkraft, die nicht herausgefiltert werden<br />
kann, zumindest momentan noch nicht).<br />
1 Einleitung<br />
Steve Mann hatte bereits als Student am MIT (Massachusetts Institute of Technology) damit begonnen<br />
die verschiedenen Möglichkeiten der Informationselektronik und der damit verbundenen<br />
Wissenschaftsbereiche im täglichen Leben auszuloten. So gilt er als Mitbegründer des MIT Wearable<br />
Computing Projects. Prof. Mann beschreibt seine Erfindung WearComp (als Kürzel zur Beschreibung<br />
des Begriffes des „wearable Computers ") als Werkzeug für "vermittelte Wirklichkeit". WearComp<br />
entstand im Kontext der fotographischen Werkzeuge als zutreffende Verlängerungen des Verstandes<br />
und des Körpers und soll nach Steve Mann eine philosophische Grundlage für die Selbstbestimmung<br />
und Erweiterung des Individuums darstellen. Andererseits aber auch zur Konzentration des Einzelnen<br />
auf das als zeitlich und räumlich wesentlich dienen.<br />
Bei den Recherchen z.B. im Internet findet man zwar unter den Begriffen wearable oder tragbare<br />
Computer eine schier endlose Liste von Seiten doch sind diese vor allem damit befasst, dass es sich<br />
um tragbare Rechner jeder Ausführung handelt. Ohne die speziellen Zusatzeigenschaften, die nach den<br />
Definitionen von Prof. Mann einen WearComp ausmachen. Diese werden noch im weiteren<br />
ausgeführt.<br />
Die gängigen Ausprägungen des unter dem Begriff des tragbaren Computers zusammengefassten<br />
gehen von Notebooks über Palmtops bis zu spezielleren Ausprägungen, wie etwa in Kleidungsstücke<br />
integrierte Computer, oder anderen Instrumenten der erweiterten (augmented) und vermittelten<br />
(mediated) Realität.<br />
Ich möchte mich in meinen Ausführungen alleine auf den Bereich der Mediated Reality beschränken<br />
da nach der Durchsicht der Themenbereiche dieser Seminarreihe bereits andere Teilnehmer die<br />
Bereiche der Augmented Reality zusammenfassen werden.<br />
Ein wearable Computer nach der Definition von Prof. Mann ist ein Computer, der den persönlichen<br />
Raum des Benutzers zusammenfasst und dies gesteuert vom Benutzer. Der Computer ist permanent<br />
funktionsfähig und interaktionsbereit. Vornehmlich, ist es ein Werkzeug, das ein ständiger Begleiter<br />
des Benutzers ist, der Benutzer kann ständig Befehle übergeben und diese werden vom System
200 Wearcomp, Personal Imaging und Mediated Reality<br />
abgearbeitet. Der Benutzer ist räumlich nicht fixiert ja die Portabilität des gesamten Systems ist<br />
zwingend erforderlich und einer der auffallendsten Aspekte.<br />
Weiter stellt der WearComp mehr dar als einen transportablen Computer herkömmlicher Art (z. B.<br />
Notebook oder Palmtop). Das Computersystem ist aber auch mehr als nur eine Erweiterung der Geräte<br />
des Alltags wie etwa ein Handy oder Kombinationen in der Funktionalität wie etwa Brillen mit<br />
Hörgerät oder Armbanduhren mit Taschenrechner und Telefon. Der WearComp hat die volle<br />
Funktionalität eines Computersystems, aber zusätzlich ist er auch fest mit dem Träger verbunden (in<br />
den Veröffentlichung zu diesem Thema allerdings nur rein oberflächlich, also ohne Implantationen<br />
von Teilen z.B. unter die Haut).<br />
Als Computer ist der WearComp programmierbar, nach Prof. Mann soll er so wie der eigene<br />
Schreibtisch nach den individuellen Vorzügen veränderbar und modifizierbar sein. Er gleicht<br />
sozusagen einem mitarbeitenden Kleidungsstück bzw. einer Vorinstanz, die die eintreffenden<br />
Informationen nach vorgegebenen Maßstäben filtert und entsprechend auch modifiziert. Und als<br />
lernende Einheit, die somit nach dem Beginn des Tragens durch den jeweiligen Benutzer sich diesem<br />
anpasst und im Anschluss, nicht nur aufgrund der evtl. vorhandenen Unterschiede in der<br />
Physiognomie, auf den einzelnen Träger zugeschnitten ist.<br />
Im einzelnen werden die Eigenschaften des WearComp wie folgt beschrieben [MAN01].<br />
1.1. Konstanz<br />
Der WearComp ist permanent vorhanden, dies ist keine Option sondern die Anwesenheit und der<br />
Betrieb ist ein Fakt, ähnlich evtl. der Armbanduhr oder für einen Teil der Bevölkerung das Handy und<br />
die damit einhergehend existiert eine ständige Erreichbarkeit. Der Computer ist permanent<br />
empfangsbereit und interagiert mit dem Träger von dem er ständig Informationen aufnimmt. Weiter<br />
registriert der Computer aber auch die Außenwelt von der er ebenfalls Informationen aufnimmt, diese<br />
gibt er ggf. modifiziert an den Träger weiter oder speichert sie zur späteren Benutzung zwischen.<br />
(siehe Bild 1.1 im Anhang).<br />
Dies bedeutet dann allerdings auch eine gewisse Gewöhnung des Trägers an den Computer bzw. seine<br />
Möglichkeiten. Es handelt sich also nicht nur um eine zeitliche Option sondern gerade das Wesentlich<br />
an einem WearComp ist die ständige Verfügbarkeit und Anwesenheit, ähnlich eines Kleidungsstückes<br />
oder noch mehr als ein solches, denn diese werden gewechselt, der WearComp, nach dieser<br />
Darstellung nicht oder zumindest müsste dann das Wissen und die Fähigkeiten oder das Erlernt an das<br />
nächste Individuum weitergegeben werden. Über diese Notwendigkeiten wurde allerdings nichts<br />
explizites verlautbart.<br />
Die Konstanz des WearComps bedeutet natürlich auch, dass dieser keine Abstürze oder<br />
Endlosschleifen hat sondern absolut stabil und fehlerfrei läuft.<br />
1.2. Informationsvermittlung<br />
Steve Mann beschreibt als eine der Hauptaufgabe des WearComp nicht das Rechnen im weiteren<br />
Sinne, nach seiner Ansicht ist eine der wesentlichsten Aspekte die Befreiung des Trägers von<br />
Aufgaben, die dieser sonst zu erledigen hätte. Der Computer soll ihm übertragene Aufgaben<br />
weitgehend selbständig erledigen und sich nur falls erforderlich beim Träger melden. Er soll den<br />
Benutzer von Aufgaben befreien und diesem dann andererseits allerdings zur Erledigung der restlichen<br />
Aufgaben noch mit Zusatzinformationen behilflich sein (siehe Bild 1.2 im Anhang).<br />
Dies impliziert dann allerdings die Frage der Konformität der Ausführungen des WearComp mit den<br />
Wünschen des Trägers. Es müsste folglich eine Art des Erlernens des Willens des Trägers erfolgen, da<br />
es sonst ja zu einer Situation wie in kritischeren Science Fiktion Romanen käme, dass die Individuen<br />
durch eine wie auch immer geartete Obrigkeit gesteuert und in ihrer Individualität beschränkt werden.<br />
Ob zum Wohle aller oder weniger sei hier nicht entschieden.<br />
Eine weitere Frage ist die permanente Erneuerung des Wissens der Maschine über den Träger<br />
derselben. Dies einerseits da der Träger seine Entscheidungen und Vorlieben durchaus auch ändern<br />
könnte, andererseits sind so manche Entscheidungen ja z.B. auch von ganz banalen Dingen wie der
201 Klaus Liedel<br />
Tageszeit abhängig, z. B. Nahrungszufuhr und deren Vorbereitungen wie etwa Verabredungen zum<br />
Mittagessen oder ähnliches.<br />
1.3. Separation<br />
Nach Steve Mann sollte der WearComp dem Träger auch eine partielle bzw. totale Abschottung zur<br />
Umwelt ermöglichen, dies einerseits zur Konzentration auf die wesentlichen Aufgaben bzw. um<br />
Störungen zu vermeiden und andererseits auch um eine Privatsphäre zu garantieren, etwa durch die<br />
Verhinderung des direkten Augenkontaktes.<br />
Um Störungen des Trägers zu verhindern soll der WearComp die eingehenden Informationen<br />
verarbeiten und gefiltert nur die für den Träger entscheidenden weiterleiten, dies soll nach Möglichkeit<br />
zeitnah, also ohne wesentliche Verzögerung, geschehen. Es soll also die Möglichkeit gegeben werden<br />
dem Träger einen gegen die Außenwelt abgeschirmten und nicht zu beeinflussenden Innenraum zu<br />
gestallten, der nach den individuellen Wünschen und Bedürfnissen gestaltet und entsprechend den<br />
zeitlichen Bedürfnissen modifiziert werden kann. So wäre der Träger etwa gegen werbende<br />
Maßnahmen aller Art unempfänglich, außer natürlich falls er diese zu empfangen wünscht (siehe Bild<br />
1.3 im Anhang).<br />
Diese Ausprägung der Maschine würde in der endgültigen Form auch die komplette Verhüllung des<br />
Trägers einschließen. Steve Mann gibt als wichtiges Beispiel der Trennung die Verhinderung des<br />
Augenkontaktes bzw. den Schutz der Augen des Trägers vor der Einsichtnahme an. Letztendlich ist<br />
die Augenreaktion aber nur eine Reaktionsweise auf eingehende Informationen des Einzelnen, weitere<br />
wären Bewegungen, die Körperhaltung oder auch die Haut als Organ. Ein Beispiel hierfür sind die bei<br />
einem Lügendetektor abgefragten Hauteigenschaften, die man ja auch teilweise im<br />
zwischenmenschlichen Kontakt erkennen kann. Dies würde dann der Individualität des Einzelnen<br />
entgegenstehen. So arbeiten ja auch viele psychologische Erkenntnismethoden mit den individuellen<br />
Ausprägungsformen, Kleiderfarben, Ausdrucksweisen oder –formen. Diese sind individuell, aber<br />
letztendlich auch verräterisch im Sinne der Möglichkeit Rückschlüsse auf den Einzelnen anzustellen.<br />
1.4. Die sechs Attribute der Signalwege eines WearComp<br />
Es gibt nach Steve Mann sechs wesentliche Eigenschaften der Signalwege, die den WearComp<br />
auszeichnen, sie kennzeichnen sich durch eine gewisse Synergie von Mensch und Maschine aus,<br />
allerdings unter Führung des Menschen. Diese Attribute der Flusswege des wearable Computers<br />
werden wie folgt, vom Standpunkt des Nutzers aus beschrieben:<br />
1.4.1 Fehlende Ausschließlichkeit<br />
Soll heißen dass die Aufmerksamkeit des Benutzers durch den Rechner nicht restriktiv von der<br />
äußeren Welt abgetrennt wird, wie etwa in einem virtuellen Computerspiel oder dergleichen. Der<br />
Nutzer erhält durch die Maschine die Möglichkeit sich auf andere Angelegenheiten zu konzentrieren.<br />
Idealer Weise soll der Nutzer durch den Gebrauch des WearComp eine Verbesserung der sensorischen<br />
Fähigkeiten erhalten. Er kann die sensorischen Fähigkeiten bewusst in jeglicher Richtung beeinflussen<br />
(vergrößern, vermindern oder auf spezielle Bereiche konzentrieren).<br />
Der Computer bietet in diesem Sinne also die Möglichkeiten den eigenen Wünschen entsprechend die<br />
Fähigkeiten speziell zu trainieren und entsprechend, soweit möglich, zu verbessern. So dass der Träger<br />
auch die Möglichkeit hat evtl. unterschiedliche Sichtweiten oder Ansichten einer Situation alleine<br />
dadurch zu erhalten indem er den WearComp zur Filterung unterschiedlicher Eingangsinformationen<br />
veranlasst, wie etwa alleine akustische Signale oder die optischen unter Berücksichtigung der<br />
Wärmestrahlung oder anderer Details. Oder natürlich auch im Bedarfsfalle die maximale<br />
Informationsbreite über einen Gegenstand des Interesses zu erhalten, inklusive möglicher<br />
Zusatzinformationen, etwa über das Internet oder andere Kommunikationswege.<br />
1.4.2. Unbeschränktheit des Trägers<br />
Der Benutzer unterliegt während der Nutzung keinerlei zusätzlicher Beschränkungen. Er kann sich<br />
seine Tätigkeit und auch Aufenthaltsort weiterhin frei wählen, auch die Art und Weise der Tätigkeiten<br />
unterliegt keiner zusätzlichen Auflage.
202 Wearcomp, Personal Imaging und Mediated Reality<br />
Der Träger ist räumlich und auch zeitlich nicht gebunden, um dies zu erreichen bedarf es der<br />
ausreichenden Versorgung des WearComp mit Energie, d.h. er benötigt letztendlich eine schier<br />
endlose Energiereserve oder die Möglichkeit überall neue Energiequellen anzuzapfen und für sich<br />
nutzbar zu machen.<br />
Weiter bedeutet diese Unbeschränktheit aber auch, dass der WearComp sehr leicht sein muss und auch<br />
sonst so gestaltet ist, dass er für den Träger keine Einschränkung z.B. der Bewegungsfähigkeit oder<br />
der individuellen Leistungsmöglichkeiten darstellt, am besten so als wäre der WearComp für den<br />
Träger physisch überhaupt nicht vorhanden, oder er stellt einen so essenziellen Teil des eigenen<br />
Lebens dar, dass man diesen eher bei der Abwesenheit vermissen würde, wie etwa die eigene<br />
Kleidung.<br />
1.4.3. Beobachtbarkeit<br />
Der Nutzer erhält die Möglichkeit der uneingeschränkten Kontrolle über den Rechner und seine<br />
Aktionen. Er kann das gesamte Spektrum der Aktionen des Computers jederzeit beobachten. Die<br />
Ausgabe bzw. die Darstellung nach außen ist innerhalb der systembedingten Beschränkungen vom<br />
Träger wahrnehmbar (z.B. ist der Schirm nicht direkt von außen ohne eine Übermittlung des Rechners<br />
einsehbar).<br />
Somit ist es dem Träger ständig möglich in die Aktionen des Rechners Einsicht zu nehmen, dies spielt<br />
auch für den nächsten Punkt eine entscheidende Rolle. Diese Einsichtnahme gilt laut Prof. Mann<br />
zunächst einmal für die Aktionen des WearComp nach außen, es müsste allerdings bei der<br />
beschriebenen allumfassenden Beobachtungsmöglichkeit auch für die internen Vorgänge des<br />
WearComp gelten, so etwa die Abspeicherung der Umgebung bzw. der Aktionen des Trägers. Dies<br />
natürlich auch deshalb da der WearComp in diesem Fall ein Instrument der möglichen Kontrolle des<br />
Trägers darstellen würde, etwa abrufen der gespeicherten Aktionen des Trägers von außen.<br />
1.4.4. Kontrollierbarkeit<br />
Der Computer unterliegt der ständigen Kontrolle und Beeinflussbarkeit durch den Benutzer. Man kann<br />
die Steuerung je nach Wunsch jederzeit an sich nehmen. Auch die automatisierten Prozessen können<br />
jederzeit manuell übernommen werden, um etwa Steuerschleife zu durchbrechen und Teil der Schleife<br />
anders zu konfigurieren. Dies könnte beispielsweise durch eine Halttaste geschehen, die den Computer<br />
in seiner Tätigkeit sofort unterbricht.<br />
Die Kontrollierbarkeit schließt natürlich, wie oben bereits angedeutet die Beobachtbarkeit der<br />
Aktionen des WearComp voraus. Auch in diesem Punkte muss eigentlich davon ausgegangen werden,<br />
dass der Träger auch die Speicherung der Daten mit kontrolliert, sonst wäre der WearComp nicht ein<br />
ausschließlich vom Träger kontrolliertes Instrument, sondern hätte letztendlich auch ein<br />
Kontrolloption des Trägers, die wohl dann auch in irgendeiner Art und Weise von außen genutzt<br />
werden dürfte.<br />
Falls eine Datenspeicherung vorgenommen wird, was teilweise zur Erfüllung der Vorbedingungen<br />
notwendig erscheint, so ist auch die Einsichtnahme und Zerstörung dieser Daten der Einflussnahme<br />
durch den Träger zu unterstellen. Da ja eben auch hierin ein Individualitätsverlust und eine Form der<br />
Überwachung von außen stattfinden könnte, was ja dem Konzept des WearComp von Steve Mann<br />
widersprechen würde..<br />
1.4.5. Konzentration auf die Umgebung<br />
Die Verbesserung der Aufnahmemöglichkeiten und –fähigkeiten schafft beim Nutzer ein neues und<br />
tieferes Bewusstsein für seine Umgebung. Er nimmt seine Umgebung intensiver war, da die<br />
unwesentlichen Aspekt ausgefiltert werden und er durch die Modifikation andere Daten zusätzlich mit<br />
als Informationen erhält (z.B. Umweltdaten wie Luftdruck oder Luftfeuchtigkeit, aber auch<br />
verbesserte visuelle Informationen etwa nachts).<br />
Der Träger kann sich somit auf die für ihn nötigen oder interessanten Details konzentrieren und der<br />
Rechner erledigt für ihn den langweiligen oder auch unangenehmen Rest. Die Entscheidung über die<br />
Objekte der Konzentration(en) obliegen hier, wie auch sonst, dem Träger des WearComps. Hierzu<br />
sind die oben beschriebenen Eigenschaften von entscheidender Bedeutung.
203 Klaus Liedel<br />
Dies bedeutet allerdings auch eine höhere Verantwortung des Einzelnen über die neuen Möglichkeit.<br />
So etwa auch diese Möglichkeiten zu nutzen und sich entsprechend weiter zu entwickeln bzw. die<br />
Umgebung entsprechend zu beeinflussen und nicht nur die Informationen egoistisch zum eigenen<br />
Nutzen zu gebrauchen.<br />
Dies bedeutet dann allerdings in der Gesamtheit auch eine Charakterstärke des Trägers, die ihm der<br />
Rechner wohl nicht, auch in fernerer Zukunft nicht, vermitteln kann. Sondern dies stellt eine<br />
notwendige Voraussetzung des Nutzers dar.<br />
1.4.6. Kommunikationsfähigkeit<br />
Der WearComp verfügt über erweiterte Möglichkeiten der Kommunikation mit anderen. Einerseits zur<br />
Kommunikation über die Distanz, etwa vergleichbar einem Mobiltelefon, andererseits aber auch durch<br />
Verstärkung der Stimme wie ein Megaphon. Aber auch eine ganz andere Form der Expressivität auf<br />
künstlerischem Niveau werden hier durch Prof. Mann beschrieben.<br />
Es ist hier einerseits natürlich die gesamte Palette der derzeit bereits möglichen Formen der<br />
Kommunikation via z.B. Telefon und Internet zu nennen. Andererseits aber auch noch weitere<br />
Maßnahmen, wie etwa der Verbindung dieser Möglichkeiten über Konferenzschaltungen mit<br />
zusätzlichen Videoanbindungen oder eben auch der Onlineunterstützung bei der<br />
Entscheidungsfindung bzw. bei Ausführung von Aktionen. Dies zwar vor allem im beruflichen<br />
Bereich, allerdings sind den Möglichkeiten dann natürlich auch auf dem privaten Sektor keine<br />
Einschränkungen gesetzt.<br />
Der Träger könnte natürlich manche Aufgaben zeitweise auch an andere, räumlich evtl. getrennte,<br />
Personen übertragen, die via Telemetrie über die Möglichkeiten des WearComp verfügen könnten.<br />
Hier dann auch immer unter Einhaltung der vorgenannten Eigenschaften, dass der Träger immer auch<br />
Träger der obersten Entscheidungen über den WearComp ist und alle seine Aktionen, auch die<br />
fremdgesteuerten, beobachten und beeinflussen kann.<br />
Es sind dann verschiedene Szenarien denkbar, einerseits natürlich die nicht ganz korrekte Nutzung der<br />
Fähigkeiten anderer, wie etwa bei individuellen Leistungsnachweisen, falls diese dann überhaupt noch<br />
notwendig sein sollten, andererseits aber auch die mögliche unerlaubte Einflussnahme durch andere.<br />
Auch wenn dies theoretisch durch den Träger kontrolliert wird ist es diesem dennoch sicherlich nicht<br />
möglich alle diese doch sehr vielen Kanäle gleichzeitig zu kontrollieren.<br />
Auch in diesem Teilbereich wäre es allerdings denkbar, dass der Rechner gewisse Hilfsmittel zur<br />
Verfügung stellt um die Einflussnahme von außen zu kontrollieren, z.B. über eine Freigabe<br />
entsprechender Bereiche durch den Träger. Oder natürlich auch durch die Protokollierung der<br />
Tätigkeiten.<br />
2 Technische Realisierung<br />
Die Realisation der oben genannten Anforderungen gestalltet sich natürlich unterschiedlich schwierig.<br />
Die größten Probleme sind hier einerseits in der ständigen Verfügbarkeit und der zeitnahen<br />
Aufarbeitung der Signale von Innen (Benutzer) und Außen (Umgebung) zu sehen. Und weiter eben<br />
auch in der Abschirmung des Benutzers vor direktem Einfluss der Außenwelt, die man vielleicht auch<br />
als Lecks der Abschirmung bezeichnen könnte.<br />
Zur Realisierung wird zunächst die visuelle Seite der vermittelten Realität näher untersucht, es wird<br />
ein spezielles Glas vorgeschlagen sog. „Lightspace – Analysator“, das in der Lage sein sollte alle auf<br />
es gerichtete Strahlung zu absorbieren und quantitativ zu analysieren. Es ist ein Glas, das vollkommen<br />
lichtundurchlässig ist, das allerdings alle ankommenden Photonen analysiert und das Ergebnis in<br />
numerischer Form weiterleitet. Der Lightspace - Analysator muss nicht unbedingt flach sein, es sind<br />
auch durchaus andere Formen, etwa gekrümmt wie ein Brillenglas denkbar (siehe Bild 2.1 im<br />
Anhang).<br />
Weiter wäre eine Form der Generierung von Bildern in umgekehrter Form wie die Analyse durch den<br />
Lightspace – Analysator nötig. Dieser wird als „Synthesizer – Lightspace“ bezeichnet. Es hätte die
204 Wearcomp, Personal Imaging und Mediated Reality<br />
Aufgabe aus einem Eingangsstrom von Zahlen entsprechende Lichtquanten zu generieren (siehe Bild<br />
2.2 im Anhang).<br />
Nimmt man nun den Ausgang des Analysators und verbindet diesen mit dem Eingang des<br />
Synthesizers so hat man eine elektronische Transparenz geschaffen. Das Ziel soll allerdings ein sehr<br />
dünnes Gebilde sein, das einem die Möglichkeit gib den Analysator und den Synthesizer eng<br />
aneinander liegend zu bauen und so die elektronische Transparenz so wie den natürlichen Durchtritt<br />
durch z.B. eine Brille zu gestallten. Und als weiters, sozusagen finales, Element müsste dann in die<br />
Bitströme der oben beschriebene WearComp mit integriert werden, so dass die wahrgenommene<br />
Realität nicht eine direkt übertragene sondern vermittelte d.h. gefiltert und modifizierte wäre (Siehe<br />
Bild 2.3 im Anhang).<br />
In der bisherigen Praxis wurden die Realisierungen allerdings in Ermangelung von Lightspace durch<br />
andere Konstrukte durchgeführt. Hier dienten vor allem Kameras zur Lichtaufnahme und kleine<br />
Bildschirme zur Übermittlung an den Benutzer. Die Darstellungen in Bild 3.1 im Anhang geben einen<br />
kleinen Überblick über die Form und die Dimensionen, auch im Verlauf der Zeit. Die Darstellungen<br />
zeigen Steve Mann mit den diversen Apparaturen, die er zur Verwirklichung des WearComp –<br />
Gedankens realisierte [MAN 03].<br />
Wie wohl allgemein bekannt und oben erwähnt existiert diese von Steve Mann genannte Material<br />
Lightspace noch nicht. Theoretisch ist es allerdings nicht nur eine Frage der die Strahlung auf- und<br />
ausgebenden Materialien, sondern auch die Rechnerleistung und Verarbeitungsgeschwindigkeiten sind<br />
eine wichtige Frage. Schließlich sind einige der Aufgaben der WearComps als zeitkritisch anzusehen.<br />
Dies in dem Sinne dass der Träger die Eindrücke als der Realität entsprechend empfinden soll.<br />
Schließlich sehen die Postulate vor, dass der Träger durch den WearComp unterstützt und nicht<br />
eingeschränkt wird, dies schließt es dann allerdings ein von der Maschine nicht behindert zu werden<br />
sondern einen zusätzlichen Komfort zu genießen, den man nicht erst einüben muss.<br />
Hierzu können einerseits die Erfahrungen in der Generierung von Flugsimulatoren oder auch die in der<br />
Medizin bereits in der Erprobung befindlichen Modellierungen der Operationen und<br />
Trainingseinheiten dienen. In diesem Zudammenhang möchte ich Prof. Gabor Székely vom Inst. für<br />
Bildverarbeitung der ETH Zürich zitieren, der im Zusammenhang mit der Darstellung dieser<br />
Möglichkeiten in der Medizin [SZÉ 03] darauf hinwies dass die Simulation dann als realistisch<br />
angesehen wird wenn die Realisierung der Änderungen des virtuellen Modells innerhalb von 50 ms<br />
erfolgt. Bei Reaktionszeiten die darüber liegen werden die Modelle als nicht realistisch empfunden.<br />
Eine weitere Annäherung könnte auch in der Analyse der Bildwiederholfrequenzen in Kino- oder<br />
Fernsehübertragungen dienen. Diese Bilder werden mit einer Wiederholungsrate von 24 bzw. 25<br />
Bildern/ Sek. dargeboten, wie ein jeder selbst feststellen kann entsteht dadurch ein harmonischer<br />
Eindruck, der den Aufbau aus Einzelbildern verdeckt. Die oben genannten Wiederholraten bewirken<br />
eine bildliche Darstellung alle 40 ms. Somit sind diese Reaktionszeiten von entsprechenden Systemen,<br />
von der Detektion bis zum Aussenden der entsprechend modifizierten Information zu fordern, wenn<br />
der Eindruck realitätsnah sein soll.<br />
Denkbar sind aber auch Einsätze zur Erhöhung der Präzision, wie etwa bei Operationen. Hier könnte<br />
durch die Visualisierung der zusätzlichen Informationen eine präzisere und schonendere Technik<br />
angewendet werden. Weiter wäre es möglich die Komplexität der Darstellung während der Operation<br />
zu erhöhen, sowie eine statische Informationssituation dynamischer zu gestallten indem man während<br />
der Operation anfallende Informationen mit integriert[WAN 02] (siehe hierzu Bilder 3.2 bis 3.4 im<br />
Anhang).<br />
3 Weiterer Ausblick<br />
WearComp hat bei vorliegen der Eigenschaft wie sie Steve Mann angibt das Potential, die ganze Welt<br />
virtuell als auch real abzubilden. Weiter besitzt eine solche Maschine auch das Potential, eine<br />
geänderte Vorstellung der Sichtweise auf die Wirklichkeit zu verursachen. Solch eine Computer -<br />
vermittelte Realität kann nicht nur die Proportionen ändern sondern wäre auch in der Lage unsere<br />
Vorstellung und Sichtweise der Wirklichkeit zu beeinflussen und auf längere Sicht auch zu ändern.
205 Klaus Liedel<br />
Auch bei ganz alltäglichen Tätigkeiten könnten WearComps nützliche <strong>Dienste</strong> leisten z.B. könnte man<br />
sich beim Fahren besser konzentrieren, da man einfach alle nicht direkt mit der Steuerung des Wagens<br />
in Zusammenhang stehende Einflüsse abschalten könnte, dies wird von Steve Mann auch in einem<br />
Selbstexperiment beschrieben [MAN 01].<br />
Es wäre allerdings auch andererseits nicht zwingend nötig, dass man sich in dieser Zeit aus allem<br />
anderen heraushalten würde bzw. müsste, einerseits könnte der WearComp die sonstigen<br />
Kommunikationen speichern, so dass es einem möglich wäre diese später nachzuvollziehen, wie etwa<br />
die Beantwortung von E-Mails. Andererseits wäre es durchaus auch denkbar, dass der WearComp im<br />
Sinne des Trägers antwortet bzw. reagiert und nur dann eine Notiz hinterlegt um dem Träger die<br />
Aktionen anzuzeigen.<br />
Außerdem könnte der WearComp dazu beitragen, dass wir uns auch in hektischer Umgebung<br />
entspannen könnten und uns im Anschluss auf evtl. Aufgaben wieder besser zu konzentrieren<br />
vermögen. Als eine Art von Lernen könnte der Rechner etwa die Herzfrequenz registrieren und daraus<br />
ableiten wie sich der Träger am besten entspannt und dies dann auch in den Ruhezeiten mit in ein<br />
Entspannungsprogramm integrieren.<br />
Es sind allerdings auch gänzlich andere Aspekte denkbar, so wäre es leicht möglich ein Alibi zu<br />
bestätigen oder zu widerlegen. Es könnte sein, dass man bei Überlastung einfach jemanden anderen<br />
darum bittet doch Aufgaben, die auf einen einströmen zu übernehmen oder man selektiert die<br />
eintreffenden Informationen der Art, dass man nur die aktuell unaufschiebbaren Arbeiten erledigt und<br />
den Rest speichert, um ihn im Anschluss oder bei Gelegenheit zu erledigen. Dies kann einerseits<br />
gesteuert durch den Träger erfolgen, aber auch automatisch durch die Fehlerüberprüfung des Systems,<br />
etwa wenn der Träger eine gewissen Anzahl von Fehlern begeht, oder wenn die Reaktionszeiten zu<br />
lange werden.<br />
Es gäbe allerdings auch völlig neue Marketing Möglichkeiten, der Computer als WearComp wäre<br />
vergleichbar mit einer elektronischen Prothese und als solche vielleicht auch nur begrenzt verzichtbar.<br />
Hieraus würden sich Ansätze für einen sehr großen Markt ergeben. Der Einzelne hätte die Möglichkeit<br />
sich seine Umgebung in großen Bereichen individuell zu gestallten, losgelöst von Realitäten. Dies<br />
gäbe einem die Möglichkeit einer gänzlich neuen Art der Selbstbestimmung.<br />
Ein anderes Gebiet, das ebenfalls von dieser Entwicklung profitieren könnte, wäre der künstlerische<br />
Bereich. Die Zusammenstellung gänzlich neuer Formen der Kollagen oder auch die Konferenz und die<br />
Modifikation der Kunstwerke als Gruppenereignis. Auch hierzu hat Steve Mann bereits mehrere<br />
Beispiele geliefert. Es würden sich mehrere Aspekte der WearComps ergänzen, einerseits die<br />
Speicherung, dann aber auch die Möglichkeiten der Weitergabe an andere und natürlich auch die<br />
Vereinigung von Realität und Fiktion in einer Darstellung. In diesem Zusammenhang spielte dann eine<br />
evtl. vorhandene zeitliche Verzögerung keine Rolle, der WearComp dient in dieser Art der<br />
Anwendung nicht zur online Generierung einer virtuellen Realität auf der Grundlage der Wirklichkeit<br />
sondern zur künstlerischen Bereicherung der vorhandenen Welt, als Form der Imagination und<br />
Unterstützung der Tätigkeit von Künstlern. Evtl. ist dann auch der Begriff des Künstlers neu zu fassen,<br />
da es dann einem jeden Träger eines WearComps möglich ist diesen auch in dem Sinne zu nutzen.<br />
4 Zusammenfassung und Kritik<br />
Einerseits ist die Idee des WearComp als transportabler, ubiquitär vorhandener und ständig<br />
einsetzbarer Computer eine Option, die mannigfaltige Möglichkeiten bietet. Und eine völlig neue<br />
Form der Gestaltung des eigenen Lebensraumes und der eigenen zeitlichen Einteilungen ermöglicht.<br />
Andererseits ist allerdings auch immer zu bedenken, dass der Mensch als soziales Wesen evtl. den<br />
„natürlichen“ Umgang und Kontakt zu anderen Menschen zur Aufrechterhaltung seiner psychischen<br />
Gesundheit benötigt und ohne diese auf längere Sicht gänzlich neue und unerwartete Erkrankungen<br />
und Deviationen auftreten könnten, die ohne diese Separation nicht vorhanden wären.<br />
Eine weitere Überlegung ist natürlich auch, ob es dieser individuellen Computer bedarf um etwa den<br />
Straßenverkehr sicherer zu machen oder ob es hierzu nicht auch günstigere und weniger spezielle<br />
Methoden der Umsetzung gibt. Und natürlich stellt auch die Überwachung der dadurch gesammelten<br />
Daten eine weiter Problematik dar, die auf juristischem Gebiet ein weites Feld eröffnen dürfte, sind
206 Wearcomp, Personal Imaging und Mediated Reality<br />
die gesammelten Daten z.B. Eigentum des Besitzers des WearComp oder des Eigentümers oder gar<br />
Besitz der Allgemeinheit, müssen sie vielleicht innerhalb kürzester Zeit gelöscht werden, oder dürfen<br />
sie nicht gelöscht werden um sich etwa noch nach Tagen ausweisen zu können und bei Befragungen<br />
der Ordnungsbehörden die entsprechenden Angaben untermauern zu können.<br />
Weiter ist natürlich auch noch zu überlegen ob man dann auch bereits den Heranwachsenden oder<br />
Kindern die Möglichkeiten der tragbaren Computer ermöglicht oder sie zunächst ohne aufwachsen<br />
lässt. Bei dem Gebrauch von WearComps in der Erziehung und Ausbildung würden sich auch dabei<br />
völlig neue Möglichkeiten der individuellen Gestaltung der Erziehung und Unterrichtung ergeben, die<br />
von heutigem Stand in ihrer Gesamtheit vielleicht noch nicht einmal ganz überdacht werden können.<br />
Insgesamt betrachtet schafft der WearComp natürlich viele neue Möglichkeiten und eröffnet<br />
gestalterische Optionen, die ohne diesen nicht möglich wären. Es sind allerdings auch diesem Konzept<br />
natürliche Grenzen gesetzt, so ist es wohl eher fraglich ob er alle physikalischen Einflüsse der Umwelt<br />
abschalten kann, wie etwa die klimatischen Einflüsse oder die Schwerkraft. Beim Klima bestehen da<br />
noch evtl. Möglichkeiten, die allerdings in Form einer transportablen Klimaanlage einen sehr großen<br />
Aufwand erfordern, bei der Schwerkraft sind derzeit noch nicht einmal theoretische Ansätze<br />
vorhanden, die hier möglich sein könnten. Allerdings ist dies vielleicht auch nicht unbedingt für alle<br />
Einsatzbereiche notwendig.<br />
Auch im Bereich der Kommunikation sind durch die Naturgesetze in Zusammenhang mit den<br />
geforderten Eigenschaften des WearComp, und in Kombination mit dem oben genannten nötigen<br />
Reaktionszeiten des Gesamtsystems, die Formen des Informationsaustauschs eingeschränkt. Geht man<br />
z.B. von der Lichtgeschwindigkeit (300.000 km/s) als maximale Geschwindigkeit für den<br />
Datenaustausch aus, so liegt die in der nötigen Reaktionszeit zur Verfügung stehende Distanz, ohne<br />
Verarbeitungszeiten, bei 15.000 km.<br />
Dadurch ergeben sich Einschränkungen der möglichen Kommunikation, so befinden sich die<br />
geostationären Satelliten, die vor allem für die Kommunikation und Nachrichtübertragung genutzt<br />
werden, in einer Höhe von 36.000 km über der Erdoberfläche (aus www.fen-net.de/satellitentechnikonline/texte/orbit/orbit.htm)<br />
. Wie man dabei einfach erkennt, ist es ohne für den Benutzer erkennbar<br />
Verzögerung nicht möglich diese zum online Datenaustausch zu nutzen. Wie in der oben angegebenen<br />
Quelle ebenfalls erwähnt, existieren auch in anderen Umlaufbahnen Satelliten, doch auch diese sind<br />
teilweise zu hoch. Wie etwa die zur Satellitennavigation genutzten GPS-Satelliten, die sich in Höhen<br />
von 10.000 bis 20.000 km über der Erde befinden. Auch diese befinden sich somit zur online Nutzung<br />
für die WearComps in einer zu hohen Umlaufbahn. Die sonst noch vorhandenen Umlaufkörper im<br />
Orbit sind von ihrer Anzahl her nicht ausreichend vorhanden um einen sicheren bzw. ständigen<br />
Gebrauch zu gestatten. Fasst man dies zusammen, so müsste die Arbeit des Rechners, als eine Art von<br />
Terminal, aus der „näheren“ Umgebung also erdgebunden erfolgen.<br />
Referenzen<br />
[MAN 01] Mann S.(2001): Fundamental Issues in Mediated Reality, WearComp, and Camera-<br />
Based Augmented Reality. In Fundamentals of Wearable Computers and<br />
Augmendted Reality (2001), Lawrence Erlbaum Associates, Inc. Puglishers, 295 –<br />
328<br />
[MAN 03] Mann S. (2003): Referenzen des Internets unter www.wearcam.org<br />
[SZÉ 03] Székely G. (2003): Realistische Simulation chirurgischer Eingriffe, als Vortrag<br />
im Kolloquium der Informatik an der Technischen Universität Braunschweig,<br />
26.05.03.<br />
[WAN 02] Wanschitz F et al. (2002): Computer-enhanced stereoscopic vision in a headmounted<br />
display for oral implant surgery. In Clin. Oral Impl. Res. 13, 2002,<br />
610 – 616
207 Klaus Liedel<br />
Anhang /Abbildungen<br />
Bild 1.1: Permanente Interaktion als eine der Eigenschaften eines wearable Computers.<br />
übersetzt aus http://wearcam.org/wearcompdef/fig1asmall.gif<br />
Bild 1.2: Versorgung des Benutzers mit Zusatzinformationen als eine der zusätzlichen<br />
Eigenschaften eines wearable Computers.<br />
übersetzt aus http://wearcam.org/wearcompdef/fig1bsmall.gif
208 Wearcomp, Personal Imaging und Mediated Reality<br />
Bild 1.3: Isolation des Trägers von der Umwelt im Eingangs- wie Ausgangsstrom<br />
übersetzt aus http://wearcam.org/wearcompdef/fig1c.gif<br />
Bild 2.1: Lightspace – Analysator als ideales Material zur Verwirklichung von Apparaten der<br />
vermittelten Realität<br />
nach den Ausführungen von Steve Mann
209 Klaus Liedel<br />
Bild 2.2: Synthesizer - Lightspace als ideales Material zur Verwirklichung von Apparaten der<br />
vermittelten Realität<br />
nach den Ausführungen von Steve Mann
210 Wearcomp, Personal Imaging und Mediated Reality<br />
Bild 2.3: Lightspace – Glas in Verbindung mit einem WearComp<br />
nach den Ausführungen von Steve Mann<br />
Bild 3.1: Verschiedene Apparate zur Umsetzung des WearComp – Gedankens im zeitlichen<br />
Verlauf<br />
http://n1nlf-1.eecg.toronto.edu/personaltechnologies/fig3.gif
211 Klaus Liedel<br />
Bild 3.2: Apparatur zur intraoperativen Visualisierung bei der Implantation<br />
aus [WAN 02]<br />
Bild 3.3: Projektion der Apparatur aus Bild 3.2<br />
aus [WAN 02]<br />
Bild 3.4: Projektion der Apparatur aus Bild 3.2, wie in Bild 3.3 allerdings mit Bohrinstrument<br />
aus [WAN 02]
213 Index<br />
A<br />
Active Badge .....................................11, 50<br />
Active Bat................................................11<br />
Affine Darstellung.................................126<br />
Affine Räume ........................................127<br />
AfinesKoordinatensystem .....................128<br />
Angle of Arrival ......................................65<br />
Angriffsziele............................................84<br />
Apple Newton .........................................51<br />
Assisted GPS...........................................65<br />
ATKIS-Objektkatalog .............................31<br />
Augmented Reality................................137<br />
Authentizität............................86, 101, 103<br />
Autorisierung...........................86, 102, 103<br />
B<br />
Bedrohung ...............................................83<br />
Bedrohungsanalyse................................104<br />
Bedrohungssystematik ............................84<br />
Beherrschbarkeit......................87, 102, 104<br />
Beschleunigungsmessung......................173<br />
Bessel-Ellipsoid.......................................36<br />
Bewegungsprofil ...........................104, 108<br />
Brute Force – Angriff............................106<br />
Bundesdatenschutzgesetz ........................87<br />
C<br />
Cell of Origin ..........................................63<br />
Chipkarte .................................................91<br />
Chosen Plaintext – Angriff....................106<br />
Cipher Text Only – Angriff...................106<br />
Context Spaces ......................................118<br />
ContextCast ...........................................118<br />
Cyberguide ..............................................48<br />
D<br />
Datenhandschuh ....................................138<br />
Datenschutz .............................................87<br />
Denial of Service Angriff..............104, 106<br />
Differential GPS................................24, 65<br />
Digitales Landschaftsmodell...................33<br />
Display ..................................................159<br />
DNS.......................................................117<br />
Doppler-Verfahren ................................169<br />
Durchsicht-Display............................... 182<br />
E<br />
EGNOS................................................... 26<br />
Energieversorgung................................ 157<br />
Enhanced Observed Time Difference..... 64<br />
Erd-Gravitationsfeld ............................. 176<br />
e-SUIT .................................................. 155<br />
F<br />
Fahrzeugflotten ....................................... 66<br />
Force-Feedback-Display....................... 138<br />
Freiheitsgrad ......................................... 167<br />
Future Computing Environment............. 48<br />
G<br />
GALILEO ............................................... 26<br />
Gauß-Krüger-Koordinatensystem........... 35<br />
GeoCast Nachricht................................ 113<br />
Geodatenbank ......................................... 43<br />
Geographische Adressierung................ 111<br />
GeoHost ................................................ 113<br />
Geoinformationssystem ..............Siehe GIS<br />
GeoNode ............................................... 113<br />
GeoRouter............................................. 113<br />
GIS.......................................................... 31<br />
Fachschalen......................................... 42<br />
GLONASS.............................................. 26<br />
GPRS ...................................................... 62<br />
GPS............................. 21, 52, 64, 112, 141<br />
<strong>Dienste</strong> ................................................ 22<br />
PRN..................................................... 23<br />
Satelliten ............................................. 22<br />
Segmente............................................. 21<br />
GSM<br />
Cell-ID ................................................ 63<br />
Funkzelle............................................. 64<br />
GUIDE.................................................... 54<br />
Gyroskop<br />
mechanisch ....................................... 173<br />
optisch............................................... 169<br />
H<br />
Head-Mounted-Display ................ 138, 158<br />
Head-up-Display................................... 158
214 Index<br />
HEPS-SAPOS .........................................25<br />
HiBall Tracking System ..........................13<br />
I<br />
Identifikation ...........................86, 101, 103<br />
Infrarot.................................................8, 51<br />
Inmarsat...................................................61<br />
Integrität ..................................85, 101, 103<br />
K<br />
Known Plaintext – Angriff....................106<br />
Kontext....................................................47<br />
Koordinate.................................................5<br />
physikalische .......................................97<br />
semantische .........................................97<br />
Koordinatensystem<br />
affines ....................................................5<br />
kartesisches............................................5<br />
Koordinatentransformation .......................6<br />
Kreispeilung ..............................................7<br />
Kreuzpeilung .............................................6<br />
L<br />
Laser ..........................................................8<br />
laserBIRD................................................14<br />
Location Interoperability Forum .............62<br />
Location Measurement Unit....................64<br />
Location Server Infrastructure ....Siehe LSI<br />
LSI...........................................................97<br />
Assoziation..........................................98<br />
Client ...................................................97<br />
Domäne ...............................................98<br />
inbound mode....................................100<br />
LLS......................................................99<br />
Location Server ...................................97<br />
outbound mode..................................100<br />
Relation ...............................................98<br />
M<br />
Man in the middle Angriff ....................106<br />
Mediated Reality ...................................199<br />
Mikroskop .............................................185<br />
Mobile Location Center ..........................64<br />
Mobile Support Station .........................116<br />
MSAS......................................................26<br />
m-ToGuide ..............................................59<br />
Multicast IP ...........................................116<br />
N<br />
Nexus ...................................................... 73<br />
Augmented Area Modell .................... 75<br />
Augmented World Modell.................. 75<br />
AWML................................................ 79<br />
AWQL ................................................ 79<br />
Spatial Server Model .......................... 79<br />
Nicht-Abstreitbarkeit .............. 86, 102, 103<br />
Notrufdienste .......................................... 66<br />
O<br />
Open Mobile Alliance............................. 63<br />
P<br />
PARCTab................................................ 50<br />
Passive Peilung ......................................... 7<br />
pattern recognition................................ 170<br />
Polarkoordinate......................................... 5<br />
Präsenz.................................................. 122<br />
Projektionen ...................................... 127<br />
R<br />
Radio Camera System............................. 66<br />
Registrierungsfehler.............................. 130<br />
Replay-Attacke ..................................... 107<br />
Retina Display ...................................... 184<br />
Richtfunk .................................................. 8<br />
S<br />
SAPOS.................................................... 25<br />
Satellitennavigation ................................ 18<br />
Sicherheit ................................................ 83<br />
Signal Attenuation .................................. 65<br />
SMS ........................................................ 61<br />
Spot-On................................................... 12<br />
Spracherkennung .................................. 160<br />
Steve Mann ........................................... 199<br />
sweeping beam...................................... 171<br />
T<br />
Telemedizin .......................................... 141<br />
Tourist Guides ........................................ 47<br />
Triangulation......................................... 168<br />
TV-Fernbedienung.................................. 51
215 Index<br />
U<br />
Ultraschall .........................................9, 167<br />
V<br />
Verfügbarkeit ..........................86, 102, 103<br />
Verkehrsflussanalyse.............................107<br />
Verlässlichkeit.........................87, 102, 103<br />
Vertraulichkeit.........................85, 101, 102<br />
W<br />
WAP ....................................................... 61<br />
Wearable Computer ...................... 137, 153<br />
WearComp............................................ 199<br />
WGS84 ............................................. 17, 37<br />
WIPS....................................................... 12<br />
WLAN .................................................... 12<br />
Z<br />
Zugriffssteuerung.................... 86, 102, 103<br />
Zylinderkoordinate ................................... 5<br />
WAAS .....................................................25