27.01.2015 Aufrufe

Ortsbasierte Dienste - wireless-earth

Ortsbasierte Dienste - wireless-earth

Ortsbasierte Dienste - wireless-earth

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Ortsbasierte</strong> <strong>Dienste</strong><br />

Seminar 01919 im Sommersemster 2003<br />

Fachbereich Informatik, Praktische Informatik II<br />

FernUniversität<br />

in Hagen<br />

Fachbereich Informatik<br />

Postfach 940<br />

D- 58084 Hagen


2 Vorwort<br />

Mobile vernetzte Benutzer können oft auf eine Vielzahl von Informationsdiensten zurückgreifen,<br />

die beispielsweise durch Mobilfunkbetreiber angeboten werden. Berücksichtigen solche<br />

<strong>Dienste</strong> den Standort des Benutzers, spricht man von ortsbasierten <strong>Dienste</strong>n (engl.: locationbased<br />

Services). Typische Beispiele für ortsbasierte <strong>Dienste</strong> sind Navigationssysteme, elektronische<br />

Karten, Fahrplanauskünfte oder elektronische Touristenführer. Ortsinformationen<br />

können darüber hinaus dazu benutzt werden, um andere Informationsquellen "aufzubessern".<br />

Augmented Reality (AR) ist dabei ein wichtiges Stichwort. In Augmented-Reality-Systemen<br />

werden virtuelle Objekte in die reale Welt eingeblendet. Dies eröffnet Anwendungsmöglichkeiten<br />

z.B. für die Industrie oder für Architekten. Durch ortsbasierte <strong>Dienste</strong> verspricht man<br />

sich (nicht zuletzt auf dem kommerziellen Sektor) diverse Vorteile - allerdings ist die Entwicklung<br />

solcher <strong>Dienste</strong> noch sehr aufwendig, insbesondere da die Bestimmung des Ortes<br />

eines mobilen Benutzers notwendig ist. Darüber hinaus stellt Augmented Reality weitere Anforderungen<br />

an die Präzision der Positionsbestimmung, die Displaytechnologie und das<br />

Hardwaredesign. In diesem Seminar sollen die Grundlagen von ortsbasierten <strong>Dienste</strong>n, auch<br />

im Hinblick auf die Verwendung mit Augmented Reality, untersucht werden.<br />

Die vorliegenden Ausarbeitungen sind anlässlich eines Seminars im Sommersemester 2003 an<br />

der Fernuniversität Hagen entstanden. Im Seminar wurden u.a. die folgenden Themen behandelt:<br />

Positionsbestimmung, geografische Adressierung, Geo-Datenbanken, Sicherheitsaspekte,<br />

Augmented Reality und Plattformen für ortsbasierte <strong>Dienste</strong>.<br />

Jörg Roth und Dominic Heutelbeck, Juni 2003


3 Inhalt<br />

Positionsbestimmung innerhalb von Gebäuden ......................................................................... 5<br />

Jörg Schwerdtfeger<br />

1 Grundlegende Techniken zur Positionsbestimmung ........................................................................................................5<br />

2 Anwendungen in der Praxis............................................................................................................................................11<br />

3 Ausblick .........................................................................................................................................................................15<br />

Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation ............................... 17<br />

Johann Zeiser<br />

1 Einleitung.......................................................................................................................................................................17<br />

2 Positionsbestimmung mit Satellitennavigation...............................................................................................................18<br />

3 Global Positioning System (GPS) ..................................................................................................................................21<br />

4 Verfahren zur verbesserten Positionsbestimmung..........................................................................................................24<br />

5 Weitere Systeme und Entwicklungen.............................................................................................................................26<br />

6 Anwendung ....................................................................................................................................................................27<br />

Geoinformationssysteme und Geo-Datenbanken im Überblick............................................... 31<br />

Joachim Marwinski<br />

1 Geodaten ........................................................................................................................................................................31<br />

2 Was leisten GIS ............................................................................................................................................................39<br />

3 Geodatenbanken.............................................................................................................................................................43<br />

4 Ausblick .........................................................................................................................................................................44<br />

Beispiele ortsbasierter <strong>Dienste</strong> .................................................................................................47<br />

Edgar Merl<br />

1 Einleitung.......................................................................................................................................................................47<br />

2 Cyberguide .....................................................................................................................................................................48<br />

3 GUIDE ...........................................................................................................................................................................54<br />

4 Ausblick und aktuelle Projekte.......................................................................................................................................58<br />

<strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk......................................................................................... 61<br />

Andreas Werlemann<br />

1 Einleitung.......................................................................................................................................................................61<br />

2 Technische Voraussetzungen .........................................................................................................................................61<br />

3 Verfahren der Positionsbestimmung...............................................................................................................................63<br />

4 Inhalte ortsbasierter <strong>Dienste</strong>...........................................................................................................................................66<br />

5 Fazit und Ausblick .........................................................................................................................................................69<br />

“Nexus“ .................................................................................................................................... 73<br />

Lothar Meschewski<br />

1 Motivation......................................................................................................................................................................73<br />

2 Einführung in das Projekt Nexus....................................................................................................................................73<br />

3 Besondere Aspekte von Nexus.......................................................................................................................................74<br />

4 Probleme ........................................................................................................................................................................80<br />

5 Ausblick .........................................................................................................................................................................80<br />

6 Danksagung....................................................................................................................................................................81<br />

Sicherheit und Datenschutz für Mobile Anwendungen ........................................................... 83<br />

Hagen Barlag<br />

1 Der Begriff Sicherheit ....................................................................................................................................................83<br />

2 Datenschutz....................................................................................................................................................................87<br />

3 Fazit................................................................................................................................................................................94<br />

Sicherheitsproblematik am Beispiel der Location Server Infrastructure ................................. 97<br />

Stephan Drautz<br />

1 Vorstellung von LSI .......................................................................................................................................................97<br />

2 Sicherheitsrelevante Aspekte im Bezug auf die LSI.....................................................................................................101<br />

3 Bedrohungsanalyse.......................................................................................................................................................104<br />

4 Sicherheitsstrategien.....................................................................................................................................................107<br />

5 Fazit..............................................................................................................................................................................108


4 Inhalt<br />

Geographische Adressierung in Computernetzen .................................................................. 111<br />

Adalbert Spakowski<br />

1 Einleitung.....................................................................................................................................................................111<br />

2 Adressierungsmodell....................................................................................................................................................112<br />

3 GEOcast – ein zentral administrierbarer Ansatz...........................................................................................................112<br />

4 GPS-Multicast Ansatz ..................................................................................................................................................116<br />

5 Domain Name Service – Ansatz...................................................................................................................................118<br />

6 ContextCast – ein Peer to Peer Ansatz .........................................................................................................................118<br />

7 Zusammenfassung / Ausblick.......................................................................................................................................123<br />

Mathematische Grundlagen für Augmented-Reality Systeme............................................... 125<br />

Alexander Lorenz<br />

1 Einleitung.....................................................................................................................................................................125<br />

2 Transformationen .........................................................................................................................................................126<br />

3 Affine Darstellung........................................................................................................................................................126<br />

4 Registrierungsfehler .....................................................................................................................................................130<br />

5 Abschließender Kommentar.........................................................................................................................................135<br />

Wearable Computer und Augmented Reality Anwendungen ................................................ 137<br />

Hermann Kollmar<br />

1 Einführung....................................................................................................................................................................137<br />

2 Anwendungsgebiete .....................................................................................................................................................139<br />

3 Ausblick .......................................................................................................................................................................149<br />

Design-Aspekte von Wearable Computern............................................................................ 153<br />

Olaf Geschonke<br />

1 Begriffsbestimmung .....................................................................................................................................................153<br />

2 Akzeptanz von Wearable Computern...........................................................................................................................155<br />

3 Integration ....................................................................................................................................................................156<br />

4 Energieversorgung .......................................................................................................................................................157<br />

5 Ausgabemöglichkeiten .................................................................................................................................................158<br />

6 Eingabemöglichkeiten ..................................................................................................................................................160<br />

7 User-interface...............................................................................................................................................................162<br />

8 Design-Beispiel ............................................................................................................................................................163<br />

Richtungs- Geschwindigkeits- und Beschleunigungsmessung.............................................. 167<br />

Johann Gröbmair<br />

1 Zeit-und Frequenzmessung ..........................................................................................................................................167<br />

2 Räumliche Abtastung ...................................................................................................................................................170<br />

3 Massenträgheit .............................................................................................................................................................173<br />

4 Mechanische Verbindungen .........................................................................................................................................174<br />

5 Feldmessung.................................................................................................................................................................174<br />

6 Hybridformen...............................................................................................................................................................177<br />

7 Schlusswort und Ausblick............................................................................................................................................177<br />

Display Technologien ............................................................................................................ 181<br />

Dirk Schröder<br />

1 Augmented-Reality Systeme ........................................................................................................................................181<br />

2 Durchsicht-Display.......................................................................................................................................................182<br />

3 Video-Durchsicht-Display............................................................................................................................................183<br />

4 Weitere Displaytypen für Augmented-Reality Systeme...............................................................................................184<br />

5 Probleme bei Durchsicht- und Video-Durchsicht Displays..........................................................................................186<br />

6 Anwendungen von Displays in Augmented-Reality Systemen ....................................................................................189<br />

7 Produktübersicht...........................................................................................................................................................193<br />

Wearcomp, Personal Imaging und Mediated Reality ............................................................ 199<br />

Klaus Liedel<br />

1 Einleitung.....................................................................................................................................................................199<br />

2 Technische Realisierung...............................................................................................................................................203<br />

3 Weiterer Ausblick ........................................................................................................................................................204<br />

4 Zusammenfassung und Kritik.......................................................................................................................................205


Positionsbestimmung außerhalb von Gebäuden mit<br />

Satellitennavigation<br />

J. Zeiser<br />

Zusammenfassung: Die Satellitennavigation ermöglicht dem Benutzer überall auf der<br />

Erde außerhalb von Gebäuden seine Position mit guter Genauigkeit zu bestimmen. Die<br />

Entfernungsmessung mittels Signallaufzeiten zwischen dem Benutzer und vier Satelliten<br />

bildet die Basis für die Positionsermittlung. Das amerikanische Global Positioning<br />

System (GPS), das militärischen Ursprungs ist, stellt das bedeutendste System dar. Es<br />

werden zwei <strong>Dienste</strong>, ein frei verfügbarer und ein verschlüsselter Dienst, angeboten.<br />

Erweiterungen wie Referenzstationen nahe dem Benutzer bieten gegebenenfalls die<br />

Möglichkeit die Position genauer zu bestimmen. Neue Empfänger-Chip-Generationen<br />

führen zukünftig zur Integration der Satellitenortung in fast jedes elektronische Gerät, wie<br />

z.B. Handys, PDAs und Uhren.<br />

1 Einleitung<br />

„So wie heutzutage jeder wissen muss, wie spät es ist,<br />

wird in Zukunft niemand ohne die Ermittlung seines<br />

genauen Standorts (Position) auskommen[5].“<br />

Die Kenntnis der genauen Position gewinnt für jeden Menschen zunehmend an Bedeutung.<br />

Dabei wird die Position mittels Koordinaten angegeben. Lokale Anwendungen geben die<br />

Position vorzugsweise im kartesischen Koordinationssystem (X-Y-Z-Koordinate) an. Eine<br />

weltweit eindeutige Position wird hingegen meist mit Längengrad, Breitengrad und Höhe<br />

angegeben (ellipsoidisches Koordinatensystem). Auf Basis von WGS84 (World Geodetic<br />

System 1984) lässt sich bei der Satellitennavigation an jeden Ort der Welt die Position in<br />

beiden Koordinatensystemen bestimmen und in lokale Bezugssysteme umrechnen.<br />

Neben der Satellitennavigation, die aktuell nur die Positionsbestimmung außerhalb von<br />

Gebäuden unterstützt, stellen die Positionsbestimmung innerhalb von Gebäuden und die<br />

netzwerkgestützte Positionsbestimmung die grundlegenden Systeme zur Positionsbestimmung<br />

dar[1].<br />

Positionsbestimmung<br />

Satellitennavigation<br />

Innerhalb von<br />

Gebäuden<br />

Netzwerkgestützt<br />

Hauptsysteme<br />

Überlagerte<br />

Systeme<br />

Infrarot-<br />

Baken<br />

Funk-<br />

Baken<br />

Visuell<br />

Mobil-<br />

Funk<br />

Ultraschall<br />

Funknetze<br />

GPS<br />

GLONASS<br />

GALILEO<br />

DGPS<br />

WAAS<br />

EGNOS<br />

MSAS<br />

Abbildung 1-1: Klassifikation der Systeme zur Positionsbestimmung [1]


18 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />

Die Satellitennavigation wird in Haupt- und Überlagerungssysteme unterteilt. Abbildung 1-1<br />

stellt die Systeme zur Positionsbestimmung dar.<br />

Für zahlreiche Anwendungen ist es wichtig, die aktuelle Position des Benutzers zu kennen.<br />

Die ermittelten Positionsdaten (außerhalb von Gebäuden) können auf unterschiedliche Weise<br />

verwendet werden[1]:<br />

• Die aktuelle Position kann benutzt werden, um den Benutzer zu einem bestimmten Zielort<br />

zu führen (Navigation).<br />

• Der Benutzer kann auf Basis der Position Informationen über den aktuellen Ort oder die<br />

Umgebung abfragen, z.B. elektronischer Touristenführer.<br />

• Die aktuelle Position kann an andere Personen übermittelt werden, um beispielsweise ein<br />

automatisches Hilferufsystem im Notfall einen Arzt zu der Position des Patienten zu<br />

lotsen.<br />

• Verknüpfung mit dem Internet: Abfragen berücksichtigen die aktuelle Position. Z.B.<br />

ermittelt der Link „Ein Restaurant in der Nähe“ je nach Position andere Ergebnisse.<br />

• Militärische Anwendungen: Es können Flugzeuge, Fahrzeuge und Schiffe navigiert oder<br />

Flugkörper in ein Ziel gesteuert werden.<br />

Durch Satellitennavigation kann außerhalb von Gebäuden die Position überall auf der Erde<br />

unabhängig von Witterungsverhältnissen mit hoher Genauigkeit bestimmt werden. Dies stellt<br />

den Ausgangspunkt für weitreichende Anwendungsmöglichkeiten dar.<br />

2 Positionsbestimmung mit Satellitennavigation<br />

2.1 Positionsbestimmung mit drei Satelliten<br />

Um mit Hilfe von Satelliten die Position eines Benutzers bestimmen zu können, wird die<br />

exakte Position der Satelliten und die exakte Entfernung zu den Satelliten verwendet. Drei<br />

Satelliten werden benötigt, um die Position eines Benutzers bestimmen zu können[1]. Die drei<br />

Satelliten bilden durch die ermittelten Entfernungen zum Benutzer drei Kugeloberflächen, die<br />

zwei Schnittpunkte haben. Einen in der Position des Benutzers und einen Schnittpunkt im<br />

Weltraum. Die Position im Weltraum wird ausgeschlossen und damit ist die Position des<br />

Benutzers eindeutig bestimmt. Abbildung 2-1 zeigt den Schnitt der drei Kugeloberflächen mit<br />

der Erdoberfläche und im Schnittpunkt der drei Kugeloberflächen die eindeutige Position des<br />

Benutzers auf der Erde.<br />

S<br />

1<br />

S 2<br />

S 3<br />

R 3<br />

R 1<br />

R 2<br />

Benutzer U<br />

Abbildung 2-1: Positionsbestimmung mit Satelliten


19 J. Zeiser<br />

Die folgenden drei Gleichungen ermöglichen die Position des Benutzers U X U<br />

,Y U<br />

,Z U<br />

zu<br />

bestimmen:<br />

2<br />

2<br />

2<br />

R 1<br />

= (X − X ) + (Y − Y ) + (Z − Z<br />

R 2<br />

=<br />

)<br />

U 1<br />

U 1<br />

U 1<br />

2<br />

2<br />

2<br />

− X ) + (Y − Y ) + (Z Z )<br />

U 2<br />

U 2<br />

U 2<br />

(X −<br />

2<br />

2<br />

2<br />

R 3<br />

= (X − X ) + (Y − Y ) + (Z − Z )<br />

U 3<br />

U 3<br />

U 3<br />

Wobei R i<br />

den Abstand vom Satelliten i zum Benutzer U und X i<br />

,Y i<br />

, Z i<br />

die exakte Position<br />

des Satelliten i darstellen.<br />

2.2 Entfernungsmessung zum Satelliten<br />

Die Entfernung R des Benutzers zum Satelliten wird durch eine Einwegmessung durch-<br />

geführt (Abb. 2-2).<br />

Satellit mit Sender<br />

T Senden<br />

=104800,031222s<br />

Entfernung R<br />

T Empfangen<br />

=104800,111222<br />

T = T Empfangen<br />

- T Senden<br />

= 0,08s<br />

R = 24000km<br />

Benutzer mit Empfänger<br />

Abbildung 2-2: Das Prinzip der Entfernungsmessung - Einwegmessung<br />

Dabei sendet der Satellit ein Signal aus und die Laufzeit T vom Satelliten zum Benutzer wird<br />

gemessen[3]. Da die Ausbreitungsgeschwindigkeit c (Lichtgeschwindigkeit) mit 300000km/s<br />

konstant ist, ergibt sich die Entfernung R=c*T=300000km/s*T.<br />

Das folgende Beispiel zeigt, dass die Zeitmessung sehr genau sein muss. Ein Fehler von nur<br />

1µs führt bereits zu einer Positionsabweichung von ∆R=c*1µs=300m. Aus diesem Grund sind<br />

die Satelliten mit Atomuhren ausgestattet. Damit steht den Satellitensystem eine genaue<br />

Uhrzeit, die sog. Systemzeit, zur Verfügung.<br />

Die Benutzer verwenden hingegen mobile Geräte, die möglichst klein und kostengünstig sein<br />

sollen und daher mit einer Uhr ausgestattet sind, die die benötigte Genauigkeit nicht<br />

erreichen. Es ist auch nicht möglich die Uhren mit den Uhren der Satelliten zu synchronisieren.<br />

Der Zeitfehler zwischen der Uhrzeit des Benutzer-Empfängers und der Systemzeit des<br />

Satellitensystems wird durch einen zusätzlichen vierten Satelliten ausgeglichen.<br />

2.3 Positionsbestimmung mit vier Satelliten, unter der Berücksichtigung des<br />

empfängerseitigen Zeitfehlers<br />

Zur Beschreibung werden folgende Größen benötigt:<br />

T S<br />

stellt die Systemzeit dar, bei der das Signal vom Satelliten S ausgesendet wird.<br />

ist die Systemzeit, bei der das Signal vom Benutzer U empfangen wird.<br />

T U<br />

T ~ =T<br />

S S<br />

+ δT S<br />

bezeichnet die lokal ermittelte Sendezeit, wobei δT S<br />

den Offset der<br />

Satellitenzeit zur Systemzeit darstellt.


20 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />

T ~ =T<br />

U U<br />

+ δT U<br />

bezeichnet die lokal ermittelte Empfangszeit, wobei δT U<br />

den Offset des<br />

Benutzerempfängers zur Systemzeit darstellt.<br />

∆T=T U<br />

-T S<br />

ist die exakte Laufzeit des Signals.<br />

∆ T ~ = T ~ U<br />

- T ~ bezeichnet die ermittelte Laufzeit.<br />

S<br />

Die exakte Entfernung R zwischen dem Satelliten S und Benutzer U entspricht somit<br />

R=c∆T=c(T U<br />

-T S<br />

).<br />

Allerdings ermittelt der Benutzerempfänger eine fehlerhafte Entfernung, die als Pseudo-<br />

Entfernung P bezeichnet wird. Für die Pseudo-Entfernung P zum Satelliten gilt:<br />

P= c∆ T ~<br />

= c( T ~ - T~ )<br />

U S<br />

= c((T U<br />

+ δ T U<br />

) - (T S<br />

+ δ T S<br />

))<br />

= c((T U<br />

- T S<br />

) + (δ T U<br />

- δ T S<br />

))<br />

= R + c(δ T U<br />

- δT S<br />

)<br />

Da die Satelliten mit einer Atomuhr ausgestattet sind und überdies ihre Zeit ständig<br />

überwacht und korrigiert wird, entspricht die Satellitenzeit weitestgehend der Systemzeit.<br />

Daher wird δT S<br />

=0 gesetzt.<br />

Damit ergeben sich entsprechend der vier Satelliten die folgenden Gleichungen:<br />

2<br />

2<br />

2<br />

P 1<br />

= (X − X ) + (Y − Y ) + (Z − Z ) +cδT<br />

U 1<br />

U 1<br />

U 1<br />

U<br />

2<br />

2<br />

2<br />

P 2<br />

= (X − X ) + (Y − Y ) + (Z − Z ) +cδT<br />

U 2<br />

U 2<br />

U 2<br />

U<br />

2<br />

2<br />

2<br />

P 3<br />

= (X − X ) + (Y − Y ) + (Z − Z ) +cδT<br />

U 3<br />

U 3<br />

U 3<br />

U<br />

2<br />

2<br />

2<br />

P 4<br />

= (X − X ) + (Y − Y ) + (Z − Z ) +cδT<br />

U 4<br />

U 4<br />

U 4<br />

U<br />

Da die Positionen der Satelliten X i<br />

,Y i<br />

,Z i<br />

1 ≤ i ≤ 4 bekannt sind und die Pseudo-Entfernung<br />

P i<br />

durch den Empfänger gemessen wird, verbleiben die vier Unbekannten X U<br />

,Y U<br />

,Z U<br />

und<br />

δT U<br />

. Diese können nun durch ein entsprechendes mathematisches Lösungsverfahren aus den<br />

vorliegenden Gleichungen ermittelt werden.<br />

Damit kann durch Hinzunahme eines vierten Satelliten der Zeitfehler auf Empfängerseite<br />

berücksichtigt werden. Allerdings sind die Signale von den Satelliten häufig durch<br />

verschiedene zusätzliche Fehlerquellen (siehe w.u.) gestört.


21 J. Zeiser<br />

3 Global Positioning System (GPS)<br />

3.1 Einleitung<br />

Mit Beginn der 60er Jahre wurde in den USA das US Navy Navigation Satellite System<br />

(NNSS) entwickelt, welches später in TRANSIT umbenannt wurde. In den 70er Jahren wurde<br />

begonnen ein neues System mit der Bezeichnung Navigation System with Timing and<br />

Ranging Global Positioning System (NAVSTAR GPS), nachfolgend als GPS bezeichnet, zu<br />

konzipieren. Das Ziel war zunächst eine globale militärisch nutzbare Echtzeit-Positionierung<br />

sich schnell bewegender Fahrzeuge zu Wasser, zu Lande und in der Luft zu ermöglichen. In<br />

weiterer Folge wurde auch die zivile Nutzung berücksichtigt. Die volle Betriebsbereitschaft<br />

wurde 1995 erklärt. Um eine globale Positionsbestimmung zu gewährleisten wurden 24<br />

Satelliten verwendet (davon sind 21 System- und 3 Reservesatelliten) und sie wurden auf 6<br />

Umlaufbahnen mit je 4 Satelliten positioniert (Abbildung 3-1).<br />

Abbildung 3-1: Konstellation der Satelliten (6 Umlaufbahnen mit je 4 Satelliten) [3]<br />

3.2 GPS-Segmente<br />

Das GPS-System lässt sich in drei unterschiedliche Segmente gliedern, welche in ihrer<br />

Funktionalität aufeinander abgestimmt sind:<br />

• Weltraumsegment (Spacesegment)<br />

• Kontrollsegment (Controllsegment)<br />

• Benutzersegment (Usersegment)<br />

Weltraumsegment<br />

Monitorstationen<br />

Kontrollsegment<br />

MCS<br />

Benutzersegment<br />

Abbildung 3-2: Die drei Segmente des GPS-Systems


22 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />

Das Weltraumsegment<br />

Die Satelliten mit ihrer Konstellation und Charakteristika, wie Bahnhöhe, Bahnneigung, .. ,<br />

definieren das Weltraumsegment. Aktuell sind 29 Satelliten im Einsatz. Sie bewegen sich mit<br />

einer Geschwindigkeit von ca. 3,87 km/s in einer Höhe von ca. 20200km und benötigen für<br />

einen Umlauf 12 Stunden. Es sind jeweils 5 bis 11 Satelliten gleichzeitig sichtbar.<br />

Beispielsweise waren in Deutschland, genau genommen in Leipzig, am Montag den<br />

21.April.2003 um 10:58:01 Uhr 9 Satelliten sichtbar[4].<br />

Aktuell sind sog. II/IIA- und IIR-Block Satelliten im Einsatz. Im Jahr 2004 kommt eine<br />

modifizierte Variante des IIR-Typs zum Einsatz mit der Bezeichnung IIR-M. Eine neue<br />

Satelliten-Generation mit der Bezeichnung IIF ist für 2006 vorgesehen.<br />

Das Kontrollsegment<br />

Die GPS-Satelliten werden über unterschiedliche Bodenstationen in ihrer Funktionalität<br />

überwacht und gesteuert. Das Kontrollsegment besteht aus einer Master Control Station<br />

(MCS), Monitorstationen und Bodenantennen. Die Monitorstationen haben eine präzise feste<br />

Position und eine Atomuhr, die mit der Systemzeit synchronisiert ist. Sie empfangen Signale<br />

der Satelliten und berechnen Korrekturdaten. MCS sammelt die Korrekturdaten der<br />

Monitorstationen, berechnet daraus Korrekturinformationen für die Satelliten (z.B. Systemzeit,<br />

Position und Bahndaten) und sendet die Informationen über Bodenstationen zu den<br />

Satelliten.<br />

Das Benutzersegment<br />

Es umfasst die Benutzer mit ihren GPS-Empfängern. Dem Benutzer werden die Position,<br />

Geschwindigkeit und die Uhrzeit zur Verfügung gestellt. Es werden eine Vielzahl von GPS-<br />

Empfängern angeboten - fortschreitende Miniaturisierung und Preisverfall. Neben den<br />

Standalon-Geräten stehen Geräte zum Anschluß an PDAs, Notebooks oder zum Einbau in<br />

Fahrzeugen zur Verfügung. Mittlerweilen gibt es auch bereits Uhren mit integrierten GPS.<br />

(Die Empfänger beginnen preislich ab 150.- €. Stand: 2003)<br />

3.3 GPS-<strong>Dienste</strong><br />

Die Satellitennavigation basiert auf dem Einweg-Verfahren. Die Satelliten senden ein Signal<br />

aus und der Benutzerempfänger ermittelt daraus die Position.<br />

Dabei stellen die Satelliten 2 <strong>Dienste</strong> bereit:<br />

• Standard Positioning Service (SPS): Dieser Dienst stellt für alle Benutzer (insbesondere<br />

zivile Nutzer) frei zur Verfügung und wurde früher als Coarse/Acquisition(C/A)-Code<br />

bezeichnet. In früheren Zeiten (bis zum 1.5.2000) wurde dieser Dienst durch die sog.<br />

Selective Availability (SA) künstlich verfälscht, damit hat die US-Armee verhindert<br />

anderen Streitkräften eine zu genaue Positionsbestimmung zu ermöglichen.<br />

• Precise Positioning Service (PPS): Dieser Dienst ist verschlüsselt und damit nur autorisierten<br />

Benutzern zugänglich, wie die US-Armee und die Nato-Verbänden (früher als<br />

Precision(P)-Code bezeichnet).<br />

Tabelle 3-1 gibt die Genauigkeiten dieser <strong>Dienste</strong> an. Die Genauigkeiten sind dabei mit einer<br />

Wahrscheinlichkeit von 95% angeben, d.h. 95% der Messungen über einen Zeitraum von 24<br />

Stunden befinden sich innerhalb der angegebenen Messgenauigkeit.


23 J. Zeiser<br />

Dienst Genauigkeit horizontal Genauigkeit vertikal<br />

PPS 22 m 27,7 m<br />

SPS mit SA 100 m 156 m<br />

SPS ohne SA 25 m 43 m<br />

Tabelle 3-1: Genauigkeiten bei der Positionsbestimmung [1]<br />

Die Träger-Signale für diese <strong>Dienste</strong> sind im L-Band (1 bis 2GHz) angesiedelt. (Die<br />

Korrektursignale der MCS, die vom Boden zum Satelliten gesendet werden, arbeiten<br />

hingegen im S-Band (2 bis 4GHz)).<br />

Die Grundfrequenz der Atomuhren (10.23 MHz) stellt sowohl für die beiden Trägerfrequenzen<br />

L1 (1575.42 MHz) und L2 (1227.6 MHz) als auch für den SPS-Code (1.023<br />

MHz) und den PPS-Code (10.23 MHz) die Ausgangsfrequenz dar[3]. Der PPS-Code wird auf<br />

beide Träger L1 und L2 aufmoduliert. Der SPS-Code wird hingegen nur auf L1 zur<br />

Verfügung gestellt. Die GPS-Nachrichten werden mit 50 Hz auf beiden Signalen bereitgestellt.<br />

Abbildung 3-4 veranschaulicht dies.<br />

L1: 1575.42 MHz<br />

* 154<br />

* 120<br />

Grundfrequenz<br />

10.23 MHz<br />

L2: 1227.60 MHz<br />

* 0.1<br />

* 1<br />

SPS: 1.023 MHz<br />

+<br />

GPS-Navigationsnachricht: 50 Hz<br />

+<br />

PPS: 10.23 MHz<br />

L1-Signal<br />

L2-Signal<br />

Abbildung 3-4: Die Signalstruktur bei GPS<br />

Damit der Empfänger ein Signale einem Satelliten zuordnen kann, sendet jeder Satellit einen<br />

eindeutigen Code aus, genannt Pseudo Random Noise (PRN). Der Empfänger kennt alle<br />

PRN-Codes und kann sie aus den überlagerten Signalen aller Satelliten herausfiltern. (Die<br />

PRNs sind so entworfen worden, dass sie sich nicht gegenseitig stören.) Das PRN-Signal<br />

ermöglicht dem Empfänger die Signallaufzeit und damit die Entfernung zum Satelliten zu<br />

ermitteln.<br />

Die Messung der Signallaufzeit erfolgt durch Verschiebung des eigenen PRN im Empfänger.<br />

Abb. 3-5 a.) stellt das vom Satelliten gesendete und Abb. 3-5 b.) das empfangene PRN-Signal<br />

dar. Der Empfänger produziert ein internes PRN-Referenz-Signal Abb. 3-5 c.)[3]. Der<br />

Empfänger verschiebt es solange bis es sich mit dem empfangenen Signal deckt. Die<br />

gemessene Signallaufzeit enthält dabei eine Empfängeruhrzeit-Abweichung (von der<br />

Systemzeit) ∆t U<br />

. Diese Abweichung wird durch Verwendung des vierten Satelliten (siehe<br />

w.o.) bereinigt.


24 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />

Abbildung 3-5: Signallaufzeitmessung [3]<br />

Weitere Entwicklungen bei den GPS-Signalen[6]:<br />

Die IIR-M-Block Satelliten werden ein neues Militärsignal (M-Code) zur Verfügung stellen.<br />

Es wird sowohl auf L1 als auch auf L2 gesendet. Weiters wird dann auch auf L2 ein ziviles<br />

Signal (LC2) bereit gestellt. LC2 ermöglicht neben höherer Verfügbarkeit und genauerer<br />

Positionierung auch die GPS-Ortung in Gebäuden und Waldgebieten.<br />

Mit der Einführung der IIF-Satelliten wird ein neuer rein ziviler Kanal L5 (1176.45 MHz)<br />

unterstützt, damit stehen für zivile Anwendungen drei Kanäle offen.<br />

4 Verfahren zur verbesserten Positionsbestimmung<br />

In die Messungen gehen zahlreiche Fehler ein, die bedeutendsten sind: Uhrenfehler (Satellit),<br />

Abweichung von der Umlaufbahn, Troposphäre, Ionosphäre und Multipath-Fehler. Um eine<br />

höhere Genauigkeit zu erreichen, wurden daher zusätzliche Verfahren entwickelt.<br />

4.1 Differential Global Positioning System (DGPS)<br />

Beim DGPS-Verfahren werden dabei zusätzliche Stationen auf der Erdoberfläche<br />

eingerichtet. Solche Stationen werden als Referenzstationen bezeichnet. Abbildung 4-1 zeigt<br />

das Prinzip.<br />

Die exakte Position der Referenzstation ist bekannt. Führt nun die Station eine Positionsbestimmung<br />

mit GPS durch, so ergibt sich gegenüber der exakten Position eine Differenz.<br />

Anhand dieser Differenz werden Korrekturdaten ermittelt und an die Benutzer im Bereich der<br />

Referenzstation übermittelt. Das Verfahren beruht auf der Überlegung, dass die Benutzer in<br />

der Nähe der Referenzstation ähnliche Fehler haben. Die Korrektur erfolgt mit Hilfe der<br />

Pseudo-Entfernung.<br />

Dabei ermittelt die Referenzstation zu jeden Satelliten i die Pseudo-Entfernung P i<br />

. Die exakte<br />

Entfernung zum Satellit i stellt R i<br />

dar. Der Benutzer empfängt nun von der Referenzstation<br />

für jeden Satelliten i einen Korrekturwert ∆P i<br />

=P i<br />

-R i<br />

.


25 J. Zeiser<br />

Abbildung 4-1: Differenzielles GPS auf Basis einer Referenzstation [3]<br />

Der Benutzer zieht den empfangenen Korrekturwert von seiner Pseudo-Entfernung zu den<br />

Satelliten i ab und erhält damit eine durch die Referenzstation korrigierte Position<br />

P U<br />

korr i<br />

=P U i<br />

-∆P i<br />

. Die Genauigkeit hängt maßgeblich von der Entfernung zum Korrektursender<br />

ab.<br />

In Deutschland wird der kostenpflichtige Satellitenpositionierungsdienst (SAPOS) der<br />

deutschen Landesvermessung angeboten[4]. SAPOS richtet einen permanent betriebenen,<br />

multifunktionalen DGPS-Dienst ein. Dieser Service wird mit hoher Zuverlässigkeit<br />

flächendeckend verfügbar sein. Grundlage des Systems bildet ein Netz von GPS-Referenzstationen.<br />

Es werden u.a. zwei Echtzeit-<strong>Dienste</strong> (EPS und HEPS) mit folgender Genauigkeit<br />

angeboten: Der Dienst EPS-SAPOS bietet bei einer Entfernung bis 500km von der<br />

Basisstation eine Genauigkeit von 1 bis 3m und der Dienst HEPS-SAPOS sogar eine<br />

Genauigkeit von 1-5cm allerdings nur bis 25km Entfernung.<br />

4.2 Wide Area Augmention System (WAAS)<br />

WAAS wird in den USA eingesetzt und arbeitet ähnlich wie DGPS. Mit Hilfe von Monitorstationen<br />

mit exakten Positionen werden Korrekturdaten berechnet, die an die Benutzer<br />

gesendet werden. Die Übertragung erfolgt mit geostationären Satelliten (Abbildung 4-2).<br />

4 GPS-Satelliten<br />

geostationärer Satellit<br />

(Inmarsat)<br />

Korrekturdaten<br />

Benutzer<br />

Monitorstationen<br />

MCS<br />

Abbildung 4-2: Das Prinzip von WAAS


26 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />

Die Monitorstationen empfangen permanent GPS-Signale und geben diese Daten an die MCS<br />

weiter. Diese berechnet die Korrekturdaten und sendet sie an den geostationären Satelliten.<br />

Dieser Satellit sendet auf der L1-Frequenz mit einem freien PRN-Code die Korrekturdaten an<br />

die Benutzer.<br />

5 Weitere Systeme und Entwicklungen<br />

GLONASS (Global Navigation Satellite System)<br />

GLONASS wurde von den Streitkräften der ehemaligen UDSSR entwickelt und bildet das<br />

russische Gegenstück zum amerikanischen GPS-System.<br />

EGNOS (European Geostationary Navigation Overlay Service)<br />

Dieses System stellt die erste Stufe eines europäischen Satellitennavigationssystems dar. Es<br />

stellt Korrekturdaten zu den Systemen GPS und GLONASS zur Verfügung und ist zum<br />

WAAS der USA kompatibel. EGNOS ist derzeit noch im Testbetrieb und soll 2004 voll<br />

operationsfähig sein (Genauigkeit ~3m).<br />

MSAS (Multi-Functional Satellite Augmentation System)<br />

Es wird von Japan u.a. asiatischen Ländern aufgebaut und soll 2005 betriebsbereit sein.<br />

WAAS, EGNOS und MSAS werden miteinander kompatibel sein.<br />

GALILEO<br />

Die zweite Stufe eines europäischen Navigationssystems stellt GALILEO dar. Es ist ein<br />

eigenständiges von GPS und GLONASS unabhängiges System. GALILEO soll höher<br />

entwickelt, leistungsfähiger und sicherer sein als das amerikanische GPS.<br />

GALILEO beruht auf einer Konstellation von dreißig Satelliten, die sich auf einer<br />

Umlaufbahn in 24 000 km Höhe befinden, die gesamte Erdkugel abdecken und durch ein<br />

Netz von Bodenstationen kontrolliert werden. Jeder Satellit ist mit einer Atomuhr ausgerüstet,<br />

die eine äußerst genaue Zeitbestimmung und eine auf einen Meter genaue Standortbestimmung<br />

jedes beweglichen oder unbeweglichen Objekts ermöglicht.<br />

Phasen<br />

• Entwicklungsphase 2002-2005<br />

• Errichtungsphase 2006-2007<br />

• Betriebsphase ab 2008<br />

<strong>Dienste</strong><br />

GALILEO bietet mehrere Dienstleistungsebenen mit offenem oder mehr oder weniger<br />

eingeschränktem Zugang an:<br />

• ein offener und kostenloser Basisdienst (Open Service - OS), insbesondere bestimmt für<br />

Anwendungen für die breite Öffentlichkeit und für Dienstleistungen von allgemeinem<br />

Interesse. Dieser Dienst ist vergleichbar mit dem zivilen GPS-Signal, das für solche<br />

Anwendungen kostenlos ist, allerdings mit einer verbesserten Qualität und Zuverlässigkeit;<br />

• ein kommerzieller Dienst (Commercial Service – CS), der die Entwicklung von<br />

Anwendungen für den kommerziellen Systembetrieb gestattet und der somit gegenüber


27 J. Zeiser<br />

dem Basisdienst – insbesondere was die Funktionsgarantie angeht – ein höheres<br />

Leistungspotential bietet;<br />

• einen „Safety-of-Life"-Dienst (SoL) sehr hoher Qualität und Integrität für sicherheitskritische<br />

Anwendungen wie z. B. den Luft- oder den Seeverkehr;<br />

• einen „Search-and-Rescue"-Dienst (SAR), der die Hilfssysteme in auftretenden Not- und<br />

Rettungssituationen deutlich verbessern soll;<br />

• einen Öffentlichen regulierten Dienst (Public Regulated Service PRS), der verschlüsselt<br />

ist und resistent gegenüber Störungen und Interferenzen und in erster Linie für die<br />

Erfordernisse der öffentlichen Einrichtungen im Bereich des Zivilschutzes, der nationalen<br />

Sicherheit und der Wahrung des Rechts bestimmt ist, die einen hohen Grad an <strong>Dienste</strong>kontinuität<br />

benötigen.<br />

6 Anwendung<br />

„Die Entwicklungsaussichten sind enorm. Wie auch schon beim Mikrocomputer<br />

vor 20 Jahren oder beim Internet vor 10 Jahren können wir uns heute die meisten<br />

Anwendungsmöglichkeiten wahrscheinlich noch gar nicht vorstellen[5].“<br />

In diesem Sinn ist die aktuelle Entwicklung bei den GPS-Chips überaus vielversprechend. Ein<br />

GPS-Modul kann zukünftig auf einem Chip mit 49 Quadrat-Millimeter realisiert werden und<br />

wird zu einem Preis von 10.- $ erhältlich sein. Damit ist die technische und ökonomische<br />

Voraussetzungen erfüllt, GPS flächendeckend in Handys, PDAs und Uhren einzubauen und<br />

somit ist die Integration der Satellitenortung in fast jedes elektronische Gerät zu erwarten.<br />

Aber bereits heute ist GPS in vielen Bereichen, wie z.B. Wissenschaft und Forschung,<br />

Wirtschaft und Industrie, Land- und Forstwirtschaft, Touristik und Freizeit, Militär usw., im<br />

Einsatz.<br />

Anwendungsbeispiele aus verschiedenen Anwendungsbereichen:<br />

• Straßen- und Seeverkehr<br />

Navigation und Routenplanung, sowohl in privaten als auch in Unternehmensbereich<br />

• Geodatenerfassung<br />

• Flächennutzung und Planung in Land- und Forstwirtschaft<br />

• Militär<br />

• Maschinensteuerungs- und -leitsysteme<br />

• Touristik und Freizeit<br />

Outdoor-Branche, Schwammerlsuchen<br />

Diese wenigen Anwendungsbeispiele lassen bereits die Breite und Vielfalt der aktuellen<br />

Einsatzgebiete erkennen. Aufgrund der zu erwartenden technischen und kostenmäßigen<br />

Verbesserungen bei den GPS-Empfängern, lässt die Zukunft eine spannende Entwicklung der<br />

Positionsbestimmung mit Satellitennavigation erwarten.


28 Positionsbestimmung außerhalb von Gebäuden mit Satellitennavigation<br />

Abkürzungen<br />

CS<br />

Commercial Service<br />

C/A-Code Coarse/Acquisition-Code<br />

DGPS<br />

Differential Global Positioning System<br />

EGNOS<br />

European Geostationary Navigation Overlay Service<br />

GLONASS Global Navigation Satellite System (bzw. Globalnaya Navigationnaya<br />

Sputnikovaya Sistema)<br />

GPS<br />

Global Positioning System<br />

INMARSAT International Maritime Satellite Organisation<br />

MCS<br />

Master Control Station<br />

MSAS<br />

Multi-Functional Satellite Augmentation System<br />

NAVSTAR GPS Navigation System with Timing and Ranging Global Positioning<br />

System<br />

NNSS<br />

Navy Navigation Satellite System<br />

OS<br />

Open Service<br />

PPS<br />

Precise Positioning Service<br />

PRS<br />

Public Regulated Service<br />

PRN<br />

Pseudo Random Noise<br />

P-Code<br />

Precision-Code<br />

SA<br />

Selective Availability<br />

SAPOS<br />

Satellitenpositionierungsdienst<br />

SAPOS EPS Satellitenpositionierungsdienst Echtzeit Positionierungs-Service<br />

SAPOS HEPS Satellitenpositionierungsdienst Hochpräziser Echtzeit Positionierungs-<br />

Service<br />

SAR<br />

Search- and Rescue<br />

SoL<br />

Safety-of-Life<br />

SPS<br />

Standard Positioning Service<br />

WAAS<br />

Wide Area Augmention System<br />

WGS84 World Geodetic System 1984


29 J. Zeiser<br />

Referenzen<br />

[1] J. Roth: Mobile Computing<br />

FernUniversität Hagen, Hagen, 2003<br />

[2] M. Bauer: Vermessung und Ortung mit Satelliten: NAVSTAR-GPS und andere<br />

satellitengestützte Navigationssysteme<br />

Wichmann Verlag, Heidelberg, 1997<br />

[3] W. Mansfeld: Satellitenortung und Navigation: Grundlagen und Anwendung<br />

globaler Satellitennavigationssysteme<br />

Vieweg Verlag, Braunschweig, 1998<br />

[4] „GPS-Informations- und Beobachtungssystem“, Bundesamt für Kartographie<br />

und Geodäsie Außenstelle Leipzig, 24.4.2003<br />

http://gibs.leipzig.ifag.de<br />

[5] „GALILEO Europäisches Satellitennavigationssystem“, Generaldirektion<br />

Energie und Verkehr der EU, 24.4.2003<br />

http://europa.eu.int/comm/dgs/energy_transport/galileo/index_de.htm<br />

[6] „USNO GPS Timing Operations“, U.S. Naval Observatory, 24.4.2003<br />

http://tycho.usno.navy.mil/gps.html


Geoinformationssysteme und Geo-Datenbanken im<br />

Überblick<br />

Joachim Marwinski<br />

Oberhausen<br />

jm.ob@uni-duisburg.de<br />

Zusammenfassung: Geoinformationssysteme (GIS) speichern Informationen zusammen<br />

mit ihrer geographischen Position ab. Dazu bedienen sie sich der <strong>Dienste</strong> von<br />

Datenbanksystemen, um in konsistenten Daten ein wirtschaftliches Wiederauffinden zu<br />

ermöglichen. GIS pflegen Daten ein und werten sie unter Berücksichtigung ihrer<br />

geographischen Komponente aus. Die Auswertungen dienen dem Anwender als Mittel<br />

der Entscheidungsfindung. Die Verwendung dünner Klienten ermöglicht einen vom<br />

Betriebssystem unabhängigen Einsatz mit Zugriff auf die Daten sogar über das Internet,<br />

während die Daten zentral gehalten werden. Angewandt wird GIS insbesondere von Verund<br />

Entsorgern, sowie von Kommunen.<br />

1 Geodaten<br />

Ein Teil der Umwelt soll abgebildet werden, um diese Abbildung mit Hilfe einer<br />

(elektronischen) Datenverarbeitungsanlage innerhalb eines GIS auszuwerten. Auf der Grundlage<br />

dieser Auswertung werden Entscheidungen getroffen (einen Kanal zu bauen, ein Tollwutgebiet<br />

zu impfen).<br />

1.1 Betrachtung von Objekten<br />

Realweltliche Objekte haben bestimmte Eigenschaften (Attribute) und Fähigkeiten, die in<br />

einem Objektmodell abgebildet werden können.<br />

Um ein solches Modell zu erstellen, werden die Eigenschaften eines Objektes identifiziert und<br />

derart zusammengefasst, dass Klassen von Objekten benannt werden können, die unterschiedliche<br />

Objekttypen enthalten. Diese Klassen können zueinander in Abhängigkeit stehen,<br />

sodass Eigenschaften und Fähigkeiten generalisierter Objekte an spezialisierte Objekte vererbt<br />

werden. Es entsteht auf diese Weise eine Objekthierarchie der Vererbung.<br />

Die Werte der Objekteigenschaften können auch die Beziehungen der Objekte zueinander<br />

aufnehmen, wie z.B. enthalten, zugehörig oder verbunden zu sein.<br />

1.1.1 Objektklassen<br />

Der ATKIS-Objektkatalog [ATK03] stellt einen Versuch der Normung von (Geo-) Objekten<br />

einer realweltlichen Landschaft dar. Normung vereinfacht die Austauschbarkeit von Daten.<br />

Im ATKIS-Objektkatalog. sind z.B. Objekte aus dem Siedlungswesen kategorisiert. Die<br />

Eigenschaften der Objekte und auch die Objektbildungsregeln sind für jede Objektklasse festgelegt,<br />

hier einige beispielhafte Eigenschaften


32 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />

GLS Anzahl der Streckengleise<br />

ATP Archäologischer Typ<br />

ADB Art der Bahn<br />

AFT Art der Fahrbahntrennung<br />

AGK Art der Geländekante<br />

AGL Art der Geländelinie<br />

AGA Art der Gewässerachse<br />

APG Art der Grenze<br />

WWA Art der wasserwirtsch. Anlage<br />

AGP Art des Geländepunktes<br />

AUS Brücke, Über/Unterführung<br />

BNA Bahnart<br />

BFK Bahnhofskategorie<br />

BKT Bahnkategorie<br />

BKL Bahnklassifizierung<br />

KON Bauart, Konstruktionsmerkmal<br />

Über die Definition des jeweiligen Objektes wird die Klassifizierung eines zu betrachtenden<br />

realweltlichen Objektes ermöglicht. Ein Beispiel aus dem ATKIS-Objektartenkatalog<br />

(ATKIS-OK) Teil D1: ATKIS-OK 50:<br />

Definition<br />

'Gebäude' ist eine selbstständig benutzbare, überdeckte bauliche Anlage, die von Menschen<br />

betreten werden kann und geeignet oder bestimmt ist, dem Schutz von Menschen, Tieren,<br />

Sachen oder der Produktion von Wirtschaftsgütern zu dienen<br />

Erfassungskriterium Treib-, Gewächshäuser Fläche >= 2,5 ha, sonst vollzählig<br />

GFK Gebäudefunktion<br />

1131 Schloß<br />

1138 Burg, Festungsgebäude<br />

1151 Krankenhaus<br />

1199 Empfangsgebäude<br />

1300 Wohngebäude<br />

1462 Jugendherberge<br />

1463 Hütte (mit Übernachtung)<br />

1471 Gaststätte<br />

1700 Wirtschaftsgebäude<br />

2515 Wasserbehälter<br />

2732 Almhütte<br />

2741 Gewächs-, Treibhaus<br />

9999 sonstige<br />

L HRG Herausragendes Gebäude<br />

1000 Hochhaus<br />

9997 Attribut trifft nicht zu<br />

L NTZ Nutzung<br />

1200 öffentlich<br />

L ZUS Zustand<br />

1700 verfallen, zerstört ('Ruine')<br />

Der Katalog definiert für die einzelnen Objekte Schlüssel, die eine eindeutige Zuordnung zu<br />

einer Objektklasse ermöglichen.<br />

Weitere im ATKIS OK 50 definierte Objektklassen:<br />

2000 Siedlung<br />

2324 Kran<br />

2100 Baulich geprägte Fläche<br />

2325 Pumpe, Pumpstelle<br />

2200 Siedlungsfreiflächen<br />

2326 Wasserrad<br />

2300 Bauwerke und sonstige Einricht. 2327 Windrad<br />

2301 Tagebau, Grube, Steinbruch<br />

2328 Solarzellen<br />

2314 Absetzbecken, Schlammteich,... 2331 Archäologische Fundstätte<br />

2315 Gebäude<br />

2332 Denkmal, Denkstein, Standbild<br />

2323 Dock<br />

2333 Bildstock, Wegekreuz, Gipfelkreuz


33 Joachim Marwinski<br />

Abbildung 13: DLM mit Ackerfläche 4101 [ATK03a]<br />

Mithilfe derart definierter Objekte lassen sich Landschaften in einem Digitalen Landschafts-<br />

Modell (DLM) beschreiben.<br />

Die realweltlichen Objekte einer Landschaft werden dazu auf ein DLM abgebildet, indem die<br />

einzelnen Objekte einer Objektklasse zugeordnet, und über die dort definierten Eigenschaften<br />

beschrieben werden.<br />

Im obenstehenden Beispiel sehen wir einige Flächen mit der Nummer 4101, die im ATKIS-<br />

OK als „4101 Ackerland“ der Objektgruppe „4100 Vegetationsflächen“ des Objektbereiches<br />

„4000 Vegetation“ zugeordnet sind.<br />

In der Kategorisierung steckt bereits ein großer Teil an fachlichem Wissen, ebenso in der<br />

Zusammensetzung der Eigenschaften der Objekte.<br />

Objektbereiche und Objektgruppen<br />

3500 Bauw. f. Verkehr. u. Kommunikation<br />

2100 Baulich geprägte Fläche<br />

4200 Bäume und Büsche<br />

2300 Bauwerke u. sonstige Einrichtungen<br />

6200 Bes. Geländeoberflächenformen<br />

5200 Besondere Objekte in Gewässern<br />

6100 Digitales Geländemodell (DGM)<br />

5300 Einr. und Bauwerke an Gewässern<br />

3300 Flugverkehr<br />

4000 Vegetation<br />

4100 Vegetationsflächen<br />

3000 Verkehr<br />

7100 Verwaltungsgebiete<br />

5100 Wasserflächen


34 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />

In vielen Bereichen, die durch ein GIS erfasst werden können, gibt es keine normierten<br />

Objektklassen und Objekte. Aber auch hier werden Objekte über ihre Eigenschaften beschrieben,<br />

wie z.B. in der Epidemiologie am Beispiel der Nationalen Tollwutdatenbank [TOL]:<br />

Stammdaten des Tieres<br />

Identifikationsschlüssel<br />

Tierart<br />

Geschlecht<br />

Alter<br />

Eingangsdatum<br />

Erlegungs- bzw. Fundort (8-stelliger Gemeindeschlüssel)<br />

Nummer der Immunisierungskampagne<br />

Köder (ausgelegter Köder im Impfgebiet)<br />

Impfstoff (ausgelegter I. im Impfgebiet)<br />

Welche Details in den Objekteigenschaften, hier denen des Tieres, beschrieben werden, ist<br />

Sache der fachlichen Kompetenz, mit der die Objektbeschreibung erstellt wurde.<br />

1.1.2 Identität<br />

Jedes einzelne Objekt hat seine Identität. Eine Objektklasse definiert die relevanten<br />

Eigenschaften der ihr angehörigen Objekte, während das einzelne Objekt selbst immer<br />

einzigartig und unverwechselbar ist.<br />

Stehen fünf gleiche Wassergläser in einer Reihe auf einem Tisch, so gehören sie zur<br />

Kategorie „Wasserglas“. Sie können sich in der Eigenschaft „Füllungsgrad“ unterscheiden,<br />

möglicherweise sind sie alle leer.<br />

Aber auch im Falle der Gleichheit aller Eigenschaften ist das linke der Gläser nicht das selbe<br />

Glas wie das rechte, denn es hat nicht seine Identität. Wird das linke zerstört, so bleibt das<br />

rechte erhalten.<br />

1.1.3 Bewegliche und unbewegliche Objekte<br />

Objekte können in bewegliche und unbewegliche (z.B.: Immobilien) unterschieden werden.<br />

Bei unbeweglichen Objekten kann die Identität anhand der räumlichen Position ermittelt<br />

werden, bei beweglichen (z.B. Pakete) ist dazu noch z.B. eine Zeitangabe erforderlich.<br />

Vorausgesetzt ist dabei eine genügend feine Auflösung der Positions- oder Zeitinformationen.<br />

Eine Auflösung im Meter-Bereich ist für das obige Beispiel mit den Gläsern nicht ausreichend,<br />

da sich mehrere (gleiche) Gläser innerhalb eines Quadratmeters Fläche befinden<br />

können. Innerhalb eines Quadratzentimeters könnte sich aber tatsächlich nur ein Wasserglas<br />

befinden.<br />

Allerdings gilt dies nur für in allen Eigenschaften gleiche Objekte, wie sich am Beispiel der<br />

russischen Matroschka-Puppen vergegenwärtigen lässt, bei denen wieder und wieder eine<br />

gleiche kleinere Puppe in einer größeren steckt.<br />

1.1.4 Keine Objekte<br />

Nicht zu den Objekten zählen hier z.B. Flüssigkeiten, Gase oder (elektrische) Ströme.<br />

Auch Weizenkörner sind in dem von uns betrachteten Modellierungsbereich keine<br />

eigenständigen Objekte, während ein Gefäß mit Weizen (z.B. Silo) oder eine Leitung, durch<br />

die ein bestimmter Strom fließt, ein Objekt mit einer bestimmten Eigenschaft (% Füllung mit<br />

Weizen, Strom in Ampere) darstellt.<br />

1.1.5 Koordinaten<br />

Wenn wir von Geodaten sprechen, so enthalten diese Koordinaten. Die Koordinaten beziehen<br />

sich auf ein bestimmtes Koordinatensystem, welches entweder vorausgesetzt wird, oder<br />

ausdrücklich in den Daten angegeben sein muss.


35 Joachim Marwinski<br />

Ein Koordinatensystem kann beispielsweise für ein Fabrikgelände auf einen der Grenzsteine<br />

als Nullpunkt bezogen sein. Dann sind die Koordinaten zwar innerhalb des Fabrikgeländes<br />

brauchbar, aber können nicht ohne Umrechnungen in ein umfassenderes Koordinatensystem,<br />

z. B. das der Kommune überführt (durch rechnerische Koordinatentransformation) werden.<br />

Daher werden Koordinaten oft in dem in Deutschland gültigen Gauß Krüger Koordinatensystem<br />

angegeben. Die Koordinaten bestehen im Zweidimensionalen aus Rechtswert und<br />

Hochwert, ggf. kommt die Höhe als dritte Dimension hinzu.<br />

Die amtlichen topographischen Karten in Deutschland basieren auf einer transversalen Mercatorprojektion.<br />

1.2 Koordinaten: Das Gauß Krüger System<br />

Das deutsche Gauß Krüger System [BAS00], [WASY] teilt die Fläche der Bundesrepublik in<br />

Meridianstreifensysteme ein, die um die Zentralmeridiane 6°, 9°, 12° und 15° eine<br />

Ausdehnung von jeweils 1,5° (entspricht etwa 100 km) haben. An den Überlappungsstellen<br />

der einzelnen Meridianstreifensysteme werden die Gauß Krüger Koordinaten, deren Fehler<br />

(Längenverzerrung) sich mit zunehmendem Abstand von Zentralmeridian vergrößert,<br />

aufeinander abgestimmt. Gauß Krüger Koordinaten werden in metrischen Werten angegeben.<br />

Abbildung 14: Gauß Krüger [WASY]


36 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />

Abbildung 15: Meridianstreifen [BAS00]<br />

Der Rechtswert gibt die Lage eines Punktes in West-Ost-Richtung an und bezieht sich auf den<br />

Zentralmeridian des jeweiligen Meridianstreifensystems. Der Zentralmeridian entspricht dem<br />

Wert 500.000 m oder 500 km, damit für westlich des Zentralmeridians gelegene Punkte keine<br />

negativen Werte entstehen. Die erste Ziffer des Rechtswertes ergibt mit 3 multipliziert den<br />

Zentralmeridian des Meridianstreifensystems.<br />

Der Hochwert gibt die Lage eines Punktes in Nord-Süd-Richtung an und entspricht der<br />

Entfernung eines Punktes von Äquator.[HAK82]<br />

Bei der Projektion der Erdoberfläche auf eine Karte ist zu berücksichtigen, dass der<br />

betrachtete Kartenausschnitt in Wirklichkeit nicht flach ist, sondern wie ein Stück<br />

Orangenschale (in der Mitte breit, mit zwei Spitzen) gewölbt ist. Die Abweichungen<br />

(„Spannungen“) sind in der Mitte gering und an den Spitzen größer. Deutschland liegt eher<br />

„in der Mitte“ als an den Spitzen (Nord-Süd-Pole).<br />

Somit sind alle zweidimensionalen Abbildungen nur Näherungen. Wichtig ist, dass die<br />

Abweichungen innerhalb eines tolerierten Bereiches liegen. Das wird durch eine Einteilung in<br />

genügend schmale Streifen erreicht, die im Gauß Krüger System 3° beträgt.<br />

Da die Erde nicht exakt die Gestalt einer Kugel, sondern eine kugelähnliche Form mit<br />

unregelmäßigen Abflachungen und Erhebungen hat, muss ihre „kartoffelähnliche“ Gestalt<br />

(Abbildung 4) angenähert werden. Die Gestalt der Erde, ihr geographischer Körper, wird<br />

Geoid genannt. [SCHW]<br />

Grundlage des deutschen Gauß Krüger Systems ist der Bessel-Ellipsoid.


37 Joachim Marwinski<br />

Abbildung 16: Figur der Erde [SCHW]<br />

Abbildung 17: Näherung Ellipsoid [STUM]<br />

Der Bessel-Ellipsoid ist kugelähnlich und nähert lokal für Deutschland möglichst ideal die<br />

Gestalt der Erde an. Mit dem Besselschen Ellipsoid werden in Deutschland Karten erstellt, die<br />

auf ca. 10 cm genau die wirklichen Verhältnisse abbilden.<br />

Der Ellipsoid WGS84, definiert einen 1984 festgelegten weltweiten mittleren Referenzellipsoiden,<br />

der u.a. in der Luftfahrt bedeutsam ist. Der Unterschied zum Bessel Ellipsoid<br />

beträgt ca. 70 m. Sein Mittelpunkt ist gegenüber dem des WGS-84 606 m entlang der x-<br />

Achse, um 23 m entlang der y-Achse, und um 413 m entlang der z-Achse verschoben<br />

[STUM].


38 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />

In der DDR wurde der Ellipsoid Krassowski verwendet, die Meridianstreifen waren 6° breit.<br />

Um Geodaten zu speichern und korrekt auswerten zu können, ist es erforderlich, die<br />

verschiedenen Lagebezugssysteme zu kennen, zu wissen, bezüglich welchen Lagesystems die<br />

Geodaten erfasst wurden, und sie ggf. umrechnen zu können. In Nordrhein Westfalen werden<br />

z.Zt. 4 Lagebezugssysteme und 2 Höhenbezugssysteme verwendet [INFNRW]:<br />

• System Preußische Landesaufnahme (Pr.LA.), auch „Potsdam Datum“ Geodätische<br />

(s.[GDÄ]) Grundlage der Lagefestpunkte in der Bundesrepublik Deutschland ist das<br />

Deutsche Hauptdreiecksnetz (DHDN). Es besteht in Nordrhein-Westfalen aus dem Block<br />

der Preußischen Landesaufnahme (Pr.LA.). Die Koordinaten der Festpunkte sind auf das<br />

Erdellipsoid von Bessel bezogen. Seit 1927 werden für die Lagefestpunkte rechtwinklige<br />

Gauß Krüger Koordinaten (y, x) in 3° breiten Meridianstreifen bestimmt. Koordinaten des<br />

Systems Pr.LA. sind Ausgangswerte für Vermessungen im Liegenschaftskataster, für<br />

topographische Karten und geographische Informationssysteme (GIS).<br />

• System Netz 1977 Zur Verringerung von Netzspannungen wurden seit 1977 die Koordinaten<br />

einiger Punkte des DHDN in Nordrhein-Westfalen verbessert und die Folgenetze<br />

mit den Gauß Krüger Koordinaten dieses Systems systematisch erneuert.<br />

• Europäisches Datum 1950 (ED 50) Das 1950 entstandene Europäische Hauptdreiecksnetz<br />

ist auf das Internationale Erdellipsoid von Hayford bezogen. Dieses westeuropaweit einheitliche<br />

Bezugssystem wird Europäisches Datum 1950 (ED 50) genannt. Die verebneten<br />

Koordinaten (North, East) mit dem Lagestatus 450 gehören zur Universalen Transversalen<br />

Mercator-Abbildung (UTM) mit 6° breiten Meridianstreifen. Das ED 50 war bis 1996<br />

Grundlage des militärischen NATO-Kartenwerks und anderer internationaler Kartenwerke<br />

• Deutsches Haupthöhennetz 1912 (DHHN 12) und 1992 (DHHN 92)<br />

Für globale und kontinentale Festpunktfelder besteht das räumliche satellitengeodätische<br />

World Geodetic System 1984 (WGS 84), das in Europa durch das einheitliche Bezugssystem<br />

European Terrestrial Reference System 1989 (ETRS 89) realisiert ist. Hierin sind auch aktive<br />

Referenzstationen des Satellitenpositionierungsdienstes (SAPOS) durch dreidimensionale, auf<br />

den Erdschwerpunkt bezogene Koordinaten (X, Y, Z) bestimmt.<br />

Die Verwendung bestimmter Lagebezugsysteme ist also auch von den fachlichen<br />

Anforderungen, insbesondere an die Genauigkeit und die an die großflächige Gültigkeit der<br />

Daten (z.B. Luftfahrt) abhängig.<br />

Undulationssysteme [WGSMAN], [INFNRW] sind für die Verknüpfung von<br />

Lagebezugssystemen mit Höhenbezugssystemen erforderlich, um die Abweichung des<br />

Abbildung 18: Undulation [WGSMAN]


39 Joachim Marwinski<br />

verwendeten Ellipsoiden von der tatsächlichen Höhe des Geoids zu kompensieren. Durch den<br />

Einfluss der Schwerkraft deformiert sich der Geoid an Stellen mit Land/ Gestein anders als an<br />

Stellen mit Wasser.<br />

Das Schwerefeld der Erde wird verursacht durch die gravitative Anziehung der Erdmasse,<br />

durch die Rotation und durch kleinere Effekte wie die Gezeiten. Die Anziehung ist am Pol um<br />

ca. 1/200 größer als am Äquator. Mit zunehmender Entfernung von den anziehenden Massen<br />

verringert sich die Anziehung; in einer Höhe von 3000 m ist sie beispielsweise um ca. 1/1000<br />

geringer als auf Meereshöhe. Das Schwerefeld weist zusätzlich globale, regionale und lokale<br />

Unregelmäßigkeiten auf, da die Masse sowohl in der Erdkruste (Gebirge, Kontinentalplatten)<br />

als auch tiefer (in Erdmantel und -kern) nicht gleichmäßig verteilt ist. [SCHW]<br />

Das Schwerefeld ist von Bedeutung für die Satellitengeodäsie, sowie auch für die<br />

Höhenbestimmung auf der Erde. Einhergehend mit dem unregelmäßigen Schwerefeld ist auch<br />

die Form der Erde unregelmäßig. Von einem Ellipsoid weicht die tatsächliche Meeresoberfläche<br />

um bis ± 100 m ab. Diese passt sich dem Schwerefeld an: Sie formt sich so, dass auf<br />

ihr (idealisiert gesprochen) kein Wasser fließt. Die vom Schwerefeld abhängige Fließrichtung<br />

des Wassers definiert auch die jeweilige lokale Horizontalebene und Lotrichtung. Deshalb<br />

beziehen wir Höhen in der Regel nicht auf ein Ellipsoid, sondern auf eine idealisierte<br />

Meeresoberfläche, den Geoid, bzw. ihre Fortsetzung in den Kontinenten. Die Höhe eines<br />

Geländepunktes ist somit der vertikale Abstand des Punktes vom Geoid [SCHW].<br />

2 Was leisten GIS<br />

2.1 Was ist ein GIS<br />

Es gibt viele verschiedene Definitionen von Geoinformationssystemen, eine davon, in<br />

[IMAGI] definiert, lautet:<br />

Geoinformationssystem (GIS): Ein raumbezogenes Informationssystem mit Funktionen zur<br />

Datenerfassung, -aktualisierung, -manipulation, -verwaltung und Analyse der Geodatenbestände<br />

sowie der kartographischen Darstellung raumbezogener Informationen.<br />

Diese Funktionalität dient hauptsächlich der Schaffung einer Grundlage für die Entscheidungsfindung.<br />

Ein GI-System besteht aus mehreren Komponenten, das GIS setzt sich aus Hardware und<br />

Software zusammen. Der Aufbau ist bei den sehr unterschiedlichen Anwendungsgebieten von<br />

GIS (z.B. kleines epidemiologisches Projekt bis Kataster einer großen Kommune) sehr unterschiedlich.<br />

Das folgende Modell zeigt einen möglichen Aufbau: (s.a. [CASS99])


40 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />

evtl. Rechnergrenzen<br />

Plotter<br />

Digitalisiertablett<br />

Scanner<br />

Geodatenbank<br />

DBMS<br />

Datenbank-<br />

Managementsystem<br />

SQL<br />

GIS<br />

z.B.<br />

SICAD oder<br />

Smallworld<br />

ERP<br />

z.B.<br />

SAP<br />

P<br />

D<br />

A<br />

Bilddatenbank<br />

mit<br />

Datensicherheitsverwaltung:<br />

-Zugriffsrechte<br />

-Wiederherstellung<br />

-Transaktionen<br />

HTTP/XML<br />

Server: Apache<br />

od. MS-Inform<br />

Server<br />

gewöhnliche<br />

Klienten:<br />

spezifisches<br />

Betriebssystem<br />

z.B. Oracle oder Informix<br />

PC<br />

MAC<br />

UNIX<br />

Netzwerk<br />

‚leichte’ Klienten: Netscape /<br />

Internetexplorer / Konqueror<br />

über HTTP oder XML<br />

Abbildung 19: GIS-Konfiguration<br />

Hardwarekomponenten:<br />

• Rechner (mehrere Systemrechner (Server), viele Arbeitsplatzrechner ‚Klient‘)<br />

• Netzwerk<br />

• Digitalisiertablett (zum Digitalisieren vorhandener Papier-Karten)<br />

• Plotter<br />

• Scanner<br />

• PDA (tragbarer Kleinrechner)<br />

• Arbeitsplatzdrucker (nicht dargestellt)<br />

Natürlich kann auch das gesamte System auf nur einem einzigen Rechner betrieben werden.<br />

Für einen schnellen Zugriff, gute Wartbarkeit und hohe Datensicherheit (die Systemrechner<br />

werden von EDV-Spezialisten in gegen Feuer, Einbruch und Stromausfall gesicherten Räumen<br />

betrieben) bei vielen angeschlossenen Arbeitsplatzrechnern ist das oben angegebene<br />

Modell sinnvoll. Es speichert die Daten redundanzfrei an einer zentralen Stelle.<br />

Dieses Modell zeigt die Besonderheit eines HTTP / XML Servers, der zwischen GIS und<br />

Klient (das ist die Software, die auf dem Arbeitsplatzrechner läuft und Anfragen an das GIS<br />

erzeugt bzw. Antworten darstellt) vermittelt. Diese Konfiguration erlaubt es, auf den Arbeitsplatzrechnern<br />

‚dünne‘ Klienten einzusetzen. Sie bestehen aus einem (Java-fähigem) Internet-<br />

Betrachter wie Microsoft Internet-Explorer, Mozilla oder Netscape, der mit dem jeweiligen<br />

Betriebssystem des Arbeitsplatzrechners geliefert wird und HTTP oder XML Daten anzeigen<br />

kann. Das vereinfacht die Wartung der Arbeitsplätze und erhöht die Anzahl unterstützter


41 Joachim Marwinski<br />

Betriebssysteme, schränkt aber z.B. die Möglichkeiten ein, einen PDA oder einen<br />

Arbeitsplatzscanner einzusetzen. [ROSE]<br />

Ein Beispiel für eine Konfiguration mit dünnen Klienten ist der Geodatenserver des KVR<br />

(Kommunalverband Rhein Ruhr) [KVR], der über das Internet über eine HTTP Verbindung<br />

Kartenausschnitte zeigt, und mit JAVA-Modul auch Streckenberechnungen durchführt (auf<br />

dem Arbeitsplatzrechner selbst). Im dargestellten Modell sind die Klienten mit dem GIS<br />

selbst verbunden. Möglich ist auch eine Konfiguration, die die Klienten (auch) über das<br />

ERP (Enterprise Ressource Planning) mit dem GIS verbindet. Das GIS kann ein Modul des<br />

ERP sein, sodass ein SRP (Spatial Ressource Planning) entsteht. Dadurch werden die raumbezogenen<br />

Fähigkeiten des GIS mit den geschäftsprozessoptimierten Ressourcenplanungsfähigkeiten<br />

des ERP verknüpft [GAS], [WGI].<br />

Das DBMS (Datenbank Management System), in der Regel ein relationales DBMS, bietet<br />

dem GIS über eine Sprache wie SQL seine <strong>Dienste</strong> zum Speichern und Auffinden von Daten<br />

an, die meist in relational verknüpften Tabellen gespeichert werden. Das GIS speichert seine<br />

Daten nicht selbst, sondern benutzt ein DBMS, da dieses die Datenspeicherung optimiert<br />

vornehmen kann. Es verfügt über Wiederherstellungsmechanismen (z.B. nach einem Stromausfall)<br />

und sorgt für konsistente Daten, indem es die Speicherung nicht regelkonformer<br />

Daten verhindert. Über Transaktionen wird sichergestellt, dass nur vollständige Datensätze<br />

übernommen werden. Das System DBMS ist ein vom spezialisierten Datenbankhersteller<br />

gepflegtes Modul (z.B. Oracle, Informix). Die Speicherung in einer relationalen Datenbank an<br />

einer zentralen Stelle sorgt für die Redundanzfreiheit der Daten durch Abbildung der realweltlichen<br />

Objekte auf genau eine Entsprechung (ihrer Identität, s.o.) in den Daten. Egal von<br />

welchem Klienten auf ein Objekt zugegriffen wird um es zu verändern, das DBMS sorgt<br />

dafür, dass nur die aktualisierten Daten nach der Speicherung an die anderen Klienten<br />

weitergegeben werden. Somit hat jeder Nutzer immer den Zugriff auf aktuelle Daten.<br />

2.2 Räumlicher Bezug<br />

Allen GIS gemeinsam ist der räumliche Bezug der Objekte zueinander. Im einfachsten Falle<br />

werden Objekte (Bauwerke, Strommasten, Kanaldeckel) aufgrund ihrer Koordinaten auf einer<br />

Karte dargestellt. Die Karte selbst kann dann eine Rastergrafik (eingescannte Karte) oder ein<br />

Orthofoto (aus einem Flugzeug senkrecht nach unten aufgenommen) sein [TES].<br />

Wenn der Bezug zu anderen Elementen des Geländes, z. B. in einem DGM, wichtig ist, dann<br />

handelt es sich bei den Karten, innerhalb derer das Objekt dargestellt wird, um Vektorgrafiken.<br />

Alle oder alle wichtigen Elemente der Karte sind dann in vektorisierter Form abgespeichert.<br />

Diese Elemente können in die auswertenden Berechnungen des GIS einbezogen<br />

werden. Gewonnen werden die vektorisierten Karten durch Vermessung (Tachymetrie, hohe<br />

Genauigkeit), Digitalisisierung von Orthofotos am Digitalisiertablett oder durch Einscannen<br />

und Vektorisieren von vorhandenen Papier-Karten.<br />

Es ist stark von der Anwendung abhängig, welche Daten gespeichert werden, und welche<br />

Form der Karten erforderlich ist. Vektorgrafiken erfordern einen höheren Rechenaufwand bei<br />

der Darstellung und Verarbeitung. Sie sind aber auch beliebig skalierbar, die Qualität ihrer<br />

Darstellung ist nicht von der Auflösung abhängig.<br />

Für sich betrachtet können bestimmte Eigenschaften mehrerer Objekte zueinander in Bezug<br />

gebracht werden, wie z.B. die Höhe für ISO-Linien innerhalb einer Karte ausgewertet werden<br />

kann. Es kann bei isoliert betrachteten Objekten (Messpunkten) eines DGM beispielsweise<br />

die Hangneigung berechnet werden, um eine Aussage über die Abfließgeschwindigkeit von<br />

Regenwasser zu treffen.<br />

Die Abspeicherung von miteinander vernetzten Objekten ermöglicht z.B. die Wegeplanung.<br />

Hierbei ist wichtig zu wissen, ob zwei Objekte auch tatsächlich miteinander verbunden sind.


42 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />

Für die Belange der Versorgungsunternehmen sind solche Auswertungen wichtig, z.B. bei der<br />

Stromdurchleitung.<br />

Die Zugehörigkeit eines Objektes zu einem anderen kann auch durch eine „ist enthalten in“<br />

oder „gehört zu“ Beziehung ausgedrückt werden. Die Auswertung einer solchen Beziehung<br />

liefert beispielsweise alle Objekte „Klärbecken“, die zu einer bestimmten Kläranlage gehören.<br />

Die Beispiele Wegplanung und Klärbecken zeigen, dass räumlicher Bezug allein für bestimmte<br />

Auswertungen um Enthaltenseins- und Verbindungsbeziehungen ergänzt werden muss.<br />

2.3 Anwendung<br />

Betrachten wir, wer GIS einsetzt [PDV]:<br />

Abbildung 20: GIS-Anwender [PDV]<br />

Ver- und Entsorger wie Energieversorger Strom und Gas, (Ab)wasserwirtschaft sowie Kommunen<br />

mit ihren Kataster und Tiefbauämtern und kommunale Ver-/Entsorgung sowie Telekommunikationsunternehmen<br />

sind die wichtigsten Nutzer von GIS. An den Hauptabnehmern<br />

der GIS orientiert sich auch das Angebot auf dem GIS Markt mit fertig konfektionierten<br />

Produkten und Fachschalen. Die Fachschalen sind Module zu einer Basissoftware, die<br />

unterschiedlichen fachlichen Anforderungen gerecht werden, wie z.B. Wasser, Strom, Gas,<br />

Telekommunikation, Lampen, etc..<br />

Die Fähigkeit, digitale Geländemodelle (DGM) erstellen, bearbeiten und auswerten zu können<br />

ist für Katasterämter, die Kartografie und andere Fachbereiche wie beispielsweise die Meteologie<br />

erforderlich.<br />

2.4 Fachschalen<br />

Fachschalen liefern eine unterschiedliche Sicht auf die Daten. Sie stellen verschiedene<br />

fachliche Berechnungs- und Analysemethoden zur Verfügung. Das fachliche Wissen um<br />

einen bestimmten Bereich ist in den Fachschalen verankert. Beispiele für Fachschalen:<br />

(Ab)Wasser, Strom, Gas, Lampen, Telekommunikation, allgem. „Auskunft“<br />

Die Daten, um die es hauptsächlich geht, sind von ganz unterschiedlichen Typen, wie z.B.<br />

Lampen und Kanalschächte. Fachwissen steckt in der Konstruktion der Datentypen (welche<br />

Eigenschaften sind wichtig) und in den Methoden und Berechnungen.<br />

Fachschalen sind auch verantwortlich für die Einhaltung von Planzeichnungsverordnungen,<br />

also die korrekte Darstellung der Elemente der jeweiligen Fachschale. Bemaßungen werden<br />

beispielsweise in unterschiedlichen Fachbereichen verschieden gehandhabt: mal Linien mit<br />

dünnen Kreuzen am Ende, mal Linien mit Spitzen Pfeilen.


43 Joachim Marwinski<br />

Für andere Bereiche, insbesondere in der Forschung, existieren keine Fachschalen (zu kommerziellen<br />

Produkten), sondern das GIS selbst hat das fachliche Wissen in sich, d.h., das GIS<br />

ist spezialisiert.<br />

Alle GIS können unterschiedliche Informationsebenen darstellen. Damit werden Objekte aufgrund<br />

verschiedener Kriterien ein- oder ausgeblendet. Dadurch kommen thematische Sichten<br />

zustande, wie z.B. die aus den Atlanten bekannte topologische Sicht, die politische Sicht, Bodenschätze,<br />

historische Grenzen, ...<br />

Im Gegensatz zu den Fachschalen handelt es sich dabei aber nicht um völlig verschiedene<br />

Objekttypen, die auch unterschiedliche Methoden erfordern.<br />

Fachschalen werden innerhalb eines Unternehmens oder einer Behörde von den jeweils zuständigen<br />

Abteilungen genutzt. Der GIS-Report [BUH02] gibt Auskunft über Anwendungsgebiete<br />

und vorhandene Fachschalen der Softwareprodukte auf dem Markt.<br />

2.5 Methoden<br />

Ein GIS wendet fachliche Methoden auf seine Daten an. Die Methoden bündelt fachliches<br />

Wissen, z.B. um die Ausbreitung von Epidemien oder um die effiziente Reinigung eines<br />

Kanalnetzes.<br />

Analytische wie auch prognostische und statistische Verfahren werden angewandt um<br />

• Daten zusammenzufassen<br />

• Eine Vorhersage zu treffen<br />

• Spezielle Objekte zu finden<br />

• Objektzusammenhänge zu ergründen<br />

• Kürzeste Wegstrecken zu ermitteln<br />

• Statistische Werte (Mittelwert, Median, Perzentile) von Objekten (mit bestimmten<br />

Eigenschaften) zu berechnen<br />

Solche Auswertungen dienen oft als Entscheidungshilfen, z.B., ob<br />

• ein Gebiet gegen Tollwut geimpft wird<br />

• alle Haltungen („Kanal“ von einem Schacht zum anderen) eines Stranges (alle<br />

hintereinander liegende) gereinigt werden<br />

• ein günstiges Hotel aufgrund seiner Lage gebucht wird<br />

gelegentlich auch lediglich der Information:<br />

• Netzverfolgung bei Leitungsbruch (der „richtige“ Schalter muss gefunden werden)<br />

• Umleitung um Baustelle<br />

3 Geodatenbanken<br />

Geodatenbanken stellen Informationen bereit, die mit einem GIS gepflegt werden. Entweder<br />

werden die Daten vom GIS selbst ausgegeben, oder Klienten stellen Anfragen an die Geodatenbank<br />

oder über das GIS an die Geodatenbank. Einige Beispiele:<br />

• KVR (Kommunalverband Rhein Ruhr) [KVR] liefert Stadtpläne und Orthofotos.<br />

• Map&guide liefert Stadtpläne und Wegberechnungen<br />

• PLEdoc Terramapserver liefert versch. Karten, z.B. die DGK5 (Dt. Grundkarte 1:5000)<br />

• Nationale Tollwutdatenbank [TOL]<br />

Manche Betreiber von Geodatenbanken bieten teilweise kostenpflichtige, teilweise kostenlose<br />

<strong>Dienste</strong> an. Dabei kann auf einen für die Nutzung freigegebenen Teil der Daten zugegriffen<br />

werden. Welcher Teil das ist, ist abhängig von Kosten, rechtlicher Situation und auch von der<br />

Wettbewerbssituation der Anbieter, da z.B. der Zugriff auf detaillierte Daten eines Energieversorgers<br />

interne Betriebsstrukturen preisgeben würde [FIG2].


44 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />

Auf dem wachsenden Geodatenmarkt bieten verschiedene Anbieter ihre Daten an, z.B. die<br />

Landesvermessungsämter (LVA) solche aus den ALK/ALB (automatisierte(s) Liegenschaftskataster/<br />

~Buch), die Energieversorger und kommerzielle Unternehmen [FIG2].<br />

Die Abbildung in Abschnitt 2.3 zeigt, dass ein großer Teil der GIS Anwender dem regulierten<br />

oder dem staatlichen Sektor zuzuordnen ist. Am Beispiel der SüvKan (Selbstüberwachungsverordnung<br />

Kanalwesen: Die Verordnung regelt u.a. Schadensaufnahme und Dokumentation)<br />

lässt sich erkennen, dass der Bedarf an Geodaten und Geodatenbanken auch einen gesetzlich<br />

regulierten Ursprung haben kann.<br />

3.1 Austausch<br />

Die in einer Datenbank gespeicherten Daten lassen sich über etliche Schnittstellenformate<br />

(z.B. DXF, Microstation, EDBS, Sicad SQD, GDF, aber auch z.B. MS-ACCESS aus nicht-<br />

GIS) ausspielen und in ein Zielsystem übernehmen. (Die beiden erstgenannten Formate sind<br />

aus dem CAD-Bereich) [HECK]<br />

Auf diese Weise können Daten von verschiedenen Anbietern, die bisher in separaten Datenbanken<br />

gespeicherten wurden, zusammengebracht werden. Ein Szenario dazu wäre eine Baustelle.<br />

Eine digitale Stadtgrundkarte (DSGK) dient der Planung, die Energieversorger und die Telekommunikationsbetreiber<br />

liefern Geodaten über im Baustellenbereich verlegte Leitungen und<br />

ein kommerzielles Unternehmen errechnet die Wegbeschreibung für die Umleitung.<br />

Die Lebenszeit der Geodaten ist erheblich höher als die der GIS. Wenn von einer GIS Software<br />

zu einer anderen gewechselt wird, dann bleiben die Datenbestände, die die Kosten eines<br />

GIS erheblich übertreffen, erhalten. Die Geodatenbank wird dann durch Datenmigration in ein<br />

neues System übernommen. Dabei müssen die verschiedenen Datenmodelle im Quell- und im<br />

Zielsystem berücksichtigt werden [BÄRK], [FIG3]. Das OpenGIS Consortium [OGIS] hat<br />

den Austausch normiert.<br />

4 Ausblick<br />

GIS erweitern ERP zu spatial (räumlich) ERP, auch SPR genannt. Dadurch werden die<br />

geschäftsprozessorientierten Informationen des ERP um raumbezogene Informationen des<br />

GIS erweitert. Dies betrifft beispielsweise die Verwaltung von Dokumenten zu Anlagenteilen,<br />

wie z.B. Herstelleranschrift, Kauf- und Wartungsvertrag und Gewährleitunsgsvereinbarungen.<br />

Betrachten wir folgende Situation:<br />

Ein Schachtdeckel ist bei einer Untersuchung als defekt eingestuft worden. Das GIS liefert<br />

den räumlichen Zusammenhang zu anderen defekten Schachtdeckeln in der Nähe, über das<br />

ERP werden Herstellerinformationen (incl. Typ/Bestellnummer) ermittelt. Die Bestellung<br />

wird über das ERP aufgegeben. Beim Eintreffen der neuen Schachtdeckel berechnet das GIS<br />

die günstigste Wegstrecke (Tourenplanung). Evtl. wird auch die Besatzung des Fahrzeuges<br />

(Fahrer mit Führerschein Klasse 2 und Helfer, möglichst „günstig“, beide nicht krankgemeldet<br />

oder in Urlaub) vom ERP/BIS (Betriebsmittelinformationssystem) ermittelt.<br />

Eine weitere Abstraktion findet in manchen Bereichen vom GIS zum BIS [BERN98], [OFF]<br />

statt. Ein BIS verwaltet zusätzlich zu den Geodaten weitere Betriebsmittelinformationen wie<br />

z.B. Standzeiten von Anlagenteilen wie Lampen, Pumpen und kann Wartungsintervalle automatisiert<br />

prüfen.<br />

Die Verbindung von aktueller Position mit Geodaten ist ein Schritt in Richtung der mobilen<br />

<strong>Dienste</strong>. Dazu ermittelt ein mobiles Gerät die aktuelle Position, beispielsweise über GPS (globales<br />

Positionssystem) oder GSM (Protokoll der Mobiltelefonieanbieter), um dann gezielt<br />

Daten über ein Objekt oder die Umgebung anfordern zu können. Der SMS Dienst der Hamburger<br />

Verkehrsbetriebe [HVV] bietet Fahrplanauskünfte, die das GIS des HVV per SMS<br />

versendet, an, die vom Nutzer durch Eingabe von Start und Ziel abgerufen wird. Der nächste<br />

Schritt in der Entwicklung ist die Einbindung der automatischen Positionsbestimmung, die die


45 Joachim Marwinski<br />

Eingabe der Startposition überflüssig werden lässt, sodass ein „mobiler Dienst“ (mit Standortbezug!)<br />

entsteht.<br />

Ein weiteres Beispiel ist die Identifikation von Anlagenteilen anhand ihrer Position (z.B.<br />

Lampen) im Rahmen eines BIS:<br />

Die Lampen an einer neu gebauten Straße werden aufgestellt. Es liegt ein Bauplan in vektorisierter<br />

Form vor, in dem die Lampen eingezeichnet sind. Der Plan wird in das GIS übernommen,<br />

das GIS erzeugt Stammdaten für ein mobiles Handgerät (z.B. PDA).<br />

Die Lampen sollen überprüft werden, ein preisgünstiger Mitarbeiter stellt sich mit dem Handgerät<br />

unter die Lampe, das Gerät ermittelt über GPS die Position, und der Mitarbeiter beurteilt<br />

die Funktion der Lampe.<br />

Damit entfallen die Schritte :<br />

• Markierung der Lampe zwecks Identifikation mit einer Nummer, aufgemalt, mit<br />

gravierten Schildern oder als maschinenerfassbarer Barcode<br />

• Identifikation der Lampe: Übertragung der Nummer auf das Beurteilungsdokument<br />

Die Fehleranfälligkeit ist geringer, da die Zuordnung der Lampe nicht über ggf. zerstörte oder<br />

verschmierte Schilder erfolgt. Die Identität des Objektes wird anhand seiner Geoposition ermittelt.<br />

Das Beurteilungsdokument wird abschließend in das BIS übertragen und ist von jedem<br />

berechtigten Arbeitsplatz im Unternehmen abrufbar. Standzeitorientierte Wartungsaufträge<br />

können durch das BIS automatisiert vergeben werden, einschließlich Materialbeschaffungsschein,<br />

denn das BIS kennt die benötigten Lampentypen.<br />

Referenzen<br />

[ATK03]<br />

[ATK03a]<br />

[BAS00]<br />

[BÄRK]<br />

ATKIS Objektartenkatalog, (2003), http://www.atkis.de/<br />

ATKIS Objektartenkatalog, (2003), Beispiel zu OK 25ATKIS-Objektartenkatalog<br />

Teil D1: Basis-DLM Objektbereich 4000 Vegetation Objektgruppe 4100<br />

Vegetationsflächen Objektart 4101 Ackerland<br />

http://www.atkis.de/dstinfo/dstinfo.dst_start2dst_oar=4101&inf_sprache=deu&c1=1<br />

&dst_typ=25&dst_ver=dst&dst_land=ADV<br />

Basilautzkis. L.(2000)<br />

Das Gauß-Krüger-System, Referat am Institut für Wirtschaftsgeographie Mai 2000<br />

Bärk, B.,<br />

Datenmigration bei der Ablösung von Leitungs-Dokumentationssystemen, Sinzig,<br />

http://www.ciss.de/download/articles/migration-02.pdf<br />

[BUH02] Buhmann, E.; Wiesel J.; (2002):<br />

Gis-Report,Harzer, Karlsruhe, 2002<br />

[BERN98] Bernhard, U., (1998)<br />

GIS Anwendungen in Ver- und Entsorgungsunternehmen, Elektrizitätswirtschaft,<br />

Zeitschrift der VDEW, Jg. 97 (1998), H. 25, S.54-56<br />

[BERN00] Bernhard, U., (2000)<br />

Effizient und kundenorientiert. Gis im liberalisierten EVU-Markt, GeoBIT, 2/2000,<br />

S.26-27<br />

[CASS99] Cassel.Gnitz, M., (1999)<br />

Grundlagen der räumlichen Analyse mit Raster- und Vektordaten, FU-Berlin, Script<br />

WiSe 1999/2000, http://geog.fu.berlin.de/~jkrywkow/gis2/seminar_11/kap1.htm, S.5<br />

[HAK82] Hake, Günter (1982):<br />

Kartographie, Band 1: Allgemeines, Erfassung der Informationen, Netzentwürfe,<br />

Gestaltungsmerkmale, topographische Karten, 6. Aufl., de Gruyter, Berlin 1982, S. 70


46 Geoinformationssysteme und Geo-Datenbanken im Überblick<br />

[WASY] http://www.wasy.de/deutsch/produkte/wgeo/transformation.pdf, (2003), S. 4<br />

[INFNRW] http://www.lverma.nrw.de/vermessung/raumbezug/KO_MERKB.htm<br />

[SCHW] http://step.iapg.verm.tu-muenchen.de/groups/testnetz/schwerefeld.html<br />

[KVR] http://www.kvr.de/daten/geodatenserver/geodatenserver.php<br />

[GAS] Bernhard, U., (1999)<br />

GIS-Anwendungen in Versorgungsunternehmen: Neue Anforderungen des<br />

deregulierten Marktes an integrierte Informationssysteme, Gas Erdgas gwf 140<br />

(1999), Nr. 6 Seite 367<br />

[GDÄ] http://www.ifag.de/Aktuelles/TIGO/TIGO_Einweihung.htm: Absätze 2-4<br />

[IMAGI] Interministerieller Ausschuß für Geoinformationswesen, (2002),<br />

Geoinformation und moderner Staat, Bundesamt für Kartographie und Geodäsie,<br />

Frankfurt a.M. 2002; http://www.imagi.de/broschuere2002/<br />

[ROSE] Rose, A., (1999)<br />

Datenbereitstellung im Internet: Beispiele aus EVU und öffentlicher Verwaltung,<br />

http://www.sicad.de/pages/ueber_uns/publikationen/pdf/v9905_unibw_rose.pdf S.3ff.<br />

[OGIS] http://www.opengis.org<br />

[OFF] http://www.i-pconsult.de/BIS.html<br />

[HVV] http://www.hvv.com/no_js/seiten/framesets/2_3_index.htm<br />

[FIG] Figura, J.<br />

Der Geodatenmarkt als Perspektive der Energieversorger, Sinzig,<br />

http://www.ciss.de/download/articles/mehr-als-eine-vision.pdf<br />

[FIG2] Figura, J.<br />

Möglichkeiten der Datenintegration am Beispiel der Region Südhessen, Sinzig,<br />

http://www.ciss.de/download/articles/suedhessen.pdf, Seite 8<br />

[FIG3] Figura, J.<br />

Digitale Daten sind verfügbar, Sinzig, http://www.ciss.de/download/articles/digitalegeodaten.pdf,<br />

Seite 3-5<br />

[HECK] Heckler, M.,<br />

Ein Geodatenserver für ATKIS, Sinzig,<br />

http://www.ciss.de/download/articles/geodatenserver-hlva.pdf<br />

[TES] http://elise.bafg.de/servlet/is/1653: Vergleich Datei-Datenbankbez. Geodatenserver<br />

[TOL] Bundesforschungsanstalt für Viruskrankheiten, Nationale Tollwutdatenbank,<br />

http://www.bfav.de/organisation/ife/krankheiten/tollwut_daten.html<br />

[WGI] http://www.wgi-gmbh.de/daten/projekte/Projekt_NEBIS_WFG.pdf<br />

[PDV] http://www.pdv.de/de_neu/gis_im_ueberblick.asptheme=22&<br />

[OAGIS] Ott, Thomas, (2002)<br />

OAGIS Geographische Informationssysteme – Ein Überblick,<br />

http://www.oagis.com/gis3.htm, Abschnitt 3.2<br />

[STUM] http://www.rainerstumpe.de/HTML/body_kartenkoordinaten.htm


Beispiele ortsbasierter <strong>Dienste</strong><br />

„Tourist Guide“<br />

Edgar Merl<br />

90489 Nürnberg<br />

edgar.merl@web.de<br />

Zusammenfassung: Bei mobilen elektronischen Reiseführern (Tourist Guides) handelt<br />

es sich um kontextbewusste Anwendungen, in denen als elementare Kontextinformation<br />

der momentane Standort des Benutzers Berücksichtigung findet. Damit stellen diese Anwendungen<br />

insbesondere auch typische Beispiele ortsbasierter <strong>Dienste</strong> dar. Anhand<br />

zweier Forschungsprojekte (Cyberguide und GUIDE) werden die potentiellen Anforderungen,<br />

Konzepte sowie Lösungen und Architekturen bei der Entwicklung von mobilen<br />

kontextbewussten Reiseführern dargestellt. Der Fokus der Betrachtung liegt hierbei auf<br />

Konzepten und Lösungen im Rahmen der Implementierung ortsbasierter <strong>Dienste</strong>. Abschließend<br />

wird versucht, einen kurzer Ausblick auf die künftige Entwicklung im Bereich<br />

mobiler Tourist Guides zu geben.<br />

1 Einleitung<br />

1.1 Charakterisierung von „Tourist Guides“<br />

Mobile elektronische Reiseführer (Tourist Guides) können der Kategorie der mobilen kontextbewussten<br />

Anwendungen zugeordnet werden. Die aktuelle physikalische Position des<br />

Nutzers stellt dabei einen elementaren Kontext dieser Anwendungen dar. Mit der standortabhängigen<br />

Präsentation von Informationen und der Führung (Navigation) des Benutzers bilden<br />

ortsbasierte <strong>Dienste</strong> den essentiellen Kern dieser Anwendungen. Neben der aktuellen Position<br />

existieren noch weitere Kontextparameter, die bei der Realisierung mobiler kontextbewusster<br />

Anwendungen eine Rolle spielen oder spielen können. Schilit et al. unterteilen, unter Benennung<br />

konkreter Beispiele, den potentiellen Kontext in drei Kategorien [SAW94]:<br />

• Technischer Kontext (Computing context):<br />

Netzwerkverbindungen, Kommunikationskosten und Bandbreite, verfügbare Ressourcen<br />

wie mobile Endgeräte, Drucker, Rechner.<br />

• Persönlicher Kontext (User context):<br />

Nutzerprofil, gegenwärtiger Aufenthaltsort, benachbarte Personen, soziale Verhältnisse.<br />

• Physikalischer Kontext (Physical context):<br />

Temperatur, Geräuschpegel, Verkehrsverhältnisse, Luftfeuchtigkeit, Lichtverhältnisse etc.<br />

Da auch die Zeit für sehr viele Applikationen eine wichtige Kontext-Information darstellt,<br />

führen Chen/Kotz eine zusätzliche, vierte Kontext-Kategorie ein [ChKo00]:<br />

• Zeitlicher Kontext (Time context):<br />

Tageszeit, Datum und Jahreszeit.


48 Beispiele ortsbasierter <strong>Dienste</strong><br />

1.2 Bisherige Entwicklungen und Projekte<br />

Eines der ersten Projekte im wissenschaftlichen Umfeld, das sich mit der Entwicklung mobiler<br />

kontextbewusster Applikationen befasste, war von Juli 1995 bis August 1997 das Projekt<br />

Cyberguide am Georgia Institute of Technology. Im Rahmen dieses Projekts wurden Prototypen<br />

mobiler kontextbewusster Touristenführer für Besucher innerhalb und außerhalb der<br />

Campus-Gebäude erstellt. Der Forschungsschwerpunkt lag hierbei eher auf dem Prototyping<br />

technischer Konzepte und der Entwicklung einer hierfür geeigneten Softwarearchitektur.<br />

Das GUIDE-Projekt kann als eine Fortführung des Cyberguide-Projekts gesehen werden. Das<br />

Projekt wurde von April 1997 bis Juli 1999 an der Lancaster University durchgeführt. Ziel<br />

war es, die Besucher der Stadt Lancaster, England, mit einem stadtweiten kontextsensitiven<br />

Multimedia-Führer auszustatten. Neben der Lösung technischer Fragen wurde hier auch viel<br />

Zeit auf die Optimierung der Benutzerschnittstelle verwandt.<br />

Die Beschreibung der genannten Projekte erfolgt in den nächsten beiden Kapiteln dieser Arbeit.<br />

Im Mittelpunkt der Betrachtungen werden - dem Thema dieses Seminars folgend - die<br />

Konzepte, Lösungen und Architekturen zur Realisierung ortsbasierter <strong>Dienste</strong> stehen.<br />

2 Cyberguide<br />

2.1 Einführung<br />

Im Juli 1995 startete am Georgia Institute of Technology das Projekt Cyberguide [AAH+97].<br />

Drei Monate vorher erfolgte die Gründung der Future Computing Environments (FCE)<br />

Group, die sich die „rapid-prototype“-Entwicklung von Applikationen im Bereich der mobilen<br />

Technologien zum Ziel setzte. Damit sollten kurzfristig verschiedene Möglichkeiten der<br />

sich neu entwickelnden Technologien erforscht und Aussagen über die weitere Entwicklung<br />

in diesem Umfeld getroffen werden können.<br />

Entsprechend dieser Zielsetzung handelt es sich bei Cyberguide um eine Serie von Prototypen<br />

mobiler kontextbewusster Reiseführer. Dabei wurden auf verschiedenen Plattformen unterschiedlichste<br />

Aspekte bei der Entwicklung eines Reiseführers erforscht.<br />

2.2 Anforderungen<br />

Als langfristiges Ziel des Projekts wurde angegeben, dass die Applikation in der Lage sein<br />

sollte, zu erkennen, an welcher physikalischen Position der Tourist sich aktuell befindet und<br />

welchen Objekten er zugewandt ist. Ferner sollte die Applikation Fragen des Touristen<br />

voraussehen und vorweggenommen beantworten. Schließlich sollte es dem Touristen möglich<br />

sein, mit anderen Personen sowie der Umgebung in Interaktion zu treten.<br />

Zu Beginn konzentrierte sich das Projekt allerdings nur auf einen Ausschnitt des Kontexts,<br />

nämlich auf die Bestimmung der Position und räumlichen Orientierung der Mobileinheit und<br />

damit des Benutzers. Die initialen Prototypen von Cyberguide fungierten hierbei als Führer<br />

durch das Institutslabor während des monatlichen „Tags der offenen Tür“.<br />

2.3 Konzepte und Architektur<br />

2.3.1 Komponentenmodell<br />

Um die geplante Entwicklung verschiedener Prototypen bestmöglichst zu unterstützen, stand<br />

bei der Konzeption der Anwendung und beim Design der Softwarearchitektur ein modularer<br />

Aufbau im Mittelpunkt. Ausgangspunkt waren Überlegungen, welche essentiellen Kompo-


49 Edgar Merl<br />

nenten Bestandteil eines mobilen Reiseführers sein müssten. In der Folge wurde die Aufteilung<br />

in vier unabhängige Module vorgenommen. Zur besseren Veranschaulichung der Komponenten<br />

führte man zugleich eine Personifizierung der Module ein, die den Expertencharakter<br />

der beteiligten Systeme betonen sollte. Die Kombination der folgenden Komponenten bildet<br />

schließlich das Gesamtsystem:<br />

• Kartograph (Landkartenmodul)<br />

Der Kartograph besitzt genaue Kenntnis über die räumliche Umgebung. Er kennt den<br />

Standort von Gebäuden und Sehenswürdigkeiten und besitzt Informationen über Zugangswege.<br />

Diese Komponente wird durch eine oder mehrerer physikalische Karten realisiert.<br />

• Bibliothekar (Informationsmodul)<br />

Diese Komponente liefert inhaltliche Informationen über alle Sehenswürdigkeiten und<br />

interessanten Objekte, auf die ein Tourist während seiner Tour treffen kann. Dabei kann<br />

es sich sowohl um Beschreibungen von Gebäuden als auch um Lebensläufe von Personen<br />

handeln, die in Verbindung mit dem aktuell besichtigten Objekt stehen. Der Bibliothekar<br />

beantwortet spezifische Fragen („Von welchem Künstler ist das Bild“ oder „Welche seiner<br />

Kunstwerke können noch in der Umgebung besichtigt werden“). Diese Komponente<br />

wird als strukturierte Informationsbasis realisiert.<br />

• Navigator (Positionsbestimmungsmodul)<br />

Die Interessen und Informationsbedürfnisse der Besucher hängen sehr stark von ihrer aktuellen<br />

Position ab. Aus diesem Grunde ist es wichtig, die exakte Position des Besuchers<br />

zu kennen, um ihn über das Landkartenmodul mit einer Sicht auf die aktuelle Umgebung<br />

versorgen zu können. Der Navigator ist für die Bereitstellung der aktuellen Position in der<br />

augenblicklichen Umgebung zuständig. Er wird durch ein Modul realisiert, das genaue Information<br />

über Position und Orientierung des Benutzers liefert.<br />

• Bote (Kommunikationsmodul)<br />

Ein Benutzer möchte Informationen empfangen und unter Umständen auch versenden.<br />

Die Möglichkeit hierzu stellt ihm der Bote zur Verfügung. Beispielsweise könnte der Besucher<br />

einer Ausstellung mit dem Künstler Kontakt aufnehmen wollen. Ist der Künstler<br />

nicht präsent, so kann er über den Boten eine Nachricht für ihn hinterlassen. Um mit anderen<br />

Nutzern in Verbindung treten zu können, kann jeder Tourist seine aktuelle Position an<br />

einen zentralen Service übermitteln, auf den alle Nutzer zugreifen können. Ferner können<br />

über den Boten auch Nachrichten an alle Nutzer verteilt werden („Der nächste Bus fährt in<br />

15 Minuten“). Diese Komponente wird von einem Bündel von drahtlosen Kommunikationsdiensten<br />

realisiert.<br />

Das vorgestellte Komponentenmodell gewährleistet eine gute Erweiterbarkeit und Flexibilität<br />

der zu entwickelnden prototypischen Anwendungen. Beispielsweise kann jederzeit über die<br />

Ergänzung des Modells um einen Archivar nachgedacht werden, der den Tourverlauf und die<br />

Reaktionen des Touristen dokumentiert. Ferner lässt sich die Implementierung einer Komponente<br />

komplett austauschen ohne gravierenden Einflüsse auf andere Module zu nehmen.<br />

Voraussetzung hierfür ist allerdings die exakte und stabile Definition von Schnittstellen zwischen<br />

den einzelnen Modulen.


50 Beispiele ortsbasierter <strong>Dienste</strong><br />

Abbildung 21: Ein erster Cyberguide-Prototyp [AAH+97]<br />

Abbildung 21 liefert einen visuellen Eindruck von Cyberguide und den implementierten Modulen.<br />

Links im Bild sieht man das Landkartenmodul. Dem Benutzer steht eine zoom- und<br />

scrollbare Karte des gesamten Institutslabors zur Verfügung. Ein Icon in Form einer Person<br />

kennzeichnet seine eigene Position, Icons in Form von Sternen repräsentieren Sehenswürdigkeiten<br />

bzw. interessante Objekte. In der rechten Bildhälfte ist das Informationsmodul dargestellt.<br />

Durch Anklicken der Icons innerhalb des Landkartenmoduls werden die zu dem gewählten<br />

Objekt verfügbaren Informationen angezeigt bzw. können abgerufen werden. In beiden<br />

Oberflächen sind am unteren Rande Funktionen des Kommunikationsmoduls erkennbar.<br />

2.3.2 Positionsbestimmung innerhalb von Gebäuden<br />

Innerhalb von Gebäuden ist die Verwendung von GPS nicht möglich, da die hierfür benötigten<br />

Satellitensignale nicht oder nur schwach zu empfangen sind. Bei der Konzeption eines<br />

Positionsbestimmungsmoduls innerhalb der Gebäude ließ man sich deshalb von folgenden<br />

Projekten beeinflussen, die sich bereits mit „indoor“-Positionsbestimmung beschäftigt hatten:<br />

• PARCTab am Xerox Palo Alto Research Center [Want+95],<br />

• Active Badge System des Olivetti Research Lab [WHFG92].<br />

Zu Beginn wurde zur Positionsbestimmung das Active Badge System in Erwägung gezogen.<br />

Aus Kostengründen und im Hinblick auf die langfristigen Ziele wurde jedoch auf diese Lösung<br />

verzichtet. Grund hierfür war die Verquickung von Positionsbestimmung und Kommunikation<br />

im Active Badge System. In der Architektur von Cyberguide sollten diese beiden<br />

Aufgaben getrennt sein. Dadurch wurde es möglich, je nach Bedarf für jede der beiden Komponenten<br />

speziell optimierte oder auch kostengünstigere Varianten auszuwählen.


51 Edgar Merl<br />

Das zur „indoor“-Positionsbestimmung für Cyberguide entwickelte System basiert auf Infrarottechnik.<br />

Abbildung 22 gibt ein Überblick über den Aufbau des Systems und die hieran beteiligten<br />

Komponenten:<br />

Abbildung 22: Positionsbestimmung mit Infrarotsystem [AAH+97]<br />

Die abgebildete Variante basiert auf Infrarotsendern. Hierzu wurden an den Decken der Gebäude<br />

herkömmliche TV-Fernbedienungen in einem rasterförmigen Muster angebracht. Jede<br />

Fernbedienung sendet periodisch ein eindeutiges Muster (active beacon). Bewegt sich der<br />

Tourist in den Empfangsbereich einer Fernbedienung, nimmt ein spezieller Infrarotempfänger,<br />

der auf die Frequenz (40 kHz) der Fernbedienungen ausgerichtet ist, das Signal auf. Ein<br />

mit dem Infrarotempfänger verbundener Mikrocontroller bestimmt daraus die Zelle, in der<br />

sich die Mobileinheit befindet. Über ihren seriellen Port erhält die Mobileinheit vom Mikrocontroller<br />

die entsprechende Information. Das Positionsmodul unterrichtet das Landkartenmodul<br />

von der neuen Position, so dass diese in der Karte neu eingezeichnet werden kann.<br />

Erste Erfahrungen im Einsatz von Cyberguide zeigten sehr schnell, dass weniger die absolute<br />

Position des Anwenders von Nutzen ist, sondern vielmehr die Information darüber, welches<br />

Objekt der Benutzer aktuell betrachtet. Deshalb wird versucht, anhand einer Historie der<br />

letzten Positionen die Bewegungsrichtung und die Orientierung des Touristen einzuschätzen.<br />

Als Mobileinheit fand in der „indoor“-Version der Apple MessagePad 100 mit Newton 1.3 als<br />

Betriebssystem Verwendung. Auch hier fand das Kostenargument Anwendung. Das Ziel des<br />

inkrementellen Prototyping vieler verschiedener Versionen konnte innerhalb des Projektes<br />

nur durch geringe Hardwarekosten erreicht werden. Insbesondere im Hinblick auf die Mobileinheiten<br />

war vorgesehen, eine größere Anzahl bereitzustellen, um möglichst viele Plattformen<br />

für die Entwicklung und den Test der verschiedenen Prototypen bereitstellen zu können:


52 Beispiele ortsbasierter <strong>Dienste</strong><br />

Abbildung 23: Cyberguide „indoor“-Mobileinheit (Apple Newton)<br />

Die technischen Daten des MessagePads lauten:<br />

• Höhe x Breite x Länge: 19.05 x 114,3 x 184,75 mm<br />

• Gewicht: 0,4 kg (ohne Batterien)<br />

• LCD-Display, schwarz-weiß<br />

• Auflösung von 336 x 240 Pixel<br />

• Betriebsdauer mit Batterie 6-12 Stunden.<br />

2.3.3 Positionsbestimmung außerhalb von Gebäuden<br />

In einer späteren Phase des Projekts erfolgte die Erstellung von Prototypen für die Verwendung<br />

auf dem Campusgelände und innerhalb der Stadt Atlanta. Neben der Beschäftigung mit<br />

den zugrunde liegenden technischen Konzepten, sollte hier erneut der modulare Aufbau der<br />

Anwendung einem Praxistest unterzogen werden. Neben dem Modul zur Positionsbestimmung<br />

war in diesem Zusammenhang auch das Landkartenmodul durch eine geänderte Implementierung<br />

zu ersetzen.<br />

Zur Positionsbestimmung außerhalb von Gebäuden fand GPS Verwendung. Hierzu wurde in<br />

einem Prototyp ein Trimble‘s Placer GPS 450/455 als mobile GPS-Einheit mit dem seriellen<br />

Port des Apple MessagePad 100 verbunden. Auf den Cyberguide-Projektseiten findet sich der<br />

Hinweis auf die Verwendung von differentiellem GPS (DGPS) durch Verwendung einer<br />

Trimble's GPS Pathfinder® Community Base Station als stationärem GPS-Empfänger<br />

[FCE03]. Aufgrund des überraschenden Abbruchs des Projekts fehlen jedoch leider genauere<br />

Informationen zu den zuletzt erstellten Prototypen, so dass über die tatsächliche Verwendung<br />

von DGPS nur spekuliert werden kann.<br />

Die (Software-)Entwicklung der „outdoor“-Versionen erfolgte im Wesentlichen in einer Testumgebung<br />

auf PC-Basis. In dieser Testumgebung fanden Borland’s Delphi und Microsofts<br />

Visual Basic als Programmierumgebungen Verwendung. Als endgültige Plattform für die<br />

„outdoor“-Version von Cyberguide war ein Apple MessagePad 2000 mit Newton 2.1 als Betriebssystem<br />

vorgesehen. Dessen Einsatz konnte jedoch nicht mehr erfolgreich gelingen, da<br />

zum Zeitpunkt der vorzeitigen Beendigung des Projekts, die Portierung des in der Testumgebung<br />

entworfenen vektorbasierten Landkartenmoduls an der mangelnden Performanz der<br />

Mobileinheit scheiterte.<br />

2.4 Erfahrungen<br />

Im Gegensatz zu den Vorgängerprojekten PARCTab und Active Badge erfolgte in Cyberguide<br />

eine bewusste Trennung der Systeme zur Positionsbestimmung und Kommunikation.<br />

Während in den Vorgängerprojekten die Mobileinheiten ihre Position an die Funkbaken (beacons)<br />

übermittelten und die Positionsbestimmung zentral durchgeführt wurde, kennt in Cy-


53 Edgar Merl<br />

berguide ausschließlich die Mobileinheit ihren eigenen Standort. Möchte man in einer Anwendung<br />

dafür sorgen, dass die Mobileinheiten nicht nur ihren eigenen, sondern auch den<br />

Standort anderer Einheiten kennen, so muss eine Form von Kommunikation zwischen ihnen<br />

implementiert werden. Findet beispielsweise GPS Verwendung, so kann das Positionsbestimmungsmodul<br />

alleine schon aus technischen Gründen nicht zur Kommunikation mit anderen<br />

Mobileinheiten verwendet werden. Das nachfolgend beschriebene GUIDE-Projekt zeigt,<br />

wie die Verwendung von Funknetzen beide Aufgabenbereiche abdecken kann.<br />

2.5 Weiterentwicklung<br />

Unter Berücksichtigung der Erfahrungen während der Arbeit an Cyberguide kommt das Projektteam<br />

im Hinblick auf die langfristigen Ausgangsziele zum Schluss, dass folgende Eigenschaften<br />

und Funktionen zentrale Bedeutung bei der künftigen Entwicklung mobiler kontextbewusster<br />

Anwendungen haben werden:<br />

• Visuelle Funktionen<br />

Man sieht großes Potential in der Einführung erweiterter Realität (augmented reality) zur<br />

Bereitstellung zusätzlicher Informationen über Displays. Über die Ausstattung der Mobileinheiten<br />

mit visuellen Systemen ließe sich eine Verbesserung der Positionsmoduls erzielen,<br />

indem das vom Benutzer betrachtete Objekt ermittelt werden kann. Denkbar wäre<br />

auch, über Scanfunktionen in Verbindung mit Texterkennung und Übersetzungsfunktionen<br />

den Reiseführer um eine „Dolmetscher“-Komponente zu erweitern.<br />

• Direkte Anbindung der Mobileinheiten an das Internet<br />

Viele der derzeit noch lokal oder auf eigenen Servern gehaltenen Informationen sind<br />

ebenfalls im Internet verfügbar und werden somit redundant gehalten. Die Verbreitung<br />

des Internets sorgt zudem für eine natürliche Vertrautheit im Umgang mit diesem Medium.<br />

Ferner können auch andere auf dieser Technik basierenden <strong>Dienste</strong> (z.B. E-Mail)<br />

genutzt werden.<br />

• Erweiterung des betrachteten Kontextes<br />

Hier steht insbesondere die Frage im Vordergrund, wie das Nutzerprofil vom System implizit<br />

optimiert werden kann. Hierzu könnte beispielsweise das Erkennen der Reaktionen<br />

des Nutzers auf Attraktionen (möglicherweise auch über visuelle Techniken) zählen. Auch<br />

aufgrund der Historie der von ihm besichtigten Orte kann auf bestimmte Interessen und<br />

Vorlieben des Nutzers geschlossen werden (dies wurde beispielsweise im nachfolgenden<br />

Projekt GUIDE bereits versucht).<br />

• Globales Positionsbestimmungskonzept<br />

Die im Projekt Cyberguide entstandenen Prototypen waren exklusiv entweder für den<br />

Gebrauch innerhalb oder außerhalb von Gebäuden nutzbar. Ziel wird sein, einem Touristen<br />

einen mobilen Reiseführer an die Hand zu geben, der unabhängig von seiner aktuellen<br />

Position bzw. Umgebung stets verfügbar ist.<br />

• Schreibender Zugriff auf Informationsbasis<br />

Das Bedürfnis eines Touristen, seine eigene Erfahrungen und Gedanken zu einem besichtigten<br />

Objekt aufzuzeichnen, könnte beispielsweise über die Modifizierbarkeit der Informationsbasis<br />

geschehen. Im Cyberguide-Projekt wurde bereits in diese Richtung experimentiert.<br />

Es konnte ein Reisetagebuch erstellt werden, das neben der automatisch aufgezeichneten<br />

Besichtigungsobjekte dem Touristen die Möglichkeit bot, mittels Digital- oder<br />

Videokamera seine Eindrücke festzuhalten und dem Tagebuch hinzuzufügen.


54 Beispiele ortsbasierter <strong>Dienste</strong><br />

3 GUIDE<br />

3.1 Einführung<br />

Das GUIDE-Projekt wurde im April 1997 an der Lancaster University begonnen. Zu diesem<br />

Zeitpunkt war das Cyberguide-Projekt das einzige Projekt, das sich ebenfalls der Erforschung<br />

von mobilen kontextbewussten Reiseführern widmete. Wenngleich nach Ansicht des GUIDE-<br />

Teams die Arbeit des Cyberguide-Teams zu sehr auf System- und Architekturdesign fokussiert<br />

schien und dabei Fragen der Benutzerschnittstelle und der Interaktion zu wenig Beachtung<br />

fanden, so wird das Cyberguide-Projekt doch als Basis und Motivation der Arbeit angegeben<br />

[DCME01].<br />

Das wesentliche Ziel bestand darin, ein System zu entwickeln, das in der Lage ist, auf einen<br />

einzelnen Touristen individuell zugeschnittene Stadttouren zu erstellen. Konkret sollte das<br />

System unter Berücksichtigung der inhaltlichen Interessen des Touristen, dessen verfügbarer<br />

Zeit, seinem Aufenthaltsort, seinen finanziellen Verhältnissen, seiner Mobilität und den lokalen<br />

Wetterverhältnissen eine jeweils geeignete Tour generieren. Für den Fall, dass sich einer<br />

dieser Parameter ändert, sollte der Tour Guide die notwendigen Anpassungen selbständig<br />

vornehmen.<br />

3.2 Anforderungen<br />

Um die Anforderungen an das zu erstellende System zu ermitteln, wurden eine Reihe von<br />

Gesprächen und strukturierten Interviews mit den Mitarbeitern des örtlichen Tourismusbüros<br />

(Lancaster Tourist Information Centre - TIC) geführt. Des Weiteren wurden einige Tage damit<br />

verbracht, die Wünsche und Bedürfnisse der Besucher des TIC vor Ort durch Beobachtung<br />

zu ermitteln. Diese Erhebungen führten zur Formulierung von vier wesentlichen Anforderungen<br />

an das zu erstellende System [CDM+00]:<br />

• Flexibilität<br />

Das System sollte dem Nutzer eine möglichst große Flexibilität in seiner Bedienung ermöglichen.<br />

Jeder Nutzer sollte die Möglichkeit besitzen, die Stadt entsprechend seinen<br />

Bedürfnissen zu erforschen und kennen zu lernen. Beispielsweise sollte die Möglichkeit<br />

einer geführten Tour genauso bestehen wie das Erkunden der Stadt auf eigene Faust. Das<br />

System sollte also sowohl die Rolle eines intelligenten Stadtführers als auch die eines eher<br />

passiven Reiseführers (einem Buch vergleichbar) übernehmen können. Keinesfalls sollte<br />

sich der Besucher durch das System gegängelt oder unter Druck gesetzt fühlen. Er sollte<br />

jederzeit die Freiheit haben, einen Tour zu unterbrechen und beliebig lange an Attraktionen<br />

zu verweilen.<br />

• Kontextabhängige Information<br />

Die präsentierte Information sollte auf den aktuellen Kontext des Besuchers zugeschnitten<br />

sein. Dabei sollte sowohl die persönliche Situation des Nutzers als auch die aktuellen<br />

Rahmenbedingungen der Umgebung Berücksichtigung finden. Als persönlicher Kontext<br />

sollten beispielsweise die Interessen des Benutzers (wie Vorlieben für Geschichte oder<br />

Architektur) und seine aktuelle örtliche Position die bereitgestellte Information beeinflussen.<br />

Als Beispiele für aus der Umgebung abgeleiteten Kontext sind die Tageszeit und die<br />

Öffnungszeiten verschiedener Sehenswürdigkeiten zu nennen. Der verfügbare Kontext<br />

sollte dabei nicht nur zur Generierung von Touren, sondern auch bei der Aufbereitung der<br />

Information berücksichtigt werden. Beispielsweise sollte das System erkennen können,<br />

dass ein Besucher zu einer bereits besichtigten Sehenswürdigkeit zurückgekehrt ist und<br />

die Information daraufhin abstimmen.


55 Edgar Merl<br />

• Verfügbarkeit von dynamischer Information<br />

Neben den statisch abrufbaren Informationen wurde ein elementarer Bedarf zur Bereitstellung<br />

dynamischer Information an den Besucher ermittelt. So sollte beispielsweise die<br />

Möglichkeit bestehen, einen Nutzer über die Änderung von Öffnungszeiten zu informieren.<br />

Oder über die Möglichkeit, eine Attraktion zu besuchen, zu der ihm der Zugang aufgrund<br />

von Veranstaltungen zuvor verwehrt geblieben ist. Ferner könnten beispielsweise<br />

auch die Tageskarten umliegender Restaurants für den Nutzer von Interesse sein.<br />

• Bereitstellung interaktiver <strong>Dienste</strong><br />

Bei der Beobachtung der Aktivitäten der Besucher stellte sich heraus, dass eine überraschend<br />

hohe Anzahl von Touristen wiederholt das Tourismusbüro aufsuchten. In den<br />

meisten Fällen handelte es sich um den Wunsch nach einer speziellen Information oder<br />

Nutzung von <strong>Dienste</strong>n, die das Tourismusbüro bereitstellt. Überwiegend waren dies Reservierungen<br />

und Buchungen, beispielsweise von Übernachtungsmöglichkeiten. Aus diesem<br />

Grund sollte das System eine Möglichkeit zur elektronischen Kontaktaufnahme mit<br />

dem Tourismusbüro über einen Nachrichtendienst bereitstellen. Insbesondere sollte hierüber<br />

die Buchung und Reservierung von Veranstaltungen oder Übernachtungsmöglichkeiten<br />

ermöglicht werden.<br />

3.3 Konzepte und Architektur<br />

Das System basiert auf Internet-Technik, portablen Endgeräten und einer zellbasierten Netzwerkinfrastruktur.<br />

Die präsentierte Information wird sowohl auf das persönliche Profil des<br />

Benutzers als auch auf seine aktuelle Umgebung zugeschnitten. Positionsinformation wird<br />

von strategisch angeordneten Basisstationen ausgesendet. Daher bedeutet der Verlust der<br />

Netzwerkverbindung auch den Verlust sämtlicher Positionsinformation. Um die Benutzerin<br />

über den aktuellen Status der Positionsinformation auf dem Laufenden zu halten, stellt das<br />

System neben der letzten bekannten Position auch die aktuelle Empfangsstärke dar. Sind<br />

keine Positionsinformationen mehr verfügbar, wird unter Einbeziehung des Nutzers in einem<br />

kooperativen Dialog die aktuelle Position neu justiert.<br />

3.3.1 Mobileinheit<br />

Als Anwenderterminal wurde ein Fujitsu TeamPad 7600 (Abbildung 24) ausgewählt, der mit<br />

einer Lucent WaveLAN (neuerdings Orinoco)-Netzwerkkarte mit 2 Mbps Bandbreite nach<br />

dem 802.11 Standard ausgestattet wurde.<br />

Abbildung 24: Die GUIDE-Mobileinheit (Fujitsu TeamPad 7600)


56 Beispiele ortsbasierter <strong>Dienste</strong><br />

Der wesentliche Grund für die Auswahl der Mobileinheit war ein ausgewogenes Verhältnis<br />

von Performanz und Größe und Gewicht des Geräts. Im einzelnen spielten folgende Kriterien<br />

eine Rolle:<br />

• Das Display bietet eine relativ hohe Auflösung: 800x600 Pixel.<br />

• Das transflexive Display ist auch bei Sonnenlicht gut zu erkennen.<br />

• Der TeamPad verfügt über ausreichende Prozessorleistung (Pentium 166 MMX) für den<br />

Betrieb Java-basierter Anwendungen.<br />

• Das Gewicht der Mobileinheit ist mit 850 Gramm noch akzeptabel.<br />

• Mit Windows 95 kann ein Betriebssystem installiert werden, das u.a. die erforderlichen<br />

Netzwerktreiber beinhaltet.<br />

3.3.2 Netzwerk-Infrastruktur<br />

Die in den Mobileinheiten verfügbaren Netzwerkkarten dienen zur drahtlosen Anbindung an<br />

eine Reihe von Basisstationen, welche in der Nähe von bekannten Attraktionen über die gesamte<br />

Stadt verteilt sind (Abbildung 25). Diese WaveLAN-Basisstationen decken jeweils eine<br />

bestimmte Zelle (d.h. ein geographisches Gebiet) ab und senden ihrem Standort entsprechend<br />

relevante Informationen.<br />

Abbildung 25: Überblick über Verteilung der WaveLAN-Zellen [DCME01]<br />

Bei diesen Basisstationen (Cell Server) handelt es sich um mit jeweils zwei Netzwerken verbundene<br />

Linux-Server. Das eine Netzwerk verbindet die Server drahtlos mit den sich aktuell<br />

in ihrer Zelle bewegenden Mobileinheiten, das andere ist fest verdrahtet und verbindet verschiedene<br />

Server (Abbildung 26):<br />

Abbildung 26: Die GUIDE-Netzwerkarchitektur [CMD02]


57 Edgar Merl<br />

Jede Mobileinheit wird innerhalb der Zelle von der zugehörigen Basisstation über Broadcast<br />

mit den Informationseinheiten versorgt, auf die innerhalb dieser Server-Zelle zuletzt häufig<br />

zugegriffen wurde. Um die Performanz der Anwendung zu verbessern, werden diese Seiten<br />

auf den Mobileinheiten in einem lokalen Cache bevorratet. Damit kann eine explizite Informationsanforderung<br />

(per HTTP-Request) an den Zellserver nur auf die Fälle beschränkt bleiben,<br />

in denen die Information lokal noch nicht vorhanden ist. Die Basisstationen wiederum<br />

werden vom zentralen GUIDE Web-Server mit aktualisierten Informationen versorgt.<br />

Zur Positionsbestimmung senden die WaveLAN-Server periodisch Funkbaken (beacons) aus.<br />

Dabei handelt es sich um einfache Datagramme, die eine eindeutige Ortsbezeichnung (ID)<br />

enthalten. Hierüber erhalten die Mobileinheiten die Information, in welcher der Zellen sie sich<br />

gerade befinden. Im worst case liefert das System damit eine Genauigkeit von nur etwa 350<br />

Metern im Rahmen der Positionsbestimmung. Hierbei handelt es sich um die Reichweite der<br />

WaveLAN-Netzwerkkarten. Im allgemeinen ist auf Basis der 802.11-Funknetzwerktechnik<br />

aber eine deutlich höherer Grad von Genauigkeit möglich. Dies liegt begründet in der relativ<br />

schwachen Durchdringung von Gebäuden durch die Funksignale. Die im Zellgebiet vorhandene<br />

Bebauung führt somit zu einer automatischen Begrenzung der Reichweite der Signale<br />

und in der Folge zu einem individuellen Zuschnitt des Zellgebiets.<br />

Schließlich dienen die Basisstationen noch als Gateways für interaktive <strong>Dienste</strong> wie beispielsweise<br />

Buchungen oder Reservierungen.<br />

3.3.3 Begründung der Architekturentscheidung<br />

Als Alternative zur Verwendung der WaveLAN-Funknetzwerktechnik wurde die Nutzung<br />

von GPS zur Positionsbestimmung in Betracht gezogen. Als positive Aspekte beim Einsatz<br />

von GPS wurden folgende Punkte eingeschätzt:<br />

• Die tatsächlich globale Verfügbarkeit von GPS, die eine komplette Abdeckung des Stadtgebiets<br />

ermöglicht hätte.<br />

• GPS-Empfangseinheiten sind relativ kompakt und handlich.<br />

• Der Einsatz von GPS kann relativ kostengünstig erfolgen.<br />

Dem standen aus Sicht der Entwickler von GUIDE aber auch verschiedene Nachteile gegenüber:<br />

• Die Verfügbarkeit einer ausreichenden Zahl von Empfangssatelliten muss für den Betrieb<br />

gewährleistet sein.<br />

• Damit ist die Verwendung von GPS innerhalb von Gebäuden bereits ausgeschlossen.<br />

• Aber auch innerhalb von dicht bebauten Städten kann es zu Empfangsproblemen kommen.<br />

Nachdem man sich ursprünglich für GPS entschieden hatte, kam man in der Folge zu der Einschätzung,<br />

dass die zusätzliche Installation von GPS gegenüber dem bereits vorhandenen<br />

Funknetzwerk keine signifikanten Vorteile bieten würde. Die erreichbare Genauigkeit der<br />

WaveLAN-Technik (zumeist im Bereich von 50 bis 100 Metern) wurde als ausreichend für<br />

die in der Anwendung vorgesehene ortsbezogenen Funktionalität eingeschätzt. Insbesondere<br />

wurde festgestellt, dass eine höhere Genauigkeit wie bei GPS keine Aussage darüber zulässt,<br />

über welche der Sehenswürdigkeiten in seiner unmittelbaren Umgebung der Nutzer Informationen<br />

erhalten möchte. Hierzu müsste das System in der Lage sein zu erkennen, wohin der<br />

Blick des Besuchers aktuell gerichtet ist. Da ferner über GPS keine Möglichkeit zur Kommunikation<br />

besteht, hätte die Einführung von GPS die Verwendung des WaveLAN-Netzes auch<br />

nicht obsolet gemacht.


58 Beispiele ortsbasierter <strong>Dienste</strong><br />

3.4 Erfahrungen<br />

Nach der Implementierung und Installation des GUIDE-Systems startete eine Feldstudie, in<br />

der über vier Wochen hinweg insgesamt 60 Touristen zu ihren Erfahrungen im Umgang mit<br />

dem System befragt wurden. Ziele der Interviews und Beobachtungen war, verschiedene Aspekte<br />

wie beispielsweise die Akzeptanz durch den Benutzer und Erfahrungen mit der Granularität<br />

der Positionsbestimmung näher zu beleuchten.<br />

Die wichtigsten Ergebnisse dieser Studie waren:<br />

• Die große Mehrheit (59/60) fand Gefallen an der Nutzung und im Umgang mit dem System<br />

zur Erkundung der Sehenswürdigkeiten und Attraktionen der Stadt.<br />

• Alle Nutzer schätzten die Information über ihren aktuellen Standort und die Navigationsfunktionen<br />

als nützlich und verlässlich ein.<br />

• Die Mehrheit (45/60) war zufrieden mit Größe und Gewicht der Mobileinheit.<br />

• Auch die Mehrheit der Nutzer ohne Weberfahrung (21/22) hatte keine Probleme im Umgang<br />

mit und bei der Bedienung der Anwendung.<br />

• “Jüngere” Nutzer (10-20) waren aktiver in der Nutzung, d.h. sie riefen im Schnitt doppelt<br />

so viele Informationen aus dem System ab, als andere Benutzergruppen.<br />

Weitere Erfahrungen in der Folgezeit zeigten, dass die automatischen Tourenvorschläge des<br />

Systems eher abgelehnt wurden. Der Grund liegt im wesentlichen im Initialaufwand durch die<br />

explizite Eingabe der persönlichen Präferenzen. Hieran lässt sich gut erkennen, wie elementar<br />

die implizite Erstellung eines Anwenderprofils für die allgemeine Akzeptanz personalisierter<br />

Systeme ist. Später fix programmierte Standardtouren wurden gut angenommen.<br />

3.5 Weiterentwicklung<br />

Zum Zeitpunkt der Konzeption waren zellbasierte Systeme noch nicht verfügbar. Einer der<br />

Vorteile dieser Systeme liegt in der höheren Genauigkeit aufgrund der kleineren Zellgrößen.<br />

Derzeit wird im Projekt GUIDE II die Erweiterung von GUIDE um mikro-zellulare Techniken<br />

(wie Bluetooth) vorgenommen [CMSD00].<br />

Der Wunsch nach einer höheren Genauigkeit resultiert unter anderem aus der vorgesehenen<br />

Erweiterung von GUIDE um die Möglichkeit zur sozialen Kooperation und Interaktion der<br />

Nutzer. Mehrere Anwender, zum Beispiel Mitglieder einer Reisegruppe, sollen untereinander<br />

oder auch mit dem Touristen-Informationsbüro Nachrichten austauschen können. Ferner sollen<br />

die künftigen GUIDE-Nutzer z.B. virtuelle Notizen an bestimmten Orten hinterlegen können,<br />

so dass eine Art Erlebnisforum für die jeweiligen Orte entsteht. Auch soll über diese Mechanismen<br />

der eigene Standort an die anderen Gruppenmitglieder übermittelt werden können.<br />

Spätestens hier kommen allerdings die üblichen Fragen in Zusammenhang mit dem Schutz<br />

der Privatsphäre und der Vertraulichkeit ins Spiel.<br />

4 Ausblick und aktuelle Projekte<br />

Der Branchenverband Eco kommt in einer aktuellen Studie zu dem Ergebnis, dass ortsbasierte<br />

<strong>Dienste</strong> entscheidend für die gesamte Mobilfunkbranche und ein Schlüsselfaktor für den Erfolg<br />

des Mobile-Business sein werden [ECO03]. Die Anwendungen im Bereich ortsbasierter<br />

<strong>Dienste</strong> seien allerdings bei weitem noch nicht ausgereift. Den befragten Experten zufolge,<br />

werden sich Nachfrage und Angebot von Anwendungen innerhalb der kommenden Jahre<br />

erheblich verstärken. 80 Prozent der Befragten rechnen im Jahr 2005 mit dem endgültigen<br />

Durchbruch von ortsbasierten <strong>Dienste</strong>n. Als wichtigste Branche für den Einsatz von ortsbasierten<br />

<strong>Dienste</strong>n wurde dabei mit 96 Prozent der Bereich Touristik genannt. Dies lässt ver-


59 Edgar Merl<br />

muten, dass die Entwicklung mobiler kontextbewusster Reiseführer künftig verstärkt im<br />

Blickpunkt des Forschungsinteresses stehen wird.<br />

Ein aktuelles Projekt, das in diesem Zusammenhang interessant erscheint, sei abschließend<br />

noch kurz erwähnt:<br />

Im Mai 2002 wurde mit m-ToGuide - a mobile Tourism Guide - ein von der Europäischen<br />

Union (EU) gefördertes Projekt vorgestellt, welches die Entwicklung eines mobilen europäischen<br />

Reiseführers zum Ziel hat [MTG03]. Ab Mai 2003 (oder August 2003) werden für<br />

sechs Monate erste Praxistests in Madrid, London und Siena durchgeführt. Der Reiseführer<br />

basiert auf einem PDA und verwendet GPS zur Positionsbestimmung. Abhängig von der Position<br />

sollen dem Benutzer ortsbezogene Informationen und Dienstleistungen auf Basis von<br />

UMTS oder GPRS zur Verfügung gestellt werden. Unter anderem sollen Audio und Video-<br />

Clips über Sehenswürdigkeiten, Informationen über aktuelle Veranstaltungen und die Nutzung<br />

von <strong>Dienste</strong>n von Flughäfen und Verkehrsunternehmen bereitgestellt werden. Insbesondere<br />

sollen Reservierungen und Buchungen von Leistungen möglich sein. Die Berücksichtigung<br />

von Interessen und Vorlieben des Benutzers soll eine personalisierte Aufbereitung der<br />

zur Verfügung gestellten Informationen und Dienstleistungen ermöglichen. Insgesamt 17<br />

Unternehmen aus sechs europäischen Ländern, die in den Bereichen der Touristik, mobilen<br />

Kommunikation, Telekommunikation, IT-Beratung und Geomantik tätig sind, beteiligen sich<br />

an dem von der EU geförderten Projekt.<br />

Referenzen<br />

[AAH+97] Abowd, G. D.; Atkeson, C. G.; Hong, J.; Long, S.; Kooper, R.; Pinkerton, M. (1997):<br />

Cyberguide: A mobile contextaware tour guide,<br />

Baltzer/ACM Wireless Networks, Band 3 (5), 1997, Seiten 421-433<br />

[CDM+00] Cheverst, K.; Davies, N.; Mitchell, K.; Friday, A.; Efstratiou, C. (2000):<br />

Developing a Context-aware Electronic Tourist Guide: Some Issues and Experiences,<br />

In Proceedings of CHI‘00, Netherlands, April 2000, pp 17-24, ACM Press.<br />

[ChKo00] Chen, G.; Kotz, D. (2000):<br />

A Survey of Context-Aware Mobile Computing Research,<br />

Dartmouth Computer Science Technical Report TR2000-381, 11/2000.<br />

[CMD02] Cheverst, K.; Mitchell, K.; Davies, N. (2002):<br />

The Role of Adaptive Hypermedia within a Context-Aware Tourist GUIDE,<br />

Communications of the ACM, special issue on adaptive Web-based systems and<br />

adaptive hypermedia. Vol. 45, No 5, pp. 47-51. May 2002.<br />

[CMSD00] Cheverst, K.; Mitchell, K.; Smith, G.; Davies, N. (2000):<br />

Exploiting Context to Support Social Awareness and Social Navigation,<br />

In Proceedings of the Workshop on 'Awareness and the WWW' at CSCW '00,<br />

Philadelphia, 2nd Dec 2000.<br />

[DCME01] Davis, N.; Cheverst, K.; Mitchell, K.; Efrat, A. (2001):<br />

Using and Determining Location in a Context Sensitive Tour Guide,<br />

IEEE Computer,Vol. 34, pp 35-41, 08/2001.<br />

[ECO03] Verband der deutschen Internetwirtschaft (2003):<br />

eco-Studie: Location-Services erfolgskritisch für M-Business,<br />

http://www.eco.de/servlet/PB/menu/1204471/index.html (Stand: 25.03.2003).<br />

[FCE03]<br />

Future Computing Environments (FCE) Group am Georgia Institute of Technology:<br />

Cyberguide Project Page,<br />

http://www.cc.gatech.edu/fce/cyberguide/ (Stand: 25.03.2003).


60 Beispiele ortsbasierter <strong>Dienste</strong><br />

[MTG03] Mobile Tourism Guide Partner:<br />

m-ToGuide<br />

http://www.mtoguide.org (Stand: 25.03.2003)<br />

[SAW94] Schilit, B.; Adams, N.; Want R. (1994):<br />

Context-aware computing applications,<br />

In Proceedings of IEEE Workshop on Mobile Computing Systems and Applications,<br />

Santa Cruz, California, December 1994, pages 85-90, IEEE Computer Society Press.<br />

[Want+95] Want, R. et al. (1995):<br />

An Overview of the PARCTAB Ubiquitous Computing Environment,<br />

IEEE Personal Communications, vol 2, no 6, Dec 1995, pp. 28-43.<br />

[WHFG92] Want, R.; Hopper, A.; Falcao, V.; Gibbons, J. (1992):<br />

The Active Badge Location System,<br />

ACM Transactions on Information Systems 10(1) pp. 91-102.


<strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />

Andreas Werlemann<br />

Zusammenfassung: Bei ortsbasierten <strong>Dienste</strong>n werden die den Anwender interessierenden<br />

Informationen anhand dessen Position spezifiziert. <strong>Ortsbasierte</strong> <strong>Dienste</strong> können in<br />

Mobilfunknetzen bereitgestellt werden. Diese Arbeit stellt die technischen Voraussetzungen,<br />

insbesondere die wichtigsten Verfahren zur Positionsbestimmung, ortsbasierter<br />

<strong>Dienste</strong> in Mobilfunknetzen dar. Diese Verfahren eignen sich in unterschiedlichem Maße<br />

für die diversen ortsbasierten <strong>Dienste</strong>, von denen einige exemplarisch dargestellt werden.<br />

1 Einleitung<br />

Bei ortsbasierten <strong>Dienste</strong>n oder Location Based Services (LBS) handelt es sich um auf den<br />

Standort des Anwenders bezogene Anwendungen [DB03; Ba01; Di01]. D.h. bei LBS kann<br />

ein elektronisches Informationssystem die Relevanz von Informationen bezüglich des Standorts<br />

des Anwenders beurteilen [Bae02]. <strong>Ortsbasierte</strong> <strong>Dienste</strong> werden u.a. im Rahmen von<br />

Mobilfunknetzen bereitgestellt [Se01]. LBS gelten neben UMTS als die Zukunftstechnologie<br />

im Bereich des Mobilfunks [Ba01].<br />

2 Technische Voraussetzungen<br />

<strong>Ortsbasierte</strong> <strong>Dienste</strong> werden u.a. in Mobilfunknetzen betrieben [Se01]. Als Mobilfunk wird<br />

die funktechnische Übertragung von einem mobilen Sender (Mobilfunkendgerät, sog. Handy)<br />

oder einem stationären Sender (Basisstation) zu einem mobilen Empfänger (Mobilstation)<br />

bezeichnet [Li99]. Für sicherheitskritische Anwendungen oder bei Notwendigkeit globaler<br />

Abdeckung durch das System ist ein Satellitennetzwerk (z.B. Inmarsat C oder D+) erforderlich,<br />

während das GSM-Mobilfunknetz hingegen nicht ausreicht [DB03]. Gleichwohl soll im<br />

Folgenden das GSM-Mobilfunknetz angenommen werden. Der Anbieter des ortsbasierten<br />

<strong>Dienste</strong>s sowie der Betreiber des Mobilfunknetzes können identisch oder auch voneinander<br />

unabhängig sein. Unabhängige Dienstanbieter müssen mit den einzelnen Netzbetreibern<br />

jeweils separate Verträge abschließen, wenn sie ihre ortsbasierten <strong>Dienste</strong> allen Mobilfunkkunden<br />

anbieten wollen [Se01]. Gleichzeitig unterhält heutzutage jeder Netzbetreiber (D1,<br />

D2, E1 und E2) ein eigenes Portal für ortsbasierte <strong>Dienste</strong>, die nur von den eigenen Kunden<br />

genutzt werden können [Se01; BG01]. Erster Anbieter im deutschen Markt für LBS war D2<br />

[BG01].<br />

Nahezu alle Anbieter ortsbasierter <strong>Dienste</strong> setzen für die Nutzung ihrer <strong>Dienste</strong> ein auf ihrem<br />

WAP-Portal registriertes GSM-Handy mit WAP als Benutzeroberfläche voraus [Se01]. Für<br />

die Nutzung eines Teils der ortsbasierten <strong>Dienste</strong> von Viag Interkom und Vodaphone reicht<br />

anstelle eines WAP-fähigen Handys jedes SMS-fähige Mobilfunkendgerät aus [BG01]. Dabei<br />

erfolgen sowohl die Suchanfrage als auch die Übermittlung des Suchergebnisses per SMS<br />

[Ba01], einem von GSM spezifizierten Teleservice mit der Fähigkeit, Textnachrichten mit<br />

einer maximalen Länge von 160 Zeichen zu übertragen [Bi02]. Dem Vorteil der Vertrautheit<br />

der Anwender mit dem SMS-Dienst, steht die Beschränkung auf textbasierte Daten als Nachteil<br />

von SMS gegenüber. Zudem ist das Verhältnis von übertragener Information zu Kosten<br />

für den Anwender bei SMS relativ ungünstig, so dass dieses Verfahren insbesondere für solche<br />

Anwendungen ausscheidet, bei denen in regelmäßigen zeitlichen Abständen Informationen<br />

übermittelt werden müssen [DB03]. Obwohl WAP-Handys im Gegensatz zu nur SMSfähigen<br />

Handys nicht auf Textnachrichten beschränkt sind [DB03], besteht auch bei WAP-


62 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />

fähigen Handys das Problem der begrenzten Darstellbarkeit graphischer Informationen.<br />

Hochauflösende Farbdisplays wären hier wünschenswert. Teilweise werden auch sprachgesteuerte<br />

LBS prognostiziert, bei denen die bis dato lediglich über WAP-Seiten abrufbaren<br />

Informationen über Sprachportale zugänglich gemacht werden, d.h. die Kommunikation zwischen<br />

Benutzer und Portal vollständig mittels Spracherkennungs- und Sprachsynthesesysteme<br />

abläuft [Ba01].<br />

<strong>Ortsbasierte</strong> <strong>Dienste</strong> erlangen ihren besonderen Nutzen durch den Ortsbezug der übermittelten<br />

Information. Dabei könnte der Standort vom Anwender zwar grundsätzlich auch z.B. manuell<br />

über die Tastatur des Mobilfunkendgeräts vorgegeben werden [DB03], die automatische Bestimmung<br />

des Standorts des Anwenders stellt jedoch einen Komfortgewinn durch LBS dar<br />

[Ba01]. Für die Zwecke dieser Arbeit wird die zweite Alternative angenommen. Im dritten<br />

Abschnitt werden derartige Verfahren der Positionsbestimmung vorgestellt.<br />

Unabhängig von dem verwendeten Verfahren der Positionsbestimmung stellt das Ergebnis<br />

eine Koordinate ggf. mit einer Angabe zur Genauigkeit dar. Diese Angabe erlangt ihren Wert<br />

z.B. durch Beschreibung relativ zu einer bekannten Örtlichkeit. Für viele Anwendungen (z.B.<br />

zu Navigationszwecken) ist die sinnvollste Wiedergabe von Positionsangaben graphischer<br />

Natur. Eine Möglichkeit ist eine Landkarte. Die hierfür notwendigen Daten können entweder<br />

in Form einzelner Rasterpunkte oder als Vektoren beschrieben sein: die Darstellung mittels<br />

Rasterpunkte ist detaillierter, die Darstellung mittels Vektoren erfordert ein geringeres Datenvolumen<br />

und ist somit schneller zu übertragen. Mehrere Datenformate auf Basis von XML<br />

sind entwickelt worden, die ggf. in Kombination für eine konkrete Anwendung genutzt werden.<br />

Die Karte selbst wird üblicherweise durch Überlagern mehrerer Schichten aufgebaut.<br />

Diese Schichten stellen jeweils bestimmte Elemente der Topographie dar [DB03].<br />

Neben dem Mobilfunknetz bzw. dem zugehörigen Mobilfunkendgerät sowie den Verfahren<br />

der Positionsbestimmung werden Inhalte sowie redaktionelles know-how für die geeignete<br />

Präsentation dieser Inhalte benötigt [Bae02]. Inhalte werden von Partnern geliefert, mit denen<br />

die Portalbetreiber kooperieren [BG01]. Konkrete Beispiele ortsbasierter <strong>Dienste</strong> werden im<br />

vierten Abschnitt dieser Arbeit gegeben. Dort wird auch der Versuch einer Systematisierung<br />

ortsbasierter <strong>Dienste</strong> unternommen.<br />

Die Mobilfunkbetreiber verfügen über die Kenntnis der Position des Anwenders und können<br />

für diese Information ein Entgelt der Anbieter von LBS-Inhalten verlangen. Gleichzeitig befinden<br />

sich die Mobilfunkbetreiber in der Lage, Zahlungsdienste anzubieten und die Endabrechnung<br />

für die Anwender vorzunehmen [DB03]. Die Abrechnung der <strong>Dienste</strong> erfolgt i.d.R.<br />

über die WAP-Gebühren. Im Falle unabhängiger Dienstanbieter werden die WAP-Gebühren<br />

zwischen dem Netzbetreiber und dem Dienstanbieter geteilt [Se01]. Die Anwender müssen<br />

sich daher nicht bei jedem einzelnen unabhängigen Anbieter ortsbasierter <strong>Dienste</strong> registrieren<br />

lassen [DB03]. Im Gegensatz zu der leitungsvermittelten Übertragung von GSM ermöglicht<br />

GPRS eine packetvermittelte Übertragung [Bi02]: während bei den heute noch üblichen<br />

GSM-Handys in Abhängigkeit von der Nutzungszeit abgerechnet wird, bieten GPRS-Handys<br />

eine zeitunabhängig abgerechnete Übertragungstechnik. Viag Interkom eröffnet seine LBS<br />

zudem auch Kunden mit LOOP-Prepaid-Karte [BG01].<br />

Den zahlreichen mobilen Positionssystemen und Technologien fehlt es oftmals an Interoperabilität.<br />

Vor diesem Hintergrund haben im Oktober 2000 die Firmen Ericsson, Motorola und<br />

Nokia das Location Interoperability Forum (LIF) gegründet, um Empfehlungen zur Herstellung<br />

von Interoperabilität durch standardisierte Zugangsprozesse zu erarbeiten [Di01]. LIF<br />

kooperiert zudem mit der neuen Open Mobile Alliance (OMA), die die Arbeit der Open Mo-


63 Andreas Werlemann<br />

bile Architecture Initiative und des WAP-Forums fortführt und die große Bedeutung bei der<br />

Entwicklung zahlreicher UMTS-Anwendungen einschließlich LBS hat [AAB03].<br />

3 Verfahren der Positionsbestimmung<br />

3.1 Ansätze einer Systematisierung<br />

<strong>Ortsbasierte</strong> <strong>Dienste</strong> verwenden eines von mehreren verfügbaren Verfahren zur Positionsbestimmung,<br />

die alle ihre Beschränkungen haben. Bei einigen muss das Mobilfunkgerät, mindestens<br />

jedoch die SIM-Card, bei anderen die Netzwerkinfrastruktur geändert werden [DS01].<br />

Eine denkbare Systematisierung [RG02] unterscheidet<br />

• auf der Mobilfunkeinheit basierende Verfahren von<br />

• netzwerkbasierten Verfahren.<br />

Bei auf der Mobilfunkeinheit basierenden Verfahren wird die Position dezentral durch das<br />

mobile Endgerät berechnet. Dabei werden solche Informationen berücksichtigt, die von Seiten<br />

des Netzwerks zur Verfügung gestellt werden. Bei netzwerkbasierten Verfahren wird die Position<br />

zunächst innerhalb des Netzwerks z.B. durch eine zentrale Auswerteeinheit ermittelt.<br />

Anschließend wird die Position an das mobile Endgerät übertragen.<br />

Einzelne Verfahren (z.B. Cell-ID-Verfahren, vgl. 3.2) können jedoch sowohl netzwerk- als<br />

auch endgerät-basiert sein [DS01], so dass eine an diesem Kriterium orientierte Systematisierung<br />

nicht eindeutig ist.<br />

Eine an den unterschiedlichen Funktionsweisen bzw. verwendeten technischen Wirkungsprinzipien<br />

orientierte Systematisierung [Ro03] unterscheidet Verfahren, die<br />

• an der Richtung, aus der ein Signal empfangen wird, oder<br />

• an der Laufzeit eines Signals vom Sender zum Empfänger oder<br />

• an der auf dem Weg vom Sender zum Empfänger zu verzeichnenden Signalabschwächung<br />

oder<br />

• an der begrenzten Reichweite drahtloser Übertragungstechnologien<br />

• ansetzen.<br />

Im Folgenden sollen primär die drei praktisch wichtigsten Verfahren vorgestellt und soll auf<br />

weitere Verfahren nur kurz eingegangen werden.<br />

3.2 Cell-ID<br />

Das als Cell of Origin (COO) [RG02], Cell Global Identity (CGI) [Ro03] oder Cell-ID bezeichnete<br />

Verfahren gelangt in Positionierungssystemen mit Zellenstruktur zur Anwendung<br />

und basiert auf dem Umstand, dass drahtlose Übertragungstechnologien eine begrenzte<br />

Reichweite haben, ein gesendetes Signal also nur in einem begrenzten Bereich, der Zelle,<br />

empfangen werden kann [Ro03]. Bei der Funkzelle handelt es sich um den kleinsten geographischen<br />

Funkversorgungsbereich. Dieser wird von einer Basisstation bedient, deren Sendeleistung<br />

die Größe der Funkzelle determiniert [Li99]. In jedem Moment ist das Mobilfunkgerät<br />

bei einer Basisstation angemeldet [DB03]. Das Verfahren basiert auf der Annahme, dass<br />

sich das mobile Endgerät geographisch in derjenigen Zelle befindet, die durch die Basisstation,<br />

bei der das Mobilfunkgerät angemeldet ist, am besten bedient werden kann [DS01]. Die<br />

Hauptschwierigkeit dieses Verfahrens liegt in der korrekten Vorhersage der geographischen<br />

Abdeckung der Zellen, da die „beste“ Basisstation nicht immer die physikalisch am nächsten<br />

gelegene ist. Die Verlässlichkeit und Genauigkeit der erhaltenen Position hängen von der Präzision<br />

der Vorhersage der Funkverhältnisse ab [DS01]. Die Lokalisierung des Handys mittels


64 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />

Cell-ID ist um so genauer, je kleiner die Zelle ist [DS01]. Bei der Festlegung der Funkzellengröße<br />

werden die geographischen Gegebenheiten und die Anzahl der zu versorgenden Mobilfunkteilnehmer<br />

berücksichtigt, d.h. in Ballungsgebieten haben die Funkzellen deutlich geringere<br />

Abmessungen als in ländlichen Gebieten [Li99]. Während die Größe der Funkzellen in<br />

städtischen Gegenden typischerweise bei rund 500m liegt, kann sich diese in ländlichen Gegenden<br />

auf bis zu 15km erhöhen [DB03]. Die Geschwindigkeit des Verfahrens liegt üblicherweise<br />

bei 3sec. [RG02]. Der wesentliche Vorteil des Verfahrens besteht in den niedrigen<br />

Aufbau- und Betriebskosten sowie in dem Umstand, dass keine speziellen Entwicklungen für<br />

das Mobilfunkgerät benötigt werden [DS01].<br />

Eine weitergehende Eingrenzung auf einen Kreissektor wird durch die ergänzende Anwendung<br />

des unten dargestellten Verfahrens Angle of Arrival ermöglicht [Ro03]. Da eine Funkzelle<br />

üblicherweise von mehreren Antennen gebildet wird, die für jeweils ein Teilsegment der<br />

Zelle zuständig sind, kann der Standort des Handys über die zuständige Antenne weiter eingegrenzt<br />

werden [DB03; Ba01].<br />

3.3 E-OTD<br />

Enhanced Observed Time Difference (E-OTD) verwendet Triangulation zur Positionsbestimmung<br />

[DB03]. Dabei wird von mindestens drei Basisstationen ein Funksignal ausgesendet.<br />

Das Mobilfunkendgerät misst die Laufzeiten der Signale und übermittelt die daraus errechneten<br />

Laufzeitdifferenzen an eine zentrale Auswerteeinheit (Mobile Location Center).<br />

Diese kann aus den übermittelten Laufzeitdifferenzen die Position des Mobilfunkendgeräts<br />

bestimmen [RG02]. Zusätzlich werden die Signallaufzeiten von den Basisstationen zu der<br />

Mobilstation mit der Signallaufzeit von den Basisstationen zu einer Location Measurement<br />

Unit (LMU), deren Abstand zu den Basisstationen bekannt ist, verglichen [DB03]. E-OTD<br />

gelangt insbesondere im Zusammenhang mit GSM-Netzen zur Anwendung [Ro03]. E-OTD<br />

ermöglicht eine Steigerung der Genauigkeit gegenüber Cell-ID um den Faktor 10 [DB03].<br />

Die Angaben zur Genauigkeit des Verfahrens variieren von ca. 150-500m [DS01] bis ca. 30m<br />

[Ba01]. Die Antwortgeschwindigkeit liegt bei 5sec. [RG02]. Das Verfahren erfordert jedoch<br />

zugleich signifikante Investitionen des Mobilfunkbetreibers sowie ein geringes Softwareupdate<br />

für die Mobilstationen [DB03, DS01, RG02].<br />

3.4 Positionsbestimmung mittels GPS<br />

3.4.1 Allgemein<br />

Beim sog. Global Positioning System (GPS) handelt es sich um ein satellitengestütztes globales<br />

System zur Positionsbestimmung [Ro03]. Dieses wurde seit 1978 vom US-amerikanischen<br />

Verteidigungsministerium ursprünglich zu militärischen Zwecken entwickelt und in<br />

1995 als ein aus 24 Satelliten bestehendes System für voll funktionstüchtig erklärt. Lieferte<br />

GPS für zivile Zwecke zunächst nur Positionsangaben mit eingeschränkter Genauigkeit (sog.<br />

selective availability), so wurde die künstliche Einschränkung der Genauigkeit am 01.05.2000<br />

mitternachts abgeschaltet, so dass seitdem für jedermann Positionsangaben mit einer Genauigkeit<br />

von 3-15m erhältlich sind [DB03, Ro03]. Ein europäisches Parallelsystem namens<br />

GALILEO ist im Aufbau befindlich [Ro03]. Dieses soll in 2008 zur Verfügung stehen und<br />

sich durch höhere Verfügbarkeit und Genauigkeit auszeichnen [AAB03].<br />

Bei der Positionsbestimmung unter Nutzung des Global Positioning System (GPS) erzeugen<br />

Satellit und Empfänger zu exakt derselben Zeit ein Signal, sog. Pseudo Random Code. Der<br />

Empfänger vergleicht bei Empfang des vom Satelliten generierten Signals dieses mit dem


65 Andreas Werlemann<br />

selbst erzeugten Signal. Der dabei festzustellende Zeitversatz entspricht der Laufzeit [RG02,<br />

Ro03]. Hieraus berechnet der Empfänger die Entfernung x zum Satelliten, so dass bei bekannter<br />

Position des Satelliten die Position des Empfängers als auf einer durch den Radius x<br />

beschriebenen Halbkugel befindlich festgelegt wird. Durch die Messung eines weiteren Satelliten<br />

kann der potentielle Standort des Empfängers auf die Schnittfläche von zwei Halbkugeln<br />

reduziert werden. Nach Messung der Entfernung zu einem dritten Satelliten kann sich die<br />

Position nur noch an zwei möglichen Punkten befinden, davon ein Punkt, der zu weit von der<br />

Erdoberfläche entfernt ist [DB03, Ro03]. Für eine Positionsbestimmung in drei Dimensionen<br />

sind genau 4 Satelliten bzw. von diesen ausgesandte Signale erforderlich [Ro03, DB03]. Bei<br />

sog. Assisted GPS (A-GPS) werden die Messwerte über Mobilfunk zwecks Positionsberechnung<br />

zu einer zentralen Auswerteeinheit übermittelt [RG02]. Die Genauigkeit liegt bei ca. 3-<br />

15m [DB03].<br />

GPS ist aufgrund eines schwachen Signals innerhalb von Gebäuden und zwischen hohen Gebäuden<br />

(sog. urban canyon) nicht verfügbar [DB03]. Darüber hinaus erfordert die Nutzung<br />

des GPS zur Positionsbestimmung die Integration eines vollständigen Satellitenempfängers in<br />

das Mobilfunkendgerät [DS01]. Allerdings ist die Integration der GPS-Komponente relativ<br />

kostengünstig und sind keine Modifikationen am Netz erforderlich [RG02].<br />

3.4.2 Differential GPS<br />

Beim Durchlaufen von Ionosphäre und Troposphäre kann es zu leichten Verzögerungen des<br />

Satelliten-Signals kommen [DB03]. Daher wird bei Differential GPS (D-GPS) ein Netzwerk<br />

stationärer Empfänger mit exakt bekannter Position als Referenz verwendet: Indem der stationäre<br />

Empfänger unter Verwendung von GPS seine Position berechnet und die Abweichung<br />

der gemessenen von der tatsächlichen Position bestimmt, lässt sich die Genauigkeit der GPS-<br />

Positionsbestimmung feststellen bzw. ein Korrekturfaktor berechnen. Dieser Korrekturfaktor<br />

wird sodann an die mobilen Empfänger übermittelt, damit diese ihre Positionsberechnungen<br />

entsprechend korrigieren können [DB03, RG02, Ro03]. Die Genauigkeit liegt bei ca. 5m<br />

[RG02]. Das Verfahren erfordert die Installation eines Referenzservers im Netzwerk, die Investitionen<br />

sind jedoch geringer als bei E-OTD [DS01].<br />

3.5 Sonstige Verfahren<br />

3.5.1 Angle of Arrival<br />

Antennen mit Richtungscharakteristik können die Richtung ermitteln, aus der ein bestimmtes<br />

Signal eintrifft [Ro03]. Bei dem Verfahren Angle of Arrival (AOA) – auch direction finding<br />

genannt - messen mindestens zwei Antennen bzw. Basistransmitterstationen die Richtung, aus<br />

der das vom mobilen Endgerät ausgestrahlte Signal stammt. Diese Messwerte werden an eine<br />

zentrale Auswerteeinheit übermittelt und dort zur Berechnung der Koordinaten verwendet<br />

[RG02].<br />

3.5.2 Signal Attenuation<br />

Bei Signal Attenuation (SA) übermittelt das Mobilfunkendgerät eine Information über die<br />

Stärke des empfangenen Signals an die Basisstation. Indem an dieser zugleich die Information<br />

über die tatsächliche Stärke des Signals vorliegt, kann anhand der als Differenz feststellbaren<br />

Signalabschwächung die Entfernung des Mobilfunkendgeräts zur Basisstation geschätzt werden.<br />

Dieses Verfahren besitzt kaum praktische Relevanz [RG02].


66 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />

3.5.3 Radio Camera System<br />

Das Verfahren Radio Camera System bzw. Location Fingerprinting Technology basiert auf<br />

dem Prinzip der Mustererkennung. Dabei wird der Umstand ausgenutzt, dass das aus einer<br />

bestimmten geographischen Lage gesandte Signal (eines Funktelefons) ein bestimmtes Muster<br />

(finger-print) besitzt, das mit den in einer Datenbank gespeicherten Mustern verglichen<br />

und bei Übereinstimmung erkannt werden kann [RG02].<br />

4 Inhalte ortsbasierter <strong>Dienste</strong><br />

4.1 Überblick<br />

<strong>Ortsbasierte</strong> <strong>Dienste</strong> lassen sich grob in zwei Kategorien einteilen. Zum einen existieren<br />

<strong>Dienste</strong>, bei denen der Anwender einmal seine Position abfragt, um diese Angabe anschließend<br />

wiederholt für Anfragen ortsabhängiger Informationen zu verwenden. Dabei handelt es<br />

sich um <strong>Dienste</strong>, die zur Lokalisierung des eigenen Standorts (Navigation) oder nahegelegener<br />

Ziele dienen. Zum anderen existieren <strong>Dienste</strong>, die die Position eines bestimmten Objekts<br />

verfolgen, nachdem sie durch das Erfüllen einer zuvor festgelegten Bedingung ausgelöst wurden.<br />

Die Bedingung kann beispielsweise das Überschreiten der Zellengrenzen innerhalb eines<br />

Mobilfunknetzes oder das Absenden eines Notrufs sein [DB03]. Die Unterscheidung wird<br />

also danach getroffen, ob der Anwender seine eigene Position bestimmt oder ob Dritte die<br />

Position des Anwenders bzw. der mobilen Einheit bestimmen.<br />

Eine Aufzählung ortsbasierter <strong>Dienste</strong>, die sich am Marktpotential orientiert, [DS01] unterscheidet<br />

• Informationsdienste,<br />

• Notrufdienste (z.B. Pannenhilfe),<br />

• <strong>Dienste</strong> zur Überwachung / zum Tracking von Fahrzeugflotten, etc. (B2B-Dienst) und<br />

• <strong>Dienste</strong>, mit denen der Mobilfunknetzbetreiber seine <strong>Dienste</strong> optimieren kann (z.B.<br />

Optimierung des Pricing).<br />

Informationsdienste unterteilen sich dabei weiter in Business-to-Consumer-<strong>Dienste</strong> (B2C),<br />

Consumer-to-Business-<strong>Dienste</strong> (C2B) und Consumer-to-Consumer-<strong>Dienste</strong> (C2C):<br />

• B2C-<strong>Dienste</strong> ermöglichen Unternehmen, Angebote an Anwender in einer bestimmten<br />

Region zu senden.<br />

• Bei C2B-<strong>Dienste</strong>n veranlasst der Anwender die Bestimmung der eigenen Position, um<br />

Informationen über Angebote (z.B. Gaststätten, Tankstellen) in seiner unmittelbaren Umgebung<br />

abzufragen.<br />

• C2C-<strong>Dienste</strong> ermöglichen es dem Anwender, bestimmte Personen bzw. weitere zu einer<br />

bestimmten Gruppe gehörende Anwender zu lokalisieren, die sich in einer bestimmten<br />

Region aufhalten.<br />

Die meisten Informationsdienste verwenden Cell-ID zur Positionsbestimmung, dieses Verfahren<br />

entspricht den Genauigkeitsanforderungen von Pricing- und Informationsdiensten [DS01].<br />

Es ist jedoch zu ungenau für Notrufdienste und für Routenplanung [Ba01]. <strong>Dienste</strong> zur Überwachung<br />

/ zum Tracking von Fahrzeugflotten, etc. verwenden GPS [DS01].<br />

4.2 Ausgewählte Beispiele<br />

4.2.1 Zielgruppenspezifisches Marketing (B2C-<strong>Dienste</strong>)<br />

B2C-<strong>Dienste</strong> ermöglichen Unternehmen, Angebote an solche Konsumenten zu senden, die<br />

sich in einer bestimmten Region befinden. Dadurch wird zielgruppenspezifisches Marketing<br />

durch lokal begrenzte Produktpromotionen oder Werbekampagnen via Handy an solche Kon-


67 Andreas Werlemann<br />

sumenten ermöglicht, die diesen Informationsdienst abonniert haben und sich in der jeweiligen<br />

Region aufhalten [DS01]. Der Vorteil ortsbasierter Werbung besteht in der sofortigen<br />

Messbarkeit der Erfolgsquote [DB03].<br />

4.2.2 Informationsdienste für Reisende (C2B-<strong>Dienste</strong>)<br />

Der Mobilfunkbetreiber D2 weist mittels seines entsprechenden LBS den Weg zu der dem<br />

Anwender nächstgelegenen Tankstelle. D2 kooperiert zu diesem Zweck mit den Unternehmen<br />

Aral und Total/Fina, die die notwendigen Informationen bereitstellen [BG01]. Dem LBS-Nutzer<br />

werden die Standorte der Tankstellen in Relation zu seiner aktuellen Position auf dem<br />

Bildschirm des Handys präsentiert [BG01]. Einen Schwachpunkt dieses Angebots bildet der<br />

Umstand, dass nicht sämtliche Tankstellen ausgewiesen werden, sondern nur die von den Kooperationspartnern<br />

betriebenen. Eine ggf. näher gelegene Tankstelle eines dritten Anbieters<br />

wird nicht genannt. Dieser Nachteil geht zu Lasten des LBS-Nutzers [BG01]. Darüber hinaus<br />

erhält der LBS-Nutzer nur bei manueller Eingabe des aktuellen Standorts (Adresse) zusätzlich<br />

eine Streckenbeschreibung. D1 bietet einen LBS, der nahegelegene Tankstellen mit günstigen<br />

Spritpreisen ortet [BG01].<br />

Der PASSO Verkehrsinformationsdienst von D2-Vodafone und E-Plus [Bae02] liefert aktuelle<br />

Verkehrsinformationen für den Umkreis von 15 Kilometern um die aktuelle Funkzelle.<br />

Das Angebot wird um eine Routenplanung ergänzt, die allerdings nicht in der Lage ist, die<br />

aktuelle Position als Startort der Routenplanung zu übernehmen. Demgegenüber kann der<br />

Nutzer bei Viag Interkom bezüglich der in einem beliebigen Informationsdienst dieses Anbieters<br />

(MyGenion/M-Kompass) ermittelten Zieladresse den Weg dorthin von dem aktuellen<br />

Standort aus durch einen Routenplaner ermitteln lassen [BG01]: z.B. Anfrage des Wegs vom<br />

aktuellen Standort zu der nächstgelegenen Tankstelle.<br />

Der von D2 angebotene LBS tourisline ermittelt Hotels in der Nähe des Anwenders. Neben<br />

der Angabe der ungefähren Entfernung erhält der LBS-Nutzer die Möglichkeit, per Klick telefonisch<br />

die Zimmerlage zu klären und eine Reservierung vorzunehmen, in Einzelfällen das<br />

Zimmer auch direkt online zu buchen. Ein entsprechendes Angebot eröffnet D1 seinen Kunden<br />

unter dem Namen Hotelkatalog. Auch bei dem mobilfunkbetreiberunabhängigen LBS-<br />

Anbieter Jamba kann ein Hotelführer genutzt werden, der zudem auch gleich die Buchung im<br />

Netz ermöglicht. Informationen über nahegelegene Restaurants bietet D1 mit dem Michelin-<br />

Führer und dem LBS Essen und Co. [BG01].<br />

D1 sendet dem Reisenden eine auf dessen Standort bezogene Liste mit örtlichen Taxiunternehmen,<br />

mit denen dieser per Klick telefonisch Kontakt aufnehmen kann. Auch Jamba offeriert<br />

einen sog. Taxifinder [BG01].<br />

Schließlich sind noch Anwendungen denkbar, bei denen der Anwender Informationen über<br />

seine unmittelbare Umwelt abfragt, jedoch ohne dass es sich dabei um kommerzielle Gelegenheiten<br />

(Einkaufsmöglichkeiten u.ä.) handelt: z.B. ein elektronischer Touristenführer oder<br />

ein interaktiver Roman, dessen Fragmente durch die Bewegung des Empfängers im Stadtraum<br />

gesteuert werden [Bae02].<br />

4.2.3 Personensuche per Handy (C2C-<strong>Dienste</strong>)<br />

Die exemplarisch vorgestellten ortsbasierten Informationsdienste für Reisende wären grundsätzlich<br />

(Ausnahme: der Reisende hat sich verirrt) auch ohne automatische Ortung denkbar.<br />

Anwendungen, die ihren besonderen Reiz durch die automatische Standortbestimmung erlangen<br />

und somit das Potential haben, LBS zu besonderer Popularität zu verhelfen, sind in den<br />

Community-Funktionen bzw. C2C-<strong>Dienste</strong>n zu suchen [Ba01].


68 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />

Für die Funktion „friends around“ werden verschiedene Anwendungsszenarien vorgeschlagen.<br />

Diese reichen von der spontanen Verabredung zum Kinobesuch bis zum handy-vermittelten<br />

blind date. [Ba01]. Ein entsprechendes Angebot wird seit April 2003 von dem Hamburger<br />

start-up-Unternehmen Mobiloco über den Mobilfunkanbieter D2-Vodafone angeboten.<br />

Kooperationsverträge mit den übrigen Mobilfunkanbietern stehen noch aus [Ha03], einen<br />

entsprechenden Dienst namens friendZone bietet in der Schweiz die Firma Swisscom [Bae02,<br />

Ba01]. Eine sinnvolle Anwendung dieses <strong>Dienste</strong>s ergibt sich z.B. auch bei einem Messebesuch<br />

in der Gruppe, die sich zunächst getrennt hat und sich anschließend wieder treffen<br />

möchte [Bae02].<br />

Als sog. child-watch-Applikation des D2-Finders kann durch Eingabe der Telefonnummer<br />

des Handys, das das gesuchte Kind bei sich trägt, dessen Aufenthaltsort bestimmt werden<br />

[Se01, Bae02]. Aus Datenschutzgründen ist diese Funktion jedoch nur unter der Voraussetzung<br />

nutzbar, dass der Gesuchte sein Einverständnis zur Positionsbestimmung gegeben hat<br />

[Se01]. Entsprechend ist alternativ zur child-watch-Applikation die Aufwertung des Handys<br />

zum elektronischen Babysitter durch ein Zusatzgerät möglich: Der sog. Phonetracker sendet<br />

eine SMS, wenn das eingeschaltete Handy des zu überwachenden Kindes einen bestimmten<br />

Bereich verlässt [Ba01].<br />

Der Handy-Finder von Genion [Se01, Bae02, BG01, Ba01] ermöglicht die Lokalisierung des<br />

verlegten oder verlorenen Handys von der Genion-Homepage aus. Allerdings ist die Ortsangabe<br />

relativ grob (z.B. der Stadtteil). Der Server sendet eine SMS an das geortete Handy, um<br />

eine unbemerkte Überwachung der Person, die das Handy bei sich trägt, zu unterbinden<br />

[BG01, Ba01].<br />

4.2.4 Notrufdienste<br />

Weitere Anwendungsmöglichkeiten ergeben sich in den Fällen, in denen nicht der Suchende,<br />

sondern der zu Suchende den Anstoß zur Positionsbestimmung gibt. Auf diese Weise können<br />

in einem Notfall Hilfskräfte an den Standort des Hilfsbedürftigen gerufen werden [Ba01].<br />

Konkrete Anwendungen stellen z.B. ein Notruf im Gebirge [Bae02] oder das vom Hersteller<br />

Vitaphone angebotene sog. Herz-Handy dar. Beim Herz-Handy kann der Benutzer bei Auftreten<br />

von Herzbeschwerden mittels Notruftaste Kontakt zur Servicezentrale herstellen, die<br />

sodann aufgrund der Positionsdaten des Benutzers Rettungskräfte direkt zum Patienten schicken<br />

kann. Das Herz-Handy ist GPS-fähig [Ba01, S.4].<br />

4.2.5 Tracking von Fahrzeugflotten (B2B-<strong>Dienste</strong>)<br />

Anwendungen zum Flottenmanagement ermöglichen Unternehmen, die aktuelle Position von<br />

Transportfahrzeugen bzw. der durch diese transportierten Güter nahezu in Echtzeit zu verfolgen.<br />

Kunden können so über den aktuellen Standort ihrer Warenlieferungen und damit über<br />

den voraussichtlichen Zeitpunkt der Lieferung informiert werden. Zusätzliche eilige Lieferungen<br />

können durch das Fahrzeug aufgenommen werden, das sich gerade in der Nähe befindet<br />

[DB03].<br />

4.2.6 LBS und Pricing<br />

Schließlich kann die Information über den Standort des Anwenders auch zwecks Abrechnung<br />

der erbrachten Telefondienstleistungen des Mobilfunkbetreibers verwendet werden: so z.B.<br />

für den Genion-Home-Tarif, bei dem der Anwender für alle Gespräche im Umkreis eines<br />

durch den Kunden zuvor bestimmten Punktes anstelle des Mobilfunktarifs den Festnetztarif<br />

bezahlt [Ba01].


69 Andreas Werlemann<br />

5 Fazit und Ausblick<br />

<strong>Ortsbasierte</strong> <strong>Dienste</strong> gewinnen in dem Maße an Bedeutung, in dem die technischen Voraussetzungen<br />

für ortsbasierte <strong>Dienste</strong> gegeben sind [Bae02]:<br />

• ausreichende Leistungsfähigkeit der Mobiltelefongeräte für diesen Zweck,<br />

• zivile Nutzbarkeit des ursprünglich ausschließlich militärisch genutzten GPS,<br />

• ausreichender Entwicklungsstand von Software für die Umwandlung von Text in Sprache<br />

und umgekehrt (idealerweise verfügt das Handy über eine Sprachaus- und –eingabe, die<br />

im Gegensatz zu bildschirmbasierten Menüs beliebig miniaturisiert werde kann, ohne dass<br />

funktionale Nachteile auftreten),<br />

• Verfügbarkeit von elektronischen Landkarten und Stadtplänen, Geocodierung und<br />

Routenplanung.<br />

Einerseits steigt die Leistungsfähigkeit der Hardware bei sinkenden Kosten [DB03]. Andererseits<br />

wächst das Bedürfnis für ortsbasierte <strong>Dienste</strong> in dem Maße, in dem die Mobilität der<br />

Bevölkerung bei gleichzeitigem Wunsch nach jederzeitiger Erreichbarkeit bzw. Informationsverfügbarkeit<br />

steigt [Bae02].<br />

Ortsunkundige Reisende verlieren viel Zeit bei der Deckung ihrer Grundbedürfnisse (Nahrungsaufnahme,<br />

Übernachtungsmöglichkeit) bzw. der Suche nach entsprechenden Angeboten.<br />

Insoweit besteht ein Markt, dem durch ein Angebot, das komfortable Bedienung mit Effizienz<br />

verbindet, zu entsprechen ist [DS01]. In den USA wird die Technologie zur Positionsbestimmung<br />

und damit letztlich auch der Markt für LBS zusätzlich durch die Vorschrift E911 gefördert<br />

[DB03]. Diese beinhaltet in einer zweiten Stufe (UMTS) die Maßgabe, dass in den meisten<br />

Fällen Notrufe mittels Handy auf bis zu 50-100 Meter genau ortbar sein müssen [DB03,<br />

AAB03]. Eine ähnliche Vorschrift namens E112 der Europäischen Kommission befindet sich<br />

in Vorbereitung [DB03]. Einen Impuls für die Verbreitung und Fortentwicklung könnten LBS<br />

schließlich auch durch die Integration entsprechender Funktionen in Automobile erfahren.<br />

Aufgrund der Notwendigkeit lediglich geringer Bandbreite sowie der mobilen Verfügbarkeit<br />

eignen sich LBS auf WAP-Basis gut für Automobile [Ba01].<br />

LBS bieten den Mobilfunknetz-Betreibern eine Möglichkeit zur Differenzierung gegenüber<br />

dem Wettbewerb [DS01]. Darüber hinaus erhoffen sich die Mobilfunkbetreiber ein lukratives<br />

Geschäft [Ba01]. Insbesondere diejenigen Mobilfunkbetreiber, die hohe Investitionen in<br />

UMTS-Lizenzen getätigt haben, müssen über Geschäftsmodelle nachdenken, die zur Amortisation<br />

dieser Investitionen beitragen. Die Betreiber von GSM-Netzen haben ein Interesse<br />

daran, den durchschnittlichen Umsatz pro Anwender durch eine Ergänzung sprachbasierter<br />

<strong>Dienste</strong> durch datenintensive Mehrwert-<strong>Dienste</strong> zu steigern, nachdem eine Steigerung der<br />

Anzahl der Mobilfunkkunden seit Ende der 1990er Jahre kaum noch möglich ist [DB03]. Allerdings<br />

arbeiten die ortsbasierten <strong>Dienste</strong> noch nicht kostendeckend, so dass diese durch<br />

Einnahmen aus dem übrigen Mobilfunkgeschäft quersubventioniert werden müssen [Se01].<br />

Gegen die Ortung des Mobilfunkanwenders durch den Mobilfunkbetreiber und die anschließende<br />

Weitergabe dieser Ortsinformation an dritte Dienstleistungsanbieter bestehen datenschutzrechtliche<br />

Bedenken [Ba01, Di01]. Diesen begegnen einzelne Mobilfunkanbieter wie<br />

T-D1 dadurch, dass sie die Ortung jeweils von der expliziten diesbezüglichen Einverständniserklärung<br />

durch den Anwender abhängig machen [Ba01]. Entscheidend für die Akzeptanz<br />

ortsbasierter <strong>Dienste</strong> ist der konkrete Anwendungsnutzen. Dieser kann z.B. in der Kombination<br />

der reinen Information über ein Angebot mit der Möglichkeit, dieses zu bestellen bzw. zu<br />

reservieren, bestehen. Für auch auf andere Weise leicht beschaffbare Informationen wird der<br />

Anwender hingegen kein Geld bezahlen wollen [Bae02]. Unter diesem Gesichtspunkt er-


70 <strong>Ortsbasierte</strong> <strong>Dienste</strong> mit Mobilfunk<br />

scheint ein mobiler Routenplaner im Ausland wegen etwaiger Verständigungsprobleme sinnvoller<br />

als im Inland [Ha03]. Anwendungen, die ihren besonderen Reiz durch die automatische<br />

Standortbestimmung erlangen und somit das Potential haben, LBS zu besonderer Popularität<br />

zu verhelfen, sind in den Community-Funktionen bzw. C2C-<strong>Dienste</strong>n zu suchen [Ba01].<br />

Referenzen<br />

[AAB03] Adams, P.M., Ashwell, G.W.B., Baxter, R. (2003):<br />

Location-based services – an overview of the standards,<br />

BT Technology Journal, Vol.21, No.1, January 2003, 34-43<br />

[Bae02] Baeumerth, Eberhard (2002):<br />

Location Based Services in der Praxis,<br />

In Handbuch Mobile-Commerce Technische Grundlagen, Marktchancen und<br />

Einsatzmöglichkeiten,<br />

Berlin, Heidelberg, New York 2002, 225-230<br />

[Bi02] Bisenius, Jean-Claude (2002):<br />

Multi-Media-Mobil: mobile <strong>Dienste</strong> in Digitalen Rundfunk- und<br />

Telekommunikationsnetzen,<br />

Berlin 2002<br />

[BG01] Bager, Jo, Gleich, Clemens (2001):<br />

Such Handy! Location Based Services im Test,<br />

c’t, No. 22/2001, S.172ff.<br />

[Ba01] Bager, Jo (2001):<br />

Das Handy kennt den Weg Location Based Services machen das Mobiltelefon zum<br />

universellen Wegweiser,<br />

c’t, No. 22/2001, S.168ff.<br />

[DB03] D´Roza, Thomas, Bilchev, George (2003):<br />

An overview of location-based services,<br />

BT Technology Journal, Vol.21, No.1, January 2003, 20-27<br />

[Di01] Diederich, Bernd (2001):<br />

Technik,<br />

In Diederich, Bernd, Lerner, Thomas, Lindemann, Roland D., Vehlen Ralf:<br />

Mobile Business Märkte, Techniken, Geschäftsmodelle,<br />

Wiesbaden 2001, 63-111<br />

[DS01] Dru, Marie-Anne, Saada, Stéphane (2001):<br />

Location-based mobile services: the essentials,<br />

Alcatel Telecommunications Review, No. 1, 1 st Quarter 2001, 71-76<br />

[Ha03] Hannemann, Ulf (2003):<br />

Freunden auf der Spur,<br />

Focus, No. 15/2003, April 2003, 94-97<br />

[Li99] Lipinski, Klaus (1999):<br />

Lexikon: Mobilkommunikation,<br />

Bonn 1999<br />

[RG02] Röttger-Gerigk, Stefanie (2002):<br />

Lokalisierungsmethoden,<br />

In Handbuch Mobile-Commerce Technische Grundlagen, Marktchancen und<br />

Einsatzmöglichkeiten,<br />

Berlin, Heidelberg, New York 2002, 419-426


71 Andreas Werlemann<br />

[Ro03] Roth, Dr. Jörg (2003):<br />

Mobile Computing,<br />

Kurs 1679 Fernuniversität Hagen, 2003<br />

[Se01] Sellin, Rüdiger (2001):<br />

Milchkuh oder Seifenblase Neues Wachstum mit Location Based Services;<br />

NET Zeitschrift für Kommunikationsmanagement, Vol. 55, No. 11/2001, 55-58


“Nexus“<br />

Lothar Maschewski<br />

Tubizerstraße 40<br />

70825 Korntal<br />

Maschewski2@compuserve.de<br />

Zusammenfassung: Der Fortschritt in der Miniaturisierung von Computern, die rasante<br />

Entwicklung von Sensortechnologie, sowie die Weiterentwicklung von GPS, General<br />

Positioning System, wird dazu führen, dass zunehmend potentiell Milliarden von Alltagsgegenständen<br />

Informationen über ihren Zustand und den ihrer Umgebung erfassen. Durch<br />

die Integration dieser Daten in schon bestehende Modelle entstehen neue Weltmodelle.<br />

Innerhalb dieser Weltmodelle können nicht nur existierende Objekte und ihr Zustand abgebildet<br />

werden, sondern zusätzlich Informationen mit diesen Objekten verknüpft werden.<br />

Dies führt zu einer neuen Art von Applikationen, die über eine Plattform auf diese<br />

Objekte zugreifen und diese ggf. manipulieren kann. Eine solche Plattform, NEXUS,<br />

wird von einem Sonderforschungsbereich an der Universität Stuttgart entwickelt. Die<br />

Modellierung und die Aufgaben dieser Plattform werden im folgenden beschrieben.<br />

1 Motivation<br />

Wenn wir uns in unserer Welt umschauen, gibt es viele unterschiedliche Informationen, die<br />

mit räumlichen Bezugspunkten verbunden sind, oder mittels geographischer Daten organisiert<br />

werden. Plakate hängen an Wänden, Verkehrschilder stehen an Kreuzungen, Türen öffnen<br />

sich automatisch, wenn sich ein Objekt dieser Tür nähert usw. Alle diese angeführten<br />

Beispiele haben eines gemeinsam. Ihre Existenz, sowie die damit verbundene Möglichkeit<br />

ihrer Manipulation stehen in direktem Zusammenhang mit ihren räumlichen Koordinaten.<br />

Dieser fundamentale Zusammenhang ist für uns Menschen eine Selbstverständlichkeit, da wir<br />

diesen von Geburt an als gegeben erfahren haben [FKV].<br />

Bis heute beziehen nur wenige Informationssysteme die räumlichen Daten der Systemnutzer<br />

oder anderer Objekte mit ein, um sie für den Nutzer des Informationssystems verwertbar zu<br />

machen. Informationssysteme, die dies heute schon tun findet man z.B. bei Navigationssystemen<br />

sowie in der Flugsicherung. Gründe, die diese Entwicklung bisher begrenzt haben sind:<br />

• das Fehlen einer geeigneten Sensor-Infrastruktur<br />

• das Fehlen geeigneter Plattformen für diese Anwendungen<br />

Dem ersten Punkt wird durch die Weiterentwicklung von GPS Rechnung getragen. Dem<br />

zweiten Punkt widmet sich der folgende Seminarvortrag.<br />

2 Einführung in das Projekt Nexus<br />

2.1 Was versteht man unter dem Projekt<br />

Das Projekt Nexus ist ein instituts- und fakultätsübergreifendes Forschungsprojekt an der<br />

Universität Stuttgart, das LBS-Systeme untersucht und dabei das Ziel verfolgt, Grundlagenwissen<br />

zu erarbeiten. Unter dem Oberbegriff Location Based Service (LBS) bildet sich zur<br />

Zeit im Umfeld der mobilen Datenkommunikation eine neue Kategorie von Applikationen<br />

heraus.<br />

Motiviert und ermöglicht wird dies durch die rasante Weiterentwicklung im Bereich der Mobilfunknetze,<br />

den Erfolg der drahtlosen lokalen Funknetze (WLAN’s, Wireless Local Area


74 “Nexus“<br />

Networks) sowie die Miniaturisierung leistungsfähiger Endgeräte. Ein zusätzlicher Antrieb ist<br />

die Notwendigkeit für Besitzer der teuren UMTS - Lizenzen, Universal Mobile Telecommunication<br />

System, ihren Kunden attraktive <strong>Dienste</strong> anzubieten, um für die neuen Netze möglichst<br />

schnell eine große Kundenakzeptanz zu erzielen [PK02].<br />

2.2 Was soll das Projekt leisten<br />

Ortsbezogene Informationsdienste zeichnen sich dadurch aus, dass Informationen nicht mehr,<br />

wie dies z. B. bei der Verwendung von Uniform Ressource Locators (URLs) geschieht, über<br />

ihren Speicherort adressiert werden, sondern über Positionsangaben von Orten oder Objekten,<br />

für die sie relevant sind. Um auf Informationen zuzugreifen, sind Abbildungs- und Suchfunktionen<br />

notwendig, die auf der Basis von Ortskoordinaten die zutreffenden Informationen auffinden<br />

können. Komplexere ortsbezogene <strong>Dienste</strong> erlauben zusätzlich eine Selektion von<br />

Informationen anhand weiterer Attribute. Ein typisches Beispiel hierfür ist die Suche nach<br />

allen italienischen Restaurants im Umkreis von 500 m des Anfragenden. Eine weitere wichtige<br />

Form ortsbezogener Anwendungen ist die Navigation. Hierbei werden auf räumlichen<br />

Datenmodellen komplexe Operationen ausgeführt, wobei das Ergebnis ein Weg ist, auf dem<br />

der Nutzer anschließend geführt wird. Der Bezug zu dem anfragenden Nutzer ist dadurch<br />

hergestellt, dass der Ausgangspunkt der Wegesuche sein aktueller Aufenthaltsort ist [PK02].<br />

2.3 Wer entwickelt das Projekt<br />

An dieser von der Deutschen Forschungsgemeinschaft (DFG) geförderten Forschergruppe<br />

sind fünf Arbeitsgruppen aus den unterschiedlichsten Fachbereichen beteiligt. Diese Arbeitsgruppen<br />

haben das Ziel, Konzepte und Methoden zur Realisierung einer Plattform für ortsbezogene<br />

Anwendungen zu entwickeln [PK02].<br />

3 Besondere Aspekte von Nexus<br />

3.1 Technische Vorraussetzungen für das Projekt<br />

Da der Ortsbezug ein wesentliches Merkmal von Nexus darstellt, möchte ich im weiteren die<br />

notwendige technische Infrastruktur darstellen. Diese besteht aus einer Anzahl verschiedenster<br />

Sensoren, die den Ortsbezug herstellen.<br />

Das Aufgabenfeld des IND innerhalb von NEXUS besteht darin, bestehende Kommunikationsarchitekturen<br />

zu untersuchen und auf die Kommunikationsanforderungen von ortsbewussten<br />

<strong>Dienste</strong>n hin zu bewerten, sowie neue Konzepte zu entwerfen. Anforderungen hierfür<br />

sind die Berücksichtigung der Nutzermobilität, auch über die Grenzen von Funkzugangsnetzen<br />

hinweg, die kosten/nutzenoptimale Verwendung von Kommunikationsressourcen, sowie<br />

die Berücksichtigung und das Ausbalancieren von Informationsbedürfnissen mit Sicherheitsund<br />

Datenschutzanforderungen sowohl von Nutzern und Anbietern.<br />

Die Voraussetzungen für die kommunikationsnetzorientierten Entwicklungsprozesse sind<br />

gemäß [PK02]:<br />

• Zugrundelegung existierender bzw. künftig zu erwartender paketorientierter Netzinfrastrukturen.<br />

Speziell kommen dazu in Betracht<br />

o Bluetooth: Kleinstzellen-Funknetze (Raumnetze)<br />

o WLAN: Wireless Local Area Networks<br />

o GPRS: General Packet Radio Service, ein paketorientierter Datendienst, der<br />

auf der<br />

Basis der gegenwärtigen öffentlichen Mobilkommunikations-Infrastruktur<br />

(„2.5. Generation“) bereitgestellt wird<br />

• UMTS: Universal Mobile Telecommunication System; zukünftige breitbandigere


75 Lothar Maschewski<br />

öffentliche Mobilkommunikations-Infrastruktur<br />

• Nutzung kommerziell verfügbarer, internetfähiger Endgeräte mit multi - Funknetzzugang<br />

als Clients, z. B.<br />

o Mobilkommunikations-Terminals<br />

o Laptop<br />

o Personal Digital Assistant (PDA) u. ä.<br />

möglichst erweitert zum Empfang von Positionsdaten über Satelliten (GPS:<br />

Global<br />

Positioning System u. ä. m.), Sensoren (z. B. über IR-Empfänger) oder<br />

über Basisstationen (BTS) der öffentlichen Mobilkommunikationsnetze.<br />

3.2 Das Augmented Area Modell<br />

Die Basisinfrastruktur von Nexus basiert auf computergestützte Darstellungen bestimmter<br />

Regionen (Räumen), der realen Welt, die um virtuelle Objekte erweitert werden kann. Diese<br />

Regionen, erweitert um die in ihnen enthaltenen virtuellen Objekte, können mittels der<br />

Nexus-Plattform dargestellt und erforscht werden. Man nennt sie Augmented Area. Technisch<br />

betrachtet besteht eine Augmented Area aus vier Bestandteilen, siehe [PKV] :<br />

• Objekte in einem geographischen Raum<br />

• einer Installation der Nexus-Plattform<br />

• einem dem geographischen Raum entsprechenden Informationsgehalt<br />

• einer räumlichen Begrenzung<br />

Die Verbindung innerhalb einer Augmented Area zu vituellen Objekten , Multimedia, dem<br />

World Wide Web, Digital Libraries usw., wird über sogenannte Virtual Information Tower,<br />

oder auch Virtual Post-It’s hergestellt. Das bedeutet, das die Verbindung einer Anwendung zu<br />

einem Informationsdienst nur über ein reales Objekt, sprich seine geometrischen Objektdaten<br />

realisiert wird. Es wird sich zeigen, dass dieses Modell eine Menge Vorteile gegenüber den<br />

konventionellen Modellen der Virtuellen Welt besitzen. Beispiele für diese Augmented<br />

Area’s sind Häuser, Stadtteile, Gebäudeteile. Schematisch sind die Augmented Area’s mit den<br />

verschiedenen Verbindungsmöglichkeiten im Bild 1 siehe Kap.3.3 zu sehen.<br />

3.3 Das Augmented World Modell<br />

Im nächsten Schritt erweitert die Nexus Plattform die in sich begrenzten und isolierten Augmented<br />

Areas zu einem Augmented World Modell. In diesem Modell sind alle Augmented<br />

Areas integriert und in einem einheitlichen Format beschrieben. Im weiteren werden alle<br />

durch eine gemeinsame Anwenderschnittstelle, bereitgestellt durch Nexus, erreichbar. Durch<br />

diese Schnittstelle kann der Nexus-Nutzer problemlos zwischen den Augmented Areas wechseln,<br />

sowie verschiedene Augmented Areas verknüpfen.<br />

Das einheitliche Format der Augmented Areas ermöglicht die Vergleichbarkeit, sowie die<br />

Anwendung verschiedener Mengenoperatoren, (Schnittmenge, Inklusion, Vereinigung) in<br />

dem Augmented World Modell. Auch die Erweiterbarkeit von Nexus sowie die Notwendigkeit<br />

der Integration der verschiedensten Datenquellen setzt ein einheitliches Datenformat voraus.


76 “Nexus“<br />

Bild 1 Schematische Darstellung einer Augmented World mit den integrierten Augmented<br />

Area’sowie den möglichen Links zu den externen Informationsdiensten<br />

3.4 Modellierungsgrundsätze<br />

Aus der Idee, mittels Nexus eine neue Virtuelle Welt zu modellieren, ergaben sich, siehe<br />

[HKL99] die folgenden Modellierungskriterien für die neue Plattform<br />

• Mobilität<br />

• Heterogenität<br />

• Interoperability<br />

• Scalability<br />

• Datenschutz<br />

Mit der Mobilität von Nexus möchte ich mich nicht näher beschäftigen, da sie sich aus der<br />

Notwendigkeit einer Technischen Infrastruktur (siehe 3.1) ableiten lässt. Es sei nur auf die<br />

Erweiterbarkeit des Systems als ein Unteraspekt der Mobilität hingewiesen. Nexus sollte sehr<br />

leicht neue Technologien unterstützen und diese auch in das bestehende System integrieren<br />

können.<br />

Auch die Heterogenität lässt sich ableiten. Da die Augmented Areas sehr verschieden sind,<br />

muss das System in der Lage sein verschiedene Netzwerktechnologien und Navigationssysteme<br />

zu unterstützen.<br />

Auf den Datenschutz möchte ich etwas genauer eingehen. Die Entwicklung von Nexus erfordert<br />

parallel die Entwicklung von Datenschutz- und Sicherheitsfunktionen auf der Basis der<br />

„mehrseitigen Sicherheit“, mit Merkmalen wie<br />

• Schutz gegen die Verknüpfung von Aufenthaltsorts-Daten und der Nutzung/Inanspruchnahme<br />

von <strong>Dienste</strong>n mit der Identität des Benutzers<br />

• Authentifikation des Dienstnutzers, des <strong>Dienste</strong>rbringers und Integrität der bereitgestellten<br />

Daten<br />

• Zurechenbarkeit und Nichtabstreitbarkeit von in Anspruch genommenen Dienstleistungen<br />

• Aushandelbare Schutzziele und Schutzhöhen.


77 Lothar Maschewski<br />

Ohne diese Sicherheitskonzepte wäre eine Augmented World ein transparentes System in<br />

welchem jeder Systemnutzer alle gespeicherten Daten eines jeden anderen Systemnutzers<br />

beliebig nutzen, oder aber auch missbrauchen könnte.<br />

Die Skalierbarkeit des Systems spricht die Wachstumsfähigkeit der Plattform in Bezug auf die<br />

zu verwaltende Datenmenge an. Darauf wird in Kapitel 4 noch genauer eingegangen. Grundsatz<br />

ist, das Nexus dynamische Datenstrukturen unterstützen muss.<br />

3.5 Die Nexus Architektur<br />

Das Hauptziel der Nexus – Plattform besteht in der Verwaltung der Augmented Areas, sowie<br />

in der Bereitstellung eines einheitlichen Zugangs zum Augmented World Model. Dieser<br />

ermöglicht den verschiedenen ortsbasierten Anwendungen die Kommunikation mit diesem.<br />

Dieses Ziel spiegelt sich natürlich auch in der Architektur der Plattform wieder. Da das Augmented<br />

Area Model viele Objekte enthalten kann, ist es über viele Knoten verteilt. Das Model<br />

muss ständig über den Zustand all seiner mobilen, stationären und virtuellen Objekte informiert<br />

sein. Die Architektur der Nexus Plattform ist im folgenden Bild dargestellt vgl.<br />

[HKL99].<br />

Clients<br />

Sensor<br />

Systems<br />

Control<br />

Systems<br />

Distributed<br />

Data-Management<br />

Location<br />

Manageme<br />

Query<br />

Event<br />

Model<br />

Mana-<br />

Catching<br />

&<br />

Local<br />

Data-<br />

Management<br />

Virtual<br />

Mobile<br />

Basic Services<br />

Communikati<br />

Adaptivity<br />

Bild 2 Schematische Darstellung der Nexus Architektur<br />

3.5.1 Externe Komponenten<br />

Clients, dazu zählen <strong>Ortsbasierte</strong> Anwendungen und <strong>Dienste</strong>, nutzen Nexus, indem sie über<br />

die standardisierte Schnittstelle eine Verbindung mit dem Augmented World Model realisieren.<br />

Der Bezug zu den Objekten der realen Welt wird durch das Sensor- und Kontrollsystem<br />

hergestellt. Sensorsysteme, z. B. ein GPS-Sensor, liefern Informationen über den Zustand<br />

eines realen Objekts. Oftmals benötigt dieses Objekt seinen eigenen Sensor, wenn es an Informationen<br />

über die eigene Position oder die Position anderer Objekte in seiner Umgebung<br />

interessiert ist. Die weitere Verbindung mit den externen Informationsdiensten, wird, siehe


78 “Nexus“<br />

Kap. 3.3, über die VIP’s realisiert. Die Vielfalt der externen Komponenten wurde schon in<br />

Bild 1 Kap.3.3 dargestellt.<br />

3.5.2 Basisdienste<br />

Basisdienste beinhalten grundsätzlich zwei Aspekte:<br />

• Sie sind für die Kommunikation der Plattform mit den Anwendungen verantwortlich<br />

• Sie müssen die Kompatibilität zwischen Plattform und Anwendung herstellen<br />

Basisdienste werden von allen Komponenten des Systems genutzt, da sie sonst nicht untereinander<br />

kommunizieren könnten.<br />

3.5.3 Datenmanagement<br />

Die Inhalte der Augmented Area Modele werden in verschiedenen Knoten der Nexus – Plattform<br />

gespeichert. Diese Knoten sind entweder einzelne Computer, oder es handelt sich um<br />

Rechnernetze. Diese speichern die obigen Informationen in Datenbanksystemen ab, die sehr<br />

stark von den zu speichernden Inhalten geprägt sind. Grundsätzlich sind drei verschiedene<br />

Datenformate notwendig, um das Augmented World Model zu beschreiben.<br />

• Ein Datenformat zu Beschreibung des Eigenschaften eines realen Objekts<br />

• Ein Datenformat zur Beschreibung der mobilen Zustände eines realen Objekts<br />

• Ein Datenformat zur Beschreibung der Beziehungen der realen Objekte untereinander,<br />

sowie der Beziehung zwischen realen Objekt und virtuellen Objekt<br />

Das folgende Bild stellt die Organisation der verschiedenen Datenformate dar.<br />

Anwendung<br />

1<br />

Anwendung<br />

2<br />

...<br />

Anwendung<br />

m<br />

ASR<br />

...<br />

Knoten 1 Knoten 2 Knoten n<br />

SpaSe 1<br />

Roo<br />

SpaSe<br />

2<br />

Location<br />

Service<br />

Andere<br />

<strong>Dienste</strong><br />

Shel<br />

Shel<br />

Bild 3 Organisation der Datenformate unter der Plattform Nexus


79 Lothar Maschewski<br />

3.5.4 Das Spatial Server Model<br />

Die Spatial Server enthalten die statischen Informationen über die Augmented Area’s. Dabei<br />

kann ein Spatial Server sowohl Informationen über ein als auch über mehrere<br />

Gebiete enthalten. Diese Informationen bestehen aus Daten über die<br />

• Objektgeometrie<br />

• Koordinatensysteme<br />

• Symbolische Beschreibungen<br />

• Beziehungen zw. den Objekten<br />

Datenbanksystemknoten, die diese Informationen verwalten, stellen effiziente Algorithmen<br />

zur Verfügung, die um Objekte bzw. Objektteile zu suchen. Eine weitere Aufgabe besteht in<br />

der effizienten Realisierung der Mengenoperationen Durchschnitt, Inklusion und Union. Deshalb<br />

sind die Daten über die Augmented Area’s in Tree’s organisiert (siehe Bild 3). Die Gebiete<br />

werden so auf die Knoten verteilt, das der Vaterknoten disjunkt auf die beiden Sohnknoten<br />

aufgeteilt wird. Da es sich hier wesentlich um 2D - 2.5D Daten handelt, lassen sich<br />

geometrischen Algorithmen auf dieser Struktur sehr gut anwenden [K03].<br />

3.5.5 Location-Service<br />

In diesem Teil der Server wird der dynamische Teil der Augmented Area’s verwaltet. Da sich<br />

die Daten von bewegten Objekten sehr schnell ändern, müssen diese Daten entweder ständig<br />

einem Update, der schnell und effizient arbeiten muss, unterliegen oder neu aufgebaut werden.<br />

Welche Strategie man verwendet, ist von der Gesamtdatenmenge und der veränderten<br />

Datenmenge abhängig.<br />

3.6 Die Sprachumgebung von Nexus<br />

Da Nexus eine Schnittstelle für die Clients anbietet, muss das System mit dem Client kommunizieren.<br />

Dies leistet Nexus mittels 2 grundsätzlichen Sprachkonzepten [B02].<br />

• Augmented World Modelling Language (AWML)<br />

• Augmented World Query Language (AWQL)<br />

Die Augmented World Modeling Language wird eingesetzt, um die Objekte des Augmented<br />

World Models zu beschreiben. Objekte haben eine Geometrie und müssen mittels eines Koordinatensystems<br />

einen räumlichen Bezug zu den anderen Objekten des Augmented World<br />

Model herstellen. Auch die Beschreibung von Teilmengen der Augmented Areas mittels<br />

Symbolischer Bezeichner, Identifier, Namen, Nummern (z B. bei der Beschreibung von Räumen<br />

) ist vorgesehen. Bei der Struktur ist eine Ähnlichkeit zu HTML zu erkennen.<br />

Die Augmented World Query Language erlaubt Anfragen an das Augmented World Model.<br />

Primär erlaubt die Sprache Anfragen bzgl. der Mengenoperationen Teilmenge und<br />

Schnittmenge. Weitere wichtige Fragestellungen sind<br />

• Welches der gesuchten Objekte ist am nächsten zur aktuellen Position des Anfragenden <br />

• Wie weit ist das gesuchte Objekt vom Anfragenden entfernt <br />

AWQL ist bzgl. seiner Struktur ähnlich zu SQL. Abschließend zu den Sprachkonstrukten sei<br />

angemerkt, das sich die Sprachkonstrukte in dem Maße weiterentwickeln werden, indem sich<br />

die Daten-breite weiterentwickelt. Als Beispiel sei die 2.5D Darstellung als Datenformat angeführt.<br />

Eine realistische 3D Darstellung wird genauere Abfragen realisieren, verlangt aber<br />

auch die Weiterentwicklung der AWML sowie der AWQL Sprachkonzepte. Zur Veranschaulichung<br />

sind im Anhang (Bild A1, BildA2) kurze Auszüge aus AWML und AWQL angeführt.


80 “Nexus“<br />

4 Probleme<br />

4.1 Der Trade Off zwischen Augmented World und Datenschutz<br />

Die Nexus – Plattform hat als Vision folgende Ziele.<br />

• Jeder kann seine persönliche Augmented Area, z. B. Italienisches Restaurant mit Adresse,<br />

Speisekarte und Kundendatei in die Augmented World integrieren.<br />

• Jeder Nutzer kann Anfragen an alle realen und virtuellen Objekte des Augmented World<br />

Modells stellen<br />

Je weiter die Verwirklichung der Ziele fortschreitet, desto größer wird der Aufwand einen<br />

Datenschutz, siehe Kap.3.4 Modellierungsgrundsätze, zu implementieren. Je größer das<br />

Schutzbedürfnis der realen und virtuellen Objekte ist, umso eingeschränkter ist die Nutzung<br />

des System. Aus diesem Grund ist am Projekt Nexus fachübergreifend eine Kommission beteiligt,<br />

die sich mit ethischen Fragen und den Vorraussetzungen für eine allgemeine Akzeptanz<br />

des Systems beschäftigt. So wie das WWW nicht ohne die Akzeptanz und Annahme<br />

durch Anbieter und Nutzer, ohne Homepages und Internetdienste wäre ein WWW sinnlos,<br />

erfolgreich sein kann, wird ein System wie Nexus nur über eine große Anzahl von Dienstanbietern<br />

und Dienstnutzern erfolgreich sein können.<br />

4.2 Daten<br />

Wie schon bei den Modellierungsgrundsätzen erwähnt, bilden die Daten eine zentrale Rolle<br />

bei Nexus. Auf die Notwendigkeit einer Dynamischen Modellierung dieser<br />

Daten wurde hingewiesen. Man wird jedoch erst nach einer Testphase des<br />

Systems mit einer Mindestdatensatzgröße erkennen können, wo das System<br />

noch effizienter modelliert und implementiert werden kann. Besonders in Bezug<br />

auf die veränderlichen Orts- und Zustandsdaten werden sich zwei Fragen<br />

herauskristallisieren:<br />

• Update der veränderten Daten oder Neuaufbau aller bisherigen Daten<br />

• Zentrale oder dezentrale Verwaltung dieser Daten<br />

• Evtl. Klassifizierung der Daten mittels bestimmter Kriterien<br />

5 Ausblick<br />

Bei meiner Darstellung versuchte ich immer den Projektstatus von Nexus hervorzuheben.<br />

Vieles von dem, was ich als ganz selbstverständlich beschrieb, ist erst einmal Bestandteil dieser<br />

Vision einer allgegenwärtigen ortsbasierten Anwendungsplattform. Bisher werden Prototypen<br />

entwickelt, die bezüglich ihres Funktionsumfangs sehr eingeschränkt sind. Ein Projekt<br />

beschäftigt sich gerade mit der Positionsbestimmung und Sichtbarkeitsanalye durch Kombination<br />

terrestrischer Bilder mit 3D-Stadtmodellen. Als Stadtmodell dient hier die Innenstadt<br />

von Stuttgart. Auch wenn Nexus zur Zeit noch viele Merkmale einer Vision besitzt, wird sie<br />

sich als Standart für die zukünftigen ortsbasierten <strong>Dienste</strong> durchsetzen. In einer Welt, wo die<br />

Geschwindigkeit und die Flexibilität maßgebend sind, wird sich nur eine Informationstechnologie,<br />

die ortsunabhängig ist und sehr effizient mit schon bestehenden Informationssystemen<br />

kommunizieren kann durchsetzen. Meine Ausführungen sollten zeigen, dass die Plattform<br />

Nexus, jetzt noch ein Projekt, ein qualifizierter Kandidat für die oben beschriebene Informationstechnologie<br />

sein kann.


81 Lothar Maschewski<br />

6 Danksagung<br />

Ich bedanke mich auch bei den Mitarbeitern der Universität Stuttgart, die mir den Einstieg in<br />

das Projekt Nexus erleichterten, und für Fragen meinerseits stets mit Rat zur Verfügung<br />

standen.<br />

Anhang<br />

Bild A1: Vereinfachtes Beispiel zur Augmented World Query Language (AWQL)<br />

Bild A2: Vereinfachtes Beispiel zur Augmented World Modeling Language (AWQL)


82 “Nexus“<br />

Referenzen<br />

[PK02] B. Gloss, P. J. Kühn (2002)<br />

Modellierung und Entwurf von Kommunikations-Infrastrukturen für<br />

orts-und kontextabhängige <strong>Dienste</strong><br />

Modelle, Werkzeuge und Infrastrukturen zur Unterstützung von<br />

Entwicklungsprozessen, Achen, 20.-22. März 2002<br />

[FKV]<br />

[HKL99]<br />

Dieter Fritsch, Darko Klinec & Steffen Volz<br />

Positioning and Data Management Concepts For Location Aware<br />

Applikations<br />

Institute For Photogrammetry, Universität Stuttgart<br />

Fritz Hohl, Uwe Kubach, Alexander Leonhardi, Kurt Rothermel,<br />

Markus Schwehm (1999)<br />

Nexus-An Open global Infrastructure for Spatial-Aware Applications<br />

Universität Stuttgart<br />

[B02] Christian Becker (2002)<br />

Weltmodelle zur Unterstützung kontextbezogener Systeme<br />

Fachbereich IPVR , Universität Stuttgart<br />

[F03]<br />

[K03]<br />

Steffen Firchau<br />

Telepointing – Positionsbestimmung und Sichtbarkeitsanalyse durch<br />

Kombination terretricher Bilder mit 3D – Stadtmodellen<br />

Studienarbeit<br />

P. J. Kühn<br />

Mobilität in NEXUS Location Based Services als Wegweiser für<br />

IP-Mobilität<br />

http:/ww.ind.uni-stuttgart.de


Sicherheit und Datenschutz für Mobile Anwendungen<br />

Hagen Barlag<br />

Fernuniversität Hagen<br />

Universitätsstraße 1<br />

58084 Hagen<br />

Hagen.Barlag@Fernuni-hagen.de<br />

Zusammenfassung: Die Diskussion des Begriffs Sicherheit bei Mobile Computing Systemen<br />

schließt einerseits die klassischen Sicherheitsbegriffe ein, wie sie auch im stationären<br />

Bereich anzuwenden sind. Andererseits ist hier der Kommunikationsaspekt von besonderer<br />

Bedeutung, da die Übermittlungskanäle hier in deutlich geringerem Maß unter<br />

der Kontrolle des Anwenders stehen, daher wird ausführlich auf die Sicherheitsaspekte<br />

von Nachrichten eingegangen. Bei dieser Diskussion werden auch Begriffe wie Beherrschbarkeit<br />

aufgegriffen, die nicht in allen Quellen der Sicherheit zugerechnet werden,<br />

für den Anwender aber von entscheidender Bedeutung sind. Für den Entwickler eines<br />

Systems ist es zudem wichtig, über die rechtlichen Datenschutzaspekte informiert zu sein,<br />

daher wird die Rechtslage in der Bundesrepublik erörtert.<br />

1 Der Begriff Sicherheit<br />

1.1 Einleitung<br />

Im allgemeinen Sprachgebrauch versteht man unter Sicherheit neben anderen Bedeutungen<br />

einerseits die Gewissheit, vor Gefahren geschützt zu sein, andererseits die Zuverlässigkeit und<br />

Verlässlichkeit eines Systems [DWDS03], anders ausgedrückt objektiv das Nichtvorhandensein<br />

von Gefahren und subjektiv die Gewissheit, vor möglichen Gefahren geschützt zu sein<br />

[Wohl99].<br />

Im Zusammenhang mit IT-Sicherheit ist die Forderung, ein System möge sicher sein, zu unscharf,<br />

um praktische Konsequenzen daraus abzuleiten. Sicherheitsmaßnahmen motivieren<br />

sich durch die Schäden, die eintreten können. Dazu gehören z. B. das Bekannt werden vertraulicher<br />

Informationen, unerlaubte Datenveränderungen mit u. U. erheblichen Auswirkungen,<br />

das unerlaubte Auslasten eines Systems oder die Beeinträchtigung der Verfügbarkeit<br />

[Lamp71].<br />

Diese Punkte werden unten im Einzelnen erörtert. Solche Schäden sind aber nicht auf die<br />

Datenverarbeitung mit einem Rechnersystem beschränkt, sondern können auch bei manueller<br />

Bearbeitung auftreten. Daher ist es erforderlich, zwischen solchen Schäden zu unterscheiden,<br />

die auch bei manueller Verarbeitung der entsprechenden Informationen auftreten könnten,<br />

und solchen, die gerade durch die maschinelle Datenverarbeitung ermöglicht werden. Insbesondere<br />

die ersteren machen es erforderlich, das Thema Sicherheit auf das organisatorische<br />

und menschliche Umfeld eines Systems auszudehnen, [Schn00], [Kelt92], d. h., Sicherheit im<br />

IT-Umfeld ist nicht allein durch Programmierung zu bewerkstelligen, es sind die Wechselwirkungen<br />

mit der Außenwelt zu berücksichtigen; ein sicheres System kann nur als Ganzes<br />

entworfen werden. Zahlreiche Schäden sind leichter durch organisatorische als durch programmtechnische<br />

Maßnahmen zu verhindern.<br />

Unter einer Bedrohung versteht man einen Umstand, der unter bestimmten Randbedingungen<br />

zu einem Schaden führen kann, z. B. unerlaubte oder unerwünschte Vorgänge, speziell Operationen<br />

mit Rechnern. D. h. ein Schaden tritt in der Regel als Manifestation einer Bedrohung<br />

auf. Hierbei handelt es sich aber um einen eher abstrakten Begriff, der stets durch die potentiellen<br />

Schäden konkretisiert werden muss, die bei einem entsprechenden Angriff auftreten


84 Sicherheit und Datenschutz für Mobile Anwendungen<br />

können. [Kelt92]. So ist es z. B. bei der Analyse im Hinblick auf die Nachrichtenintegrität (s.<br />

u.!) von entscheidender Bedeutung, welcher finanzielle oder sonstige Schaden durch eine<br />

verfälschte Nachricht eintreten kann. Daneben ist es wichtig, zu berücksichtigen, mit welcher<br />

Wahrscheinlichkeit ein Schaden eintritt, eine Überlegung, die zum Begriff des Risikos führt.<br />

Vereinfacht gesprochen beinhaltet Risiko die Multiplikation aus Schaden und<br />

Wahrscheinlichkeit.<br />

Bedrohungen und Schäden werden durch Sicherheitsmaßnahmen abgewehrt. Diese dienen<br />

also dazu, Schäden zu verhindern, ihr Ausmaß zu begrenzen oder ihr Eintreten aufzudecken.<br />

In der Regel sind Sicherheitsmaßnahmen auf die konkrete Kombination von Schaden und<br />

Bedrohung abzustimmen. Diese Überlegungen setzen daher voraus, dass man sich über die<br />

möglichen Angriffsziele Klarheit verschafft hat, da erst hierdurch eine Abwägung der Kosten<br />

zwischen den möglichen Schäden und den Maßnahmen, die zu ihrer Verhinderung erforderlich<br />

sind, möglich wird.<br />

Wir beginnen mit einer Konkretisierung der möglichen Angriffsziele, entwickeln dann eine<br />

Bedrohungssystematik und erläutern anschließend die klassischen Sicherheitsbegriffe wie<br />

Authentizität, Integrität, Vertraulichkeit und Nichtbestreitbarkeit, über die in der Literatur<br />

Einigkeit besteht [Schn01], [Anon99], [Wohl99], [Roth03]. Im Anschluss daran werden einige<br />

nicht technische Aspekte besprochen, um den Belangen des Datenschutzes abschließend<br />

besondere Aufmerksamkeit zu widmen. Diese Gesichtspunkte gelten generell bei der Diskussion<br />

von IT Sicherheit, insbesondere im Zusammenhang mit Computernetzen.<br />

1.2 Mögliche Angriffsziele<br />

Der erste der möglichen Angriffspunkte liegt in den verwendeten Kommunikationswegen.<br />

Bei LSI handelt es sich hier einerseits um die Internetverbindung zwischen den Location Servern<br />

bzw. zwischen diesen und den mit ihnen assoziierten Servern, andererseits um die Verbindung<br />

zwischen jenen und den mobilen Clients, der Luftschnittstelle. Es ist in beiden Fällen<br />

damit zu rechnen, dass die Übertragungswege abgehört werden, denn sie stehen nicht unter<br />

der Kontrolle einer einheitlichen Instanz. Es ist auch an eine Blockierung des Übertragungskanals<br />

zu denken, dies insbesondere bei der Luftschnittstelle, wo z. B. ein Funkkanal gestört<br />

werden kann. Das Internet ist zwar prinzipbedingt weniger leicht zu blockieren, aber einzelne<br />

Knoten können im Falle der Ausbreitung eines Virus oder durch eine Denial of Service-Attacke<br />

nicht erreichbar sein.<br />

Den zweiten Angriffspunkt stellen die verwendeten Geräte dar. Einerseits könnte sich jemand<br />

Zugriff zu einem Server verschaffen und diesen z. B. abschalten, andererseits sind die<br />

mobilen Clients durch das System nicht bzw. nur sehr eingeschränkt schützbar.<br />

Schließlich könnten die inhaltlichen Daten des Systems verfälscht bzw. bei etwaigen vertraulichen<br />

Sachverhalten auch unbefugt zur Kenntnis genommen werden, hierunter fällt auch das<br />

Betreiben eines malignen LSI-Servers.<br />

Der letzte und praktisch wohl bedeutsamste Angriffspunkt liegt in den Menschen, die das<br />

System benutzen bzw. warten. In vielen Fällen ist der Angriff hier am leichtesten durchzuführen.<br />

Dieser Gesichtspunkt wird aber in der vorliegenden Arbeit nicht näher behandelt.<br />

1.3 Bedrohungssystematik<br />

Wohlfeil stellt eine Bedrohungssystematik mit 3 Achsen auf [Wohl99]:<br />

1. Technisch ↔ Nichttechnisch<br />

2. Beabsichtigt ↔ Unbeabsichtigt<br />

3. Aktiv ↔ Passiv


85 Hagen Barlag<br />

1.3.1 Technisch ↔ Nichttechnisch<br />

Hier wird eingeteilt durch die Eigenschaften welches Systemteils die Bedrohung bedingt ist,<br />

wobei zu den technischen z. B. die Eigenschaften des Übertragungskanals gehören, zu den<br />

nichttechnischen eine Person, die einen Angriff durchführt.<br />

1.3.2 Beabsichtigt ↔ Unbeabsichtigt<br />

Bedrohungen können beabsichtigt oder unbeabsichtigt entstehen, unbeabsichtigt sind z. B.<br />

Bedienungsfehler, beabsichtigte das Ausspähen von Daten.<br />

1.3.3 Aktiv ↔ Passiv<br />

Schließlich führt er noch aktive und passive Bedrohungen an. Passiv ist z. B. das Abhören<br />

eines Funkkanals oder des Ethernets, aktiv das Verfälschen von Nachrichten. Aktive Bedrohungen<br />

sind leichter zu entdecken [Wohl99].<br />

1.4 Bedrohungsszenarien<br />

Es werden nun verschiedene klassische Bedrohungsszenarien dargestellt und anhand derer die<br />

Eigenschaften entwickelt, die Sicherheit ausmachen. Diese dienen als Überschriften. Einige<br />

dieser Eigenschaften erzeugen einen Zielkonflikt mit den Anforderungen des Datenschutzes.<br />

Dieser Aspekt wird im Kapitel Datenschutz thematisiert. Geläufige Gegenmaßnahmen werden<br />

kurz angesprochen. Anhand dieser Eigenschaften wird im Kapitel Bedrohungsanalyse die<br />

LSI untersucht. Dort werden auch adäquate Gegenmaßnahmen diskutiert. Die Bedrohungen<br />

werden nach der im vorigen Kapitel vorgestellten Systematik klassifiziert.<br />

1.4.1 Vertraulichkeit<br />

Bei einer Verletzung der Vertraulichkeit gewinnt neben den Berechtigten noch ein unbefugter<br />

Dritter Kenntnis über Inhalte. Es handelt sich hier um einen absichtlichen oder unabsichtlichen<br />

passiven Angriff nichttechnischer Natur. Er kann einerseits dadurch geschehen, dass ein<br />

Nachrichtenkanal abgehört wird, andererseits kann sich ein Unbefugter Zutritt zu dem Gerät<br />

verschaffen, auf dem die Daten abgelegt sind. Es kann sich um einen Server handeln oder um<br />

den Verlust oder Diebstahl eines mobilen Clients. Im Zusammenhang mit der nachträglichen<br />

Rekonstruktion eines Bewegungsprofils wirft dies Fragen danach auf, ob eine Speicherung<br />

zurückliegender Positionsangaben auf dem Client erfolgen darf.<br />

Eine Verletzung der Vertraulichkeit kann durch eine Verschlüsselung erschwert werden.<br />

Diese kann sich sowohl auf die Nachrichtenübertragung als auch auf die Ablage von Daten<br />

erstrecken.<br />

1.4.2 Integrität<br />

Bei einer Verletzung der Integrität werden Daten aktiv verändert. Dies geschieht i. d. R. absichtlich,<br />

nicht-technisch bedingt, ist jedoch auch unabsichtlich durch technische Probleme<br />

möglich, bzw. durch eine Fehlbedienung. Auch diese Bedrohung kann sich sowohl in der<br />

Übertragung als auch auf dem Server oder Client manifestieren.<br />

Ein mögliches Mittel gegen Integritätsverletzung ist die Erzeugung von Redundanz. Um auch<br />

aktive Angriffe abzudecken muss diese aber so ausgelegt sein, dass die Redundanzinformation<br />

nicht einfach aus den geänderten Daten erzeugt werden kann (Signierung). Auch eine<br />

Verschlüsselung erschwert eine Modifikation beträchtlich, da keine gezielte Datenverände-


86 Sicherheit und Datenschutz für Mobile Anwendungen<br />

rung mehr möglich ist. Ein einfaches Hinzufügen von z. B. Paritätsbits deckt dagegen nur<br />

eine unbeabsichtigte Modifikation auf.<br />

1.4.3 Identifikation und Authentizität<br />

Bei einer Kommunikation oder auch nur der Benutzung eines Rechners muss sich ein Benutzer<br />

zunächst identifizieren, z. B. durch eine Login-Prozedur, bei der er sich neben der Nennung<br />

seines (Benutzer)namens durch weitere „Beweise“ authentisiert [Kelt92]. Bei einer Authentizitätsverletzung<br />

stammt z. B. eine Nachricht nicht von dem Absender, der der Nachricht<br />

zu entnehmen ist. Es handelt sich um einen aktiven, nichttechnischen, beabsichtigten Angriff<br />

oder um einen Konfigurations- oder Bedienfehler, in diesem Falle wäre er unabsichtlich. Es<br />

ist einerseits daran zu denken, dass sich ein Fremdcomputer als LSI-Server ausgeben könnte,<br />

andererseits könnte sich ein Client unberechtigt LSI-<strong>Dienste</strong> zunutze machen.<br />

Ein Mittel, um Authentizitätsverletzungen zu begegnen ist die Verwendung von Message<br />

Authentication Codes, z. B. digitaler Signaturen oder auch in diesem Falle die Verwendung<br />

einer Verschlüsselung, die den Urheber erkennen lässt. Hier ist allerdings die begrenzte Rechenkapazität<br />

mancher Clients zu berücksichtigen, darüber hinaus ist die Sicherheit von hinterlegten<br />

Schlüsselinformationen auf mobilen Geräten als eher gering einzustufen.<br />

Grundsätzlich ist eine Identifikation und Authentisierung pro Kommunikationssitzung oder<br />

pro Nachricht möglich.<br />

1.4.4 Autorisierung und Zugriffssteuerung<br />

Mit der Identifikation und Authentisierung eines Benutzers geht i. d. R. eine bestimmte Autorisierung<br />

einher, d. h. der Benutzer hat Zugriff auf nur einen Teil eines Systems [Roth03]. Bei<br />

einer Verletzung der Autorisierung, die das ganze Spektrum der Systematik umfassen kann,<br />

erlangt ein Benutzer Zugriff auf Systembestandteile, die ihm nicht zustehen. Hierzu muss<br />

natürlich klar definiert sein, auf welche Systemteile welcher Benutzer Zugriff haben soll.<br />

Diese Überlegungen sind im Zusammenhang mit LSI insbesondere in der Serverkommunikation<br />

anzustellen: Wer darf Informationen anbieten<br />

1.4.5 Nicht-Abstreitbarkeit<br />

In diesem Zusammenhang ist sicherzustellen, dass einerseits der Empfänger nachweisen kann,<br />

dass eine konkrete Nachricht tatsächlich vom vorgeblichen Absender kommt. In Erweiterung<br />

des Authentizitätsbegriffs kann der Sender also nicht mehr abstreiten, die fragliche Nachricht<br />

erzeugt zu haben. Andererseits kann der Sender beweisen, dass ein Empfänger eine Nachricht<br />

tatsächlich erhalten hat. Die Einstufung in die Systematik ist hier genauso vorzunehmen, wie<br />

bei der Authentizität.<br />

Dieser Aspekt kann durch die Erzeugung von authentischen Quittungen für eine Nachricht<br />

sichergestellt werden.<br />

1.4.6 Verfügbarkeit<br />

Bei einem Angriff auf die Verfügbarkeit steht der entsprechende Dienst bei Bedarf nicht zur<br />

Verfügung. Es handelt sich hier i. d. R. um einen aktiven, beabsichtigten technischen Angriff<br />

(z. B. Denial of Service-Attacke) oder um ein passives unabsichtliches technisches Problem<br />

(Antennenmast umgefallen).<br />

Das klassische Gegenmittel sind hier hochverfügbare Systeme, die redundant ausgelegt sind,<br />

so dass einzelne Ausfälle den Betrieb nicht unterbinden.


87 Hagen Barlag<br />

1.4.7 Verlässlichkeit<br />

Ein weiterer zentraler Sicherheitsaspekt eines Systems ist dessen Verlässlichkeit, d. h. die<br />

Funktionsweise eines Systems muss den gestellten Anforderungen genügen; insbesondere<br />

muss der Benutzer sich auf die Ergebnisse verlassen können, und er muss sie in einer Zeit<br />

erhalten, die seinen Bedürfnissen entspricht. In diesem Zusammenhang existiert ein Interessenkonflikt<br />

zwischen den Sicherheitsanforderungen und den durch die begrenzte Rechenkapazität<br />

der Clients hervorgerufenen Antwortzeiten, wenn z. B. durch die Verwendung komplexer<br />

Verschlüsselungsverfahren deren Prozessoren überlastet werden.<br />

1.4.8 Beherrschbarkeit<br />

Für den Nutzer eines Systems stellt dessen Beherrschbarkeit einen zentralen Aspekt dar.<br />

Wohlfeil definiert Beherrschbarkeit als Schutz vor den unerwünschten Auswirkungen von<br />

Technologien und Systemen [Wohl99]. Im Zusammenhang mit der LSI ist hier wohl in erster<br />

Linie an die Erstellung von Bewegungsprofilen zu denken, die schon durch die technische<br />

Grundkonzeption der Identifizierung und Autorisierung verhindert werden sollte.<br />

Darüber hinaus gehört zur Beherrschbarkeit, dass der Benutzer weiß, was mit seinen Daten<br />

passiert (s. folgendes Kapitel Datenschutz bzw. informationelles Selbstbestimmungsrecht!).<br />

Schließlich kann sich für den Benutzer der Eindruck einer mangelhaften Beherrschbarkeit und<br />

daraus folgend erhebliche Akzeptanzprobleme auch durch die ausgeprägte Asymmetrie in der<br />

Beziehung zum Provider ergeben [Haus01], [Rodd02], der Benutzer hat den (zutreffenden)<br />

Eindruck, der Provider könne mit seinen Daten machen „was er wolle“.<br />

2 Datenschutz<br />

2.1 Grundlagen<br />

Die Ausführungen in diesem Kapitel stützen sich auf die Info 1 und die Info 5 des Bundesbeauftragten<br />

für den Datenschutz [BFD03], [BFD01], sowie auf das Bundesdatenschutzgesetz<br />

selbst [BDSG01].<br />

Das Ziel des Datenschutzes ist es, den Menschen vor einer Gefährdung durch die nachteiligen<br />

Folgen einer Datenverarbeitung zu schützen, insbesondere solchen Folgen, die sein Persönlichkeitsrecht<br />

beeinträchtigen. Dieser Grundsatz wird aus den Artikeln 1 und 2 des Grundgesetzes<br />

hergeleitet. Besondere Beachtung verdient in diesem Zusammenhang das Recht auf<br />

informationelle Selbstbestimmung, wie das Bundesverfassungsgericht in seinem so genannten<br />

Volkszählungsurteil 1983 festgestellt hat, d. h. der Einzelne muss u. a. mit hinreichender Sicherheit<br />

überschauen können, was mit seinen Daten geschieht. Eingriffe in dieses Recht sind<br />

nur auf Grundlage eines Gesetzes zulässig, die Verarbeitung personenbezogener Daten bedarf<br />

der Zustimmung.<br />

Als gesetzliche Grundlage des Datenschutzes dient das Bundesdatenschutzgesetz. Es definiert<br />

weitgehende Rechte von Personen, deren Daten automatischer Datenverarbeitung unterliegen.<br />

Andererseits ist es nicht so, dass dem Einzelnen eine völlige Herrschaft über seine Daten zugestanden<br />

wird, insbesondere gegenüber dem Staat. Um das Gleichgewicht zwischen dem<br />

Bürger und den Erfordernissen privater und öffentlicher Stellen zu wahren, wird das Bundesdatenschutzgesetz<br />

in einer ganzen Reihe von weiteren Gesetzen und Verordnungen konkretisiert,<br />

insbesondere wird z. B. auch die Weitergabe persönlicher Daten nicht von vornherein<br />

ausgeschlossen. Diese Regelungen haben gegenüber dem Bundesdatenschutzgesetz den Vorrang,<br />

berufen sich aber häufig auf dieses und konkretisieren dessen Anforderungen. Im Folgenden<br />

werden zunächst die relevanten Bestimmungen des Bundesdatenschutzgesetzes umrissen,<br />

um dann auf die weiteren Verordnungen einzugehen.


88 Sicherheit und Datenschutz für Mobile Anwendungen<br />

2.2 Einschlägigkeit des Bundesdatenschutzgesetzes<br />

Die Datenverarbeitung mit Hilfe des LSI oder eines andern mobilen <strong>Dienste</strong>s unterliegt dem<br />

Datenschutzgesetz, denn es handelt sich um die Datenverarbeitung unter Verwendung von<br />

Datenverarbeitungsanlagen, die nicht im rein familiären Umfeld stattfindet und es handelt<br />

sich auch nicht um die Wahrnehmung hoheitlicher Aufgaben.<br />

Daraus ergibt sich, dass eine für den Anwender anonyme Nutzung des <strong>Dienste</strong>s grundsätzlich<br />

vorzuziehen ist, da diese dem Prinzip der Datenvermeidung gerecht wird.<br />

Ist dies nicht möglich so ergeben sich weitreichende Rechte für den Anwender bzw. Verpflichtungen<br />

für denjenigen, der die Daten erhebt. Diese Rechte und Verpflichtungen werden<br />

im Folgenden kurz dargelegt.<br />

2.2.1 Begriffsbestimmungen<br />

Betroffener<br />

ist diejenige bestimmte oder bestimmbare natürliche Person,<br />

deren Daten erhoben bzw. verarbeitet werden.<br />

Personenbezogene Daten sind Einzelangaben über persönliche oder sachliche Verhältnisse<br />

eines Betroffenen wie Alter, Anschrift, Vermögen, Überzeugungen<br />

usw.<br />

Verantwortliche Stelle ist jede Person oder Stelle, die personenbezogene Daten für sich<br />

selbst erhebt, verarbeitet oder nutzt oder dies andere im Auftrag<br />

vornehmen lässt.<br />

2.2.2 Restriktive Auslegung (§§ 4, 4a BDSG)<br />

Im Umgang mit persönlichen Daten ist alles verboten, was nicht im Rahmen des Bundesdatenschutzgesetzes<br />

oder einer anderen Verordnung ausdrücklich erlaubt wurde. Darüber hinaus<br />

ist der Betroffene vom Verwender der Daten unaufgefordert zu benachrichtigen.<br />

2.2.3 Einverständniserklärung (§§ 4, 4a BDSG)<br />

Ein Nutzer eines <strong>Dienste</strong>s muss sein Einverständnis zur Verarbeitung seiner Daten i. d. R.<br />

schriftlich erklären, sofern die Benutzung des Systems nicht anonym erfolgen kann. Ob evt.<br />

auf die Schriftform nach §4a Abs1 BDSG und §89 Abs. 10 TKG verzichtet werden kann, ist<br />

bei der Analyse des Systems zu überprüfen. Dies ist u. U dann der Fall, wenn dem Benutzer<br />

nach Art des <strong>Dienste</strong>s die Schriftform nicht zuzumuten ist (Website, Mailgruppe).<br />

2.2.4 Zweckbestimmung (§§ 14, 18, 28, 29 BDSG)<br />

Die Zweckbestimmung der persönlichen Daten muss geklärt sein (z. B. Abrechnung der<br />

Leistungen mit anschließender Vernichtung der Daten), insbesondere private Stellen sind<br />

nach §28 Abs1 Satz 2 und §29 Abs. 1 Satz 2 verpflichtet, die Zwecke konkret festzulegen.<br />

Die Erhebung darf nicht heimlich erfolgen. Die Daten dürfen nur für den Zweck verwendet<br />

werden, für den sie erhoben wurden. Hiervon ist jedoch eine Reihe von Ausnahmen zulässig,<br />

die nach öffentlichen und privaten Stellen unterschieden werden. Die Ausnahmen für private<br />

Datenerheber sind:<br />

• Zur Wahrnehmung berechtigter Interessen der verantwortlichen Stelle.<br />

• Wenn die Daten allgemein zugänglich sind oder veröffentlicht werden dürfen.<br />

• Zu wissenschaftlichen Zwecken.<br />

• Für Zwecke der Werbung, der Markt und Meinungsforschung bei „listenmäßiger<br />

Übermittlung“, jedoch nicht, wenn die Daten im Zusammenhang mit einem Vertrags-


89 Hagen Barlag<br />

verhältnis oder einem vertragsähnlichen Vertrauensverhältnis gewonnen wurden.<br />

Bei der listenmäßigen Übermittlung handelt es sich um die Weitergabe eines bestimmten<br />

Kataloges, nämlich ein freies Merkmal, Berufs-, Branchen- oder Geschäftsbezeichnung,<br />

Namen, Titel, akademische Grade, Anschrift und Geburtsjahr. Hiergegen<br />

hat der Betroffene ein Widerspruchsrecht, das freie Merkmal darf nicht die z. B.<br />

die Religionszugehörigkeit oder andere „sensible Informationen“ umfassen. Das Verfahren<br />

ist rekursiv, d. h. der dem die Daten übermittelt wurden, darf sie seinerseits<br />

weitergeben, solange dem Betroffenen auf Verlangen mitgeteilt wird, von wem seine<br />

Daten stammen, damit er weiß, wohin er seinen Widerspruch richten muss. Wer keine<br />

Werbung bekommen möchte, kann sich in die entsprechende Robinson-Liste eintragen,<br />

deren Beachtung durch die Werbewirtschaft erfolgt jedoch freiwillig.<br />

2.2.5 Benachrichtigung (§ 34 BDSG)<br />

Speichert eine Stelle erstmalig Daten über einen Betroffenen, so ist dieser darüber zu benachrichtigen,<br />

sofern der Betroffene dies nicht ohnehin weiß. Das Recht auf Benachrichtigung<br />

erstreckt sich auf die gleichen Daten wie das Auskunftsrecht (s. u.!). Eine Speicherung ohne<br />

ausdrückliches Einverständnis des Betroffenen könnte im Zusammenhang mit Mobile Computing<br />

und Telekommunikation eintreten, wenn die Daten listenmäßig (s. o.!) übermittelt<br />

wurden oder wenn eine neue Stelle die Daten des Betroffenen übernimmt (Roaming, Änderung<br />

der Benutzerverwaltungsstruktur usw.). Es sind folgende Ausnahmen von der Pflicht zur<br />

Benachrichtigung definiert:<br />

• Die Daten sind nur deshalb gespeichert , weil sie wegen gesetzlicher, satzungsmäßiger<br />

oder vertraglicher Aufbewahrungspflichten nicht gelöscht werden dürfen oder sie ausschließlich<br />

der Datensicherung oder der Datenschutzkontrolle dienen und eine Benachrichtigung<br />

einen unverhältnismäßigen Aufwand bedeuten würde.<br />

• Die Daten müssen wegen einer Rechtsvorschrift oder wegen überwiegenden rechtlichen<br />

Interesses eines Dritten geheim bleiben.<br />

• Die Speicherung zur wissenschaftlichen Forschung geschieht und eine Benachrichtigung<br />

einen unverhältnismäßigen Aufwand bedeuten würde.<br />

• Die zuständige öffentliche Stelle gegenüber der speichernden Stelle festgestellt hat,<br />

dass das Bekannt werden der Daten die öffentliche Sicherheit und Ordnung gefährden<br />

würde oder dem Wohle des Bundes oder eines Landes schaden würde.<br />

• Die Daten für eigene Zwecke gespeichert sind und aus allgemein zugänglichen Quellen<br />

stammen und eine Benachrichtigung wegen der Vielzahl der Fälle einen unverhältnismäßigen<br />

Aufwand bedeuten würde oder die Benachrichtigung der Betroffenen<br />

den Geschäftszweck gefährden würde, es sei denn das Interesse der Betroffenen überwiegt.<br />

Die speichernde Stelle legt schriftlich fest, unter welchen Voraussetzungen von einer Benachrichtigung<br />

abgesehen wird.<br />

2.2.6 Auskunftsrecht (§§ 19, 19a, 33, 34 BDSG)<br />

Ein Betroffener hat das Recht auf Auskunft über die zu seiner Person gespeicherten Daten<br />

einschließlich der Angaben, woher diese stammen, an wen sie übermittelt wurden und den<br />

Zweck der Speicherung. Die Auskunft ist kostenlos zu erteilen, außer die Auskunft kann vom<br />

Betroffenen für wirtschaftliche Zwecke genutzt werden, in diesem Falle dürfen die Gebühren<br />

die direkt zurechenbaren Kosten für die Ermittlung der fraglichen Daten nicht übersteigen.<br />

Sind die Daten unrichtig oder unzulässigerweise gespeichert, ist die Auskunft in jedem Falle


90 Sicherheit und Datenschutz für Mobile Anwendungen<br />

kostenlos zu erteilen. Es ist ausdrücklich darauf hinzuweisen, dass der Betroffene bei persönlicher<br />

Kenntnisnahme die Auskünfte unentgeltlich bekommen kann.<br />

Es bestehen dieselben Ausnahmen von der Auskunftspflicht, wie bei der Benachrichtigungspflicht<br />

(s. o.!). Wird aus diesen Gründen die Auskunft über bestimmte Punkte verweigert, ist<br />

darauf hinzuweisen, außer der Zweck der Verweigerung würde dadurch gefährdet.<br />

2.2.7 Einsichtsrecht in das Verfahrensverzeichnis (§§ 4g , 4d, 4e, 38 BDSG)<br />

Die speichernden Stellen führen eine Übersicht, aus der hervorgeht, in welchen automatisierten<br />

Verarbeitungen personenbezogene Daten gespeichert werden. Das Verfahrensverzeichnis<br />

enthält folgende Angaben:<br />

• Name oder Firma der verantwortlichen Stelle<br />

• Inhaber, Vorstände, Geschäftsführer oder sonstige berufene Leiter und die mit der<br />

Datenverarbeitung beauftragten Personen<br />

• Anschrift der verantwortlichen Stelle<br />

• Zweckbestimmung der Datenverarbeitung<br />

• Eine Beschreibung der betroffenen Personengruppen und ihrer Daten oder<br />

Datenkategorien<br />

• Empfänger oder Kategorien von Empfängern, denen Daten weitergegeben werden<br />

können<br />

• Regelfristen für die Löschung von Daten<br />

• Eine etwa geplante Datenübermittlung an Drittstaaten.<br />

Dieses Verzeichnis kann von jedermann eingesehen werden.<br />

2.2.8 Berichtigung (§§ 20, 35 BDSG)<br />

Unrichtige Daten sind zu berichtigen, es ist zu vermerken, wenn ein Betroffener die Richtigkeit<br />

bestreitet.<br />

2.2.9 Löschung (§ 35 BDSG)<br />

• Es sind Daten zu löschen, deren Speicherung unzulässig ist.<br />

• Daten über rassische oder ethnische Herkunft, politische Meinungen, religiöse oder<br />

Philosophische Überzeugungen, Gewerkschaftszugehörigkeit, Gesundheit, Sexualleben,<br />

strafbare Handlungen, Ordnungswidrigkeiten, deren Richtigkeit von der speichernden<br />

Stelle nicht bewiesen werden kann<br />

• Daten, die nicht mehr benötigt werden sind gleichfalls zu löschen. Am Ende des vierten<br />

Kalenderjahres nach einer Speicherung sind Daten daraufhin zu überprüfen.<br />

2.2.10 Sperrung (§ 35 BDSG)<br />

Wären Daten zu löschen und es steht dem ein besonderer Grund entgegen, so sind die Daten<br />

zu sperren.<br />

Besondere Gründe sind:<br />

• Gesetzlich oder satzungsmäßig oder vertraglich festgelegte Aufbewahrungsfristen<br />

• Schutzwürdige Interessen des Betroffenen<br />

• Unverhältnismäßiger Aufwand der Löschung.<br />

Bestreitet der Betroffene die Richtigkeit der Angaben und lässt sich dies nicht entscheiden,<br />

sind die Daten zu sperren.


91 Hagen Barlag<br />

Gesperrte Daten dürfen nicht übermittelt oder genutzt werden. Ausnahmen:<br />

• Wissenschaftliche Zwecke<br />

• Zur Behebung einer bestehenden Beweisnot<br />

• Aus sonstigen Gründen im überwiegenden Interesse der speichernden Stelle oder eines<br />

Dritten<br />

2.2.11 Widerspruchsrecht (§§ 20 Abs 5, 35 Abs 5 BDSG)<br />

Rechtmäßigen Datenverarbeitungen kann der Betroffene in Ausnahmefällen widersprechen,<br />

sofern besondere Umstände in der Person des Betroffenen vorliegen und sein schutzwürdiges<br />

Interesse das der verarbeitenden Stelle überwiegt.<br />

2.2.12 Rechte beim Einsatz von Chipkarten (§ 6c BDSG)<br />

Sollten Chipkarten mit einem Prozessorchip verwendet werden, so muss die ausgebende<br />

Stelle den Betroffenen über folgende Sachverhalte informieren:<br />

• Ihre Identität und Anschrift<br />

• Die Funktionsweise des Mediums einschließlich der Art der Datenverarbeitung in<br />

allgemein verständlicher Form.<br />

• Wie der Betroffene seine Rechte auf Auskunft, Berichtigung, Löschung, Sperrung und<br />

das Widerspruchsrecht ausüben kann. (Hierzu sind in angemessenen Umfang Lesegeräte<br />

zur Verfügung zu stellen.)<br />

• Welche Maßnahmen bei Verlust oder Zerstörung der Karte zu treffen sind.<br />

Es ist für den Betroffenen kenntlich zu machen, wann ein Lesevorgang auf der Karte eine<br />

Datenverarbeitung auslöst, damit andere nicht ohne Kenntnis des Betroffenen in den Besitz<br />

seiner Daten gelangen.<br />

2.2.13 Anrufung von Kontrollinstanzen für den Datenschutz (§§ 21, 38 BDSG)<br />

Wer annimmt, bei der Datenverarbeitung in seinen Rechten verletzt worden zu sein, kann die<br />

entsprechenden Aufsichtsbehörden der Länder anrufen, wenn die Verletzung durch eine nicht<br />

öffentliche Stelle erfolgte. Bei öffentlichen Stellen sind die Datenschutzbeauftragten zuständig.<br />

Diese Stellen untersuchen den Sachverhalt und unterrichten den Betroffenen vom Ergebnis.<br />

Dabei wird Vertraulichkeit zugesichert. Die jeweils zuständige Stelle sowohl bei privater<br />

als auch bei staatlicher Datenverarbeitung kann im Anhang 4 von [BFD03] nachgelesen<br />

werden.<br />

2.2.14 Schadenersatz und Schmerzensgeld (§§ 7, 8 BDSG)<br />

Wenn eine verantwortliche Stelle einem Betroffenen durch eine unzulässige oder unrichtige<br />

Datenverarbeitung einen Schaden zufügt, ist sie zum Ersatz verpflichtet. Bei einer schweren<br />

Verletzung des Persönlichkeitsrechts kann auch ein Schmerzensgeld zuerkannt werden.<br />

Die Stelle kann sich von diesen Ansprüchen frei halten, wenn sie nachweisen kann, die gebotene<br />

Sorgfalt eingehalten zu haben.<br />

2.2.15 Weitere Rechte<br />

Andere Rechte betreffen z. B. die Videoüberwachung oder die automatisierte Entscheidung<br />

(Maschinen entscheiden über Menschen) und werden hier nicht besprochen, da sie im Zusammenhang<br />

mit Mobile Computing von untergeordneter Bedeutung sind.


92 Sicherheit und Datenschutz für Mobile Anwendungen<br />

2.2.16 Übermittlung von Daten ins Ausland (§§ 4b, 4c BDSG)<br />

Die Übermittlung von Daten innerhalb der EU ist genauso zu betrachten wie die innerhalb<br />

Deutschlands (s. o.!)<br />

Sofern eine Übermittlung der Daten ins außereuropäische Ausland in Betracht gezogen wird<br />

(„Welt-Server“) so ist sicherzustellen, dass das entsprechende Land über ein angemessenes<br />

Datenschutzniveau verfügt und der Betroffene kein schutzwürdiges Interesse am Ausschluss<br />

der Übermittlung hat. Die Feststellung eines angemessenen Datenschutzniveaus kann entweder<br />

durch die EU-Komission oder durch die übermittelnde Stelle selbst nach Art und Zweckbestimmung<br />

der Daten, Dauer der Verarbeitung und anderen Kriterien festgestellt werden<br />

(Einzelheiten § 4 Abs 3 BDSG).<br />

Im Verkehr mit den USA, die kein angemessenes Datenschutzniveau aufweisen, wurde das<br />

„Safe Harbour-Prinzip“ entwickelt. Der Empfänger muss sich verpflichten, ein der EU-Norm<br />

entsprechendes Datenschutzniveau sicherzustellen, dann gelten die Regelungen des EU-Verkehrs<br />

entsprechend.<br />

Eine beabsichtigte Übermittlung ins Ausland ist dem Betroffenen von vornherein mitzuteilen.<br />

2.2.17 Technische Vorkehrungen (§ 9, 10 BDSG)<br />

Bei Erhebung, Verarbeitung und Nutzung personenbezogener Daten sind die notwendigen<br />

technischen Vorkehrungen zu treffen, um die Vorschriften des Bundesdatenschutzgesetzes<br />

einzuhalten, insbesondere ist:<br />

• Unbefugten der Zutritt zu DV-Anlagen zu verwehren,<br />

• zu verhindern, dass die DV-Anlagen von Unbefugten genutzt werden können,<br />

• zu gewährleisten, dass die zur Benutzung des DV-Systems Berechtigten ausschließlich im<br />

Rahmen dieser Berechtigung zugreifen können und personenbezogene Daten bei der Verarbeitung<br />

und Nutzung und nach der Speicherung nicht unbefugt gelesen und kopiert, verändert<br />

oder entfernt werden können.<br />

Insbesondere sind die Schutzmaßnahmen als ein zusammenhängendes System zu verstehen,<br />

in dem die Datenschutzmaßnahmen zusammen mit sonstigen Sicherheitsmaßnahmen entwickelt<br />

werden. Konkret sind z. B. Befugte und ihre Zugriffsrechte für das LSI explizit zu definieren<br />

und dürfen sich nicht aus programmtechnischen Zusammenhängen „einfach so“<br />

ergeben.<br />

Besonders hohe Anforderungen ergeben sich, sofern ein automatisiertes Abrufverfahren von<br />

persönlichen Daten eingerichtet werden soll.<br />

2.3 Weitere Gesetze und Verordnungen<br />

Neben dem Bundesdatenschutzgesetz, dessen Auswirkungen im vorangegangenen Kapitel<br />

angerissen wurden, sind im Zusammenhang mit dem Datenschutz in der Telekommunikation<br />

bzw. dem Anbieten von Telediensten, einige weitere Gesetze einschlägig. So beschränkt z. B.<br />

das Grundgesetz den Zugriff staatlicher Stellen auf private Kommunikationsdaten im Artikel<br />

10 (Fernmeldegeheimnis). Die LSI stellt keine Kommunikationsleistungen im engeren Sinne<br />

zur Verfügung, denn ein Datenaustausch findet ja nicht zwischen zwei Betroffenen statt,<br />

vielmehr fragt ein Betroffener <strong>Dienste</strong> ab. (Da ich kein Jurist bin, ist diese Bewertung mit<br />

Vorsicht zu genießen.) Somit handelt es sich um einen Teledienst. Es werden daher zunächst<br />

die für Teledienste im privaten Geschäftsverkehr einschlägigen Gesetzeswerke vorgestellt um<br />

anschließend der Vollständigkeit halber die Regelungen für Telekommunikationsdienste kurz


93 Hagen Barlag<br />

zu umreißen. Die bereichsspezifischen Regelungen haben wie erwähnt den Vorrang<br />

gegenüber dem Bundesdatenschutzgesetz.<br />

2.3.1 Das Informations- und Kommunikationsdienstegesetz<br />

Dieses Gesetz regelt die Rahmenbedingungen für Informations- und Kommunikationsdienste,<br />

wobei vorausgesetzt wird, dass Inhalte übermittelt werden, es wird also ausdrücklich nicht die<br />

Telekommunikation geregelt. Darüber hinaus wird festgelegt, wann ein Anbieter eines Teledienstes<br />

auch Normadressat für die Regelungen der Kommunikation ist, nämlich dann, wenn<br />

Kommunikationsdienste wie E-Mail oder SMS angeboten werden.. Zusammen mit ihm wurden<br />

das Teledienstgesetz und das Teledienste-Datenschutzgesetz verabschiedet (s. u.!).<br />

2.3.2 Das Teledienstegesetz<br />

Dieses Gesetz gibt Anhaltspunkte zur Abgrenzung von Telediensten und Telekommunikationsleistungen<br />

und legt die Anmeldefreiheit von Telediensten fest, sowie die Verantwortung<br />

für deren Inhalt, d. h. ein Anbieter ist nur für eigene Inhalte verantwortlich. Darüber hinaus ist<br />

der Anbieter eines <strong>Dienste</strong>s zu kennzeichnen.<br />

2.3.3 Das Teledienste-Datenschutzgesetz<br />

Hier werden die Regelungen des Bundesdatenschutzgesetzes für Teledienste konkretisiert. Es<br />

wird die elektronisch erklärte Einwilligung geregelt und festgelegt, dass einem Nutzer eine<br />

anonyme Nutzung eines <strong>Dienste</strong>s zu ermöglichen ist, sofern dies technisch möglich und zumutbar<br />

ist. Es wird festgelegt, dass die Datenschutzbeauftragten der Länder zuständig sind.<br />

Ein Anbieter muss eine Privacy Policy verfassen und dem Kunden auf Wunsch zugänglich<br />

machen. Außerdem muss er den Kunden über Umfang und Zweck der Datenerhebung, –Verarbeitung<br />

und –Nutzung unterrichten.<br />

2.3.4 Telekommunikationsverordnungen<br />

Es werden nun die für Kommunikationsdienste gültigen Gesetze stichwortartig umrissen.<br />

• Das Telekommunikationsgesetz. Gültigkeit des Fernmeldegeheimnisses auch im privaten<br />

Verkehr.<br />

• Die Telekommunikations-Kundenschutzverordnung. Regelung der Vertragsverhältnisse<br />

zwischen Anbietern von Telekommunikationsdienstleistungen und ihren Kunden,<br />

Verbraucherschutz<br />

• Die EU-Telekommunikations-Datenschutzrichtlinie. Regelung der Verarbeitung<br />

persönlicher Daten in diesem Zusammenhang, Richtlinien für die Einzelstaaten, insbesondere<br />

auch zur Verarbeitung von Standortdaten (!) z. B. Schutz vor unerwünschten E-<br />

Mails. Diese Richtlinie hat keine unmittelbare Rechtswirkung, sondern muss von den EU-<br />

Staaten in nationales Recht umgesetzt werden.<br />

• Die Telekommunikations-Überwachungsverordnung. Regelt den Zugriff staatlicher<br />

Stellen auf Kommunikationsdaten zum Zwecke der Strafverfolgung: Sollte es möglich<br />

sein mit einem Dienst Bewegungsprofile zu erstellen, könnte man sich der Forderung gegenübersehen,<br />

diese auch preiszugeben, bzw. sogar die entsprechende Möglichkeit zu<br />

schaffen. Andererseits dürfen nach deutschem Recht nur wirkliche Kommunikationsdienste<br />

abgehört werden (E-Mail, Internettelefonie, SMS und Mailboxsysteme).


94 Sicherheit und Datenschutz für Mobile Anwendungen<br />

2.3.5 Weitere praktische Konsequenzen<br />

Über die im Abschnitt über das Datenschutzgesetz formulierten Anforderungen hinaus ergeben<br />

sich aus den genannten Vorschriften noch zwei für mobile Anwendungen bedeutsame<br />

Sachverhalte.<br />

1. Einige Tatbestände sind mit Bußgeld bedroht, darunter u. a.:<br />

• Nutzung der Bestandsdaten für Beratung, Werbung, Marktforschung ohne Einwilligung<br />

des Kunden<br />

• Speicherung der Verbindungsdaten über das Ende der Verbindung hinaus, obwohl sie<br />

nicht mehr erforderlich sind<br />

2. Sollte die Nutzung eines <strong>Dienste</strong>s mit Rechnungsstellung erfolgen, so sind die diesbezüglichen<br />

Vorschriften (z. B. über Einzelverbindungsnachweis usw.) sinngemäß<br />

anzuwenden.<br />

3 Fazit<br />

Bei Überlegungen zur Sicherheit einer mobilen Anwendung ist stets das System als Ganzes<br />

insbesondere einschließlich seiner Benutzer zu betrachten. Hierbei sind in die Überlegungen<br />

neben den klassischen Zielen Integrität, Authentizität, Autorisierung, Vertraulichkeit und<br />

Nicht-Abstreitbarkeit auch die Verfügbarkeit, Verlässlichkeit und Beherrschbarkeit einzubeziehen.<br />

Diesbezügliche Mängel eines Systems können sein Scheitern aufgrund fehlender Akzeptanz<br />

zur Folge haben.<br />

Außerdem müssen schon beim Entwurf die Datenschutzaspekte mindestens gleichwertig neben<br />

den technischen Erwägungen behandelt werden. Hier ist in erster Linie das Prinzip der<br />

Datenvermeidung anzuführen, d. h. nach Möglichkeit auf die Erhebung persönlicher Daten<br />

völlig oder möglichst weitgehend zu verzichten, bei dessen Beachtung die erheblichen Verpflichtungen,<br />

die sich aus den bundesdeutschen Rechtsvorschriften für den Betreiber einer<br />

Datenverarbeitungsanlage ergeben, ganz oder teilweise entfallen. Bei der Abwägung, ob eine<br />

Vorgehensweise überhaupt in Frage kommt, ist die restriktive Auslegung von entscheidender<br />

Bedeutung, also die Tatsache, dass im Zusammenhang mit der Erhebung persönlicher Daten<br />

alles verboten ist, was nicht ausdrücklich durch die einschlägigen Gesetze erlaubt wurde.<br />

Man muss sich bewusst sein, dass Datenschutzverletzungen Verletzungen der Menschenwürde<br />

und des Persönlichkeitsrechts zur Folge haben können, Gütern von zentralem<br />

Verfassungsrang.


95 Hagen Barlag<br />

Referenzen<br />

[Anon99]<br />

Anonymus: Hacker’s guide – Sicherheit im Internet und im lokalen Netz, Markt&Technik,<br />

Haar bei München 1999<br />

[BDSG01]<br />

Bundesdatenschutzgesetz nach der Novelle vom 21. Mai 2001, zitiert nach [BFD03]<br />

[BFD01].<br />

Der Bundesbeauftragte für den Datenschutz: Info Nr. 5 zum Datenschutz: Datenschutz in der<br />

Telekommunikation<br />

http://www.bfd.bund.de/information/pdf/info_5.pdf<br />

[BFD03]<br />

Der Bundesbeauftragte für den Datenschutz: Info Nr. 1 zum Datenschutz: Datenschutzgesetz<br />

– Text und Erläuterung, Stand Januar 2003<br />

http://www.bfd.bund.de/information/pdf/info_1.pdf<br />

[DWDS03]<br />

Berlin-Brandenburgische Akademie der Wissenschaften: Digitales Wörterbuch der deutschen<br />

Gegenwartssprache http://www.zeit.de/schwerpunkte/hochschule/akademie/index<br />

[Haus02]<br />

Hauser, C.; Kabatnik, M.: Towards Privacy Support in a Global Location Service in Proceedings<br />

of the IFIP Workshop on IP and ATM Traffic management, Paris 2001<br />

[Kelt92]<br />

Kelter, U.: Betriebssysteme, Kurs 1802 der Fernuniversität Hagen, Kapitel 6: Sicherheit S.<br />

172-183, Hagen 1992<br />

[Lamp71]<br />

Lampson, B. W. : Protection, in Proc. 5th Princeton Conference on Information Sciences and<br />

Systems, Princeton 1971 S. 437<br />

[Rodd02]<br />

Rodden, T. et al.: A Lightweight Approach to Managing Privacy in Location-Based Services,<br />

Technical Report Equator-02-058, University of Nottingham and Lancaster University and<br />

University of Bristol, October 2002<br />

http://www.equator.ac.uk/papers/Abstracts/2002-rodden-1.html<br />

[Roth03]<br />

Roth, J.: Mobile Computing, Kurs 1679 der Fernuniversität Hagen<br />

Hagen 2003<br />

[Schi94]<br />

Schilit, B. et al.: Context-Aware Computing Applications, Workshop on Mobile Computing<br />

Systems and Applications, Santa Cruz, 1994<br />

http://seattleweb.intel-research.net/people/schilit/wmc-94-schilit.pdf


96 Sicherheit und Datenschutz für Mobile Anwendungen<br />

[Schn01]<br />

Schneier, B.: Secrets and Lies – IT Sicherheit in einer vernetzten Welt, Wiley VCH-Verlag,<br />

Weinheim, 2001<br />

[Wohl99]<br />

Wohlfeil, S.: Sicherheit im Internet, Kurs 1866 der Fernuniversität Hagen<br />

Hagen 1999


Sicherheitsproblematik am Beispiel der<br />

Location Server Infrastructure<br />

Stephan Drautz<br />

Fernuniversität Hagen<br />

Universitätsstraße 1<br />

58084 Hagen<br />

sdrautz@gmx.de<br />

Zusammenfassung: In diesem Dokument wird die Sicherheitsproblematik an einem<br />

konkreten Beispiel dargestellt. Hierzu wird näher auf die Location Server Infrastructure<br />

(LSI) eingegangen, welche von Dr. Jörg Roth an der Fernuniversität Hagen entwickelt<br />

wird. Hierbei wird genauer die Problematik analysiert, welche im Bezug auf die Einbindung<br />

dieser prinzipiell globalen Struktur entstehen können.<br />

1 Vorstellung von LSI<br />

Die Location Server Infrastructure ist ein Framework zur Entwicklung ortsbasierter <strong>Dienste</strong>.<br />

Sie ist selbstorganisierend, dezentral und stellt eine einheitliche Sicht auf Ortsinformationen<br />

zur Verfügung. Die folgende Darstellung der Location Server Infrastructure beruht auf<br />

[Roth03].<br />

1.1 Begriffe und Definitionen<br />

Der Begriff Location Awareness ist ein zentrales Konzept des Mobile Computing. Hier handelt<br />

es sich darum, dass eine Applikation den gegenwärtigen Aufenthaltsort eines Benutzers<br />

berücksichtigt und einen davon abhängigen Output erzeugt.<br />

Bei den bisherigen Entwicklungen, die Location Awareness einschlossen, wurden entweder<br />

physikalische oder semantische Koordinaten berücksichtigt. Bei physikalischen Koordinaten<br />

handelt es sich um eine Positionsangabe auf der Erdoberfläche im Sinne eines Längen- und<br />

Breitenbestimmung evt. mit Höhenangabe (N51 o 22.579/E007 o 29615/169m), wie sie z. B. ein<br />

GPS-System liefert. Eine semantische Positionsangabe beinhaltet Informationen zur Bedeutung<br />

eines Ortes (Hauptbahnhof Hagen/NRW) [Prad00]. Die LSI behandelt beide Arten von<br />

Ortsinformationen. Für Applikationen ist in der Regel die semantische Angabe bedeutsamer<br />

als die physikalische, denn sie ist für den Benutzer unmittelbar bedeutungstragend, eine semantische<br />

Angabe überdeckt i. d. R. eine ganze Anzahl physikalischer Orte und ein semantischer<br />

Name ist z. B. als Index einer Datenbank geeignet, im Gegensatz zu physikalischen Koordinaten.<br />

Der Location Server stellt auf Anfrage des Clients die physikalischen und semantischen Ortsinformationen<br />

zur Verfügung.<br />

Es werden folgende Definitionen vereinbart:<br />

1) Es sei P die Menge aller physikalischen Orte.<br />

2) S⊆P sei eine semantische Ortsangabe.<br />

3) C⊆2 P sei ein semantisches Koordinatensystem.<br />

4) Ein „vernünftiges“ semantisches Koordinatensystem ist für den Benutzer bedeutungstragend.<br />

5) Wir verwenden nur physikalische und semantische Koordinatensysteme.<br />

6) Sei N die Menge aller Namen.


98 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />

7) Mit der Relation C->N werden die semantischen Koordinaten auf die Namen abgebildet.<br />

Namen werden nicht mehrfach verwendet. Ein semantischer Ort mit seinem Namen heißt<br />

Semantische Domäne oder nur Domäne.<br />

8) Domänen können wiederum Domänen enthalten, sog. Subdomänen. Die Fläche einer Subdomäne<br />

muss vollständig in der entsprechenden Domäne enthalten sein; es handelt sich<br />

um ein hierarchisches Modell.<br />

9) Die Relation SL: P->2N ordnet den physikalischen Orten alle dazu gehörenden semantischen<br />

Namen zu.<br />

10) Die Relation SLA: 2P->2N ordnet den physikalischen Orten alle semantischen Namen zu,<br />

die den Ort überlappen.<br />

11) Die Relation PL: N->C ordnet semantischen Namen entsprechende Flächen zu.<br />

1.2 Die Ziele der LSI<br />

Bei der Entwicklung von LSI wurden folgende Ziele verfolgt:<br />

1. Es sollen einheitliche Ortsinformationen zur Verfügung gestellt werden, unabhängig vom<br />

verwendeten Bestimmungssystem.<br />

2. Für jede Position stehen die physikalischen Koordinaten und alle semantischen Namen<br />

zur Verfügung.<br />

3. Die Architektur ist dezentral.<br />

4. Die Clients finden automatisch einen geeigneten Server.<br />

5. Die Infrastruktur ist leicht wartbar. Es werden insbesondere Änderungen in C und N automatisch<br />

über das Netzwerk weitergegeben.<br />

6. Die Infrastruktur skaliert für eine große Anzahl Orte bzw. Clients.<br />

7. Häufig angeforderte Daten stehen mit geringer Netzwerklatenz zur Verfügung, selten<br />

benötigte können dennoch über das WAN aufgelöst werden.<br />

8. Das Serverprogramm ist leichtgewichtig. Die Clients können auch auf beschränkter Hardware<br />

z. B. „embedded“ oder „PDA“ laufen.<br />

9. Die Infrastruktur ist gegen Angriffe abgesichert. Es soll sehr teuer sein, Bewegungsprofile<br />

zu erstellen.<br />

10. Die Infrastruktur soll auch mobile semantische Orte, z. B. Autos, Züge… unterstützen.<br />

Die hierdurch resultierenden Ortsänderungen sollen schnell durch das Netz verbreitet<br />

werden.<br />

1.3 Das Domänenmodell<br />

Wie oben erwähnt, schränken wir die semantischen Koordinatensysteme für die LSI auf hierarchisch<br />

strukturierte ein. Jede Hierarchie hat eine Root-Domäne, diese kann verschiedene<br />

Subdomänen haben, die ihrerseits Subdomänen enthalten können. Jede (Sub)Domäne ist<br />

Master ihrer Subdomänen.<br />

Es gibt eine physikalische Hierarchie, über die die physikalischen Informationen abgebildet<br />

werden, deren root-Domain wird in Anlehnung an DNS-Namensraum benannt (s. u.). Es kann<br />

zahlreiche semantische Hierarchien geben, hier müssen die Konzepte noch entwickelt werden.<br />

Domänen können zwei Arten von Beziehungen haben:<br />

Die Beziehung zwischen Domäne und Subdomäne heißt Relation und bedeutet u. a. wie erwähnt,<br />

dass die Subdomäne in der Domäne enthalten ist. Der Name der Subdomäne wird so<br />

gebildet, dass ein Bezeichner mit einem Trennzeichen vor den Namen der Domäne gestellt<br />

wird. (z. B. „hagen.de“: „hagen“ ist eine Subdomäne von „de“.)<br />

Überlappen sich die Gebiete zweier Domänen, so nennen wir sie „assoziiert“. Diese Beziehung<br />

kann sich sowohl in einer Domäne abspielen als auch über verschiedenen Domänen


99 Stephan Drautz<br />

erstrecken. Ein Beispiel für den ersten Fall wäre, dass sich die Domänen von fley.hagen.de<br />

und fernuniversität.hagen.de überlappen, z. B. weil die Fernuniversität einen eigenen Server<br />

betreibt, der ihr Gebiet genauer abbildet als der Fley-Server, sie aber andererseits nicht vollständig<br />

in Fley liegt. Ein Beispiel für den zweiten Fall wäre, dass die Domäne<br />

„hagen.pizzadienst.service“ mit hagen.de assoziiert ist, weil der Pizzadienst in Hagen ausliefert.<br />

Abb. 2.1 zeigt zwei assoziierte Hierarchien, aus denen die Beispiele stammen.<br />

Abbildung 1: Zwei assoziierte LSI-Hierarchien [Roth03a]<br />

1.4 Die Architektur<br />

Die Architektur folgt aus dem Domänenmodell und besteht aus<br />

• einer Menge von Positionierungssystemen<br />

• der Location Server Infrastruktur<br />

• einer Menge von ortsbasierten <strong>Dienste</strong>n und Applikationen<br />

• mobilen Knoten, die die angebotenen <strong>Dienste</strong> nutzen (Clients).<br />

Der mobile Knoten ist mit einem oder mehreren Positionierungsdiensten verbunden. Außerdem<br />

ist er mit dem Location Based Service verbunden, der die LSI nutzt. Die LSI selbst<br />

besteht aus einer Anzahl von Location Servern, die durch Relationen und Assoziationen<br />

logisch verbunden sind und den semantischen und physikalischen Raum abdecken. Ein Server<br />

ist für seine Domänen und alle diejenigen seiner Subdomänen verantwortlich, für die kein<br />

eigener Server installiert ist. Jeder Client hat zu jedem Zeitpunkt einen speziellen Location<br />

Server, bei dem er sich anmeldet und der die Anfragen für ihn bearbeitet bzw. weiterreicht (s.<br />

u.!), den Local Location Server LLS. Dieser Server kann sich ändern, während der Client sich<br />

bewegt, weil dieser die Domäne wechselt. Dem LLS sind die relevanten Informationen seiner<br />

Domäne bekannt, insbesondere:<br />

• die installierten Positionierungssysteme<br />

• die semantischen Orte<br />

• die physikalischen Orte<br />

• die Relationen SL, SLA und PL<br />

• sein Master<br />

• die mit ihm assoziierten Server.<br />

Die erste Aufgabe eines Clients, wenn er eingeschaltet wird oder wenn er sich in ein neues<br />

Gebiet bewegt ist es, seinen LLS zu finden. Hierzu stehen ihm drei Mechanismen zur Verfügung,<br />

nämlich global discovery, local discovery und positioning system discovery, die sich im


100 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />

Wesentlichen darin unterscheiden, welche Netzinfrastruktur sie benutzen, um den Kontakt zu<br />

ihrem LLS herzustellen, und welche Informationen schon zur Verfügung stehen müssen.<br />

Global Discovery bedient sich Multicast- oder Geocast-Mechanismen, um einen LLS zu<br />

ermitteln. Ist schon mindestens ein LLS bekannt und erreichbar, kann auch dieser nach dem<br />

aktuellen LLS befragt werden (LSI-based Discovery), indem die aktuelle Clientposition<br />

übermittelt wird. Der LLS ermittelt dann ggf. über die Hierarchie den aktuellen LLS.<br />

Local Discovery setzt ein Netzwerk mit begrenzter räumlicher Ausdehnung voraus, z. B. ein<br />

LAN. In diesem Falle können die relevanten Informationen zum LLS z. B. im DHCP-Server<br />

abgelegt werden. Bei einer kleinen Anzahl Hosts kann das gesamte Subnetz nach dem LLS<br />

abgesucht werden. Schließlich ist es noch möglich nach einem festen symbolischen Namen zu<br />

fragen, z. B. „LLS.Subnetz.Netz.de“.<br />

Bei der Positioning System Discovery werden die notwendigen Einzelheiten zum LLS z. B. in<br />

den vom Positionierungssystem verwendeten Beacon Frames mit hinterlegt [WIPS00] und<br />

könnten abgefragt werden.<br />

In der Praxis wird zunächst die positioning system discovery verwendet und nur im Misserfolgsfall<br />

zur local und global discovery eskaliert, damit zunächst der LLS, der am nächsten<br />

am Client ist und am meisten über dessen Gebiet weiß, erreicht wird.<br />

Der Client kann an mehrere Positionierungssysteme angeschlossen sein und befragt diese, ob<br />

sie ihm eine Position geben können. Hat er eine oder mehrere Positionsangaben bekommen,<br />

so wählt er eine aus und befragt den LLS, indem er ihm die Positionsdaten übermittelt und<br />

mitteilt, von welchem Positionierungssystem sie kommen.<br />

Diese Information benutzt der LLS, um dem Client die fehlenden physikalischen und semantischen<br />

Informationen zu übermitteln. Hierbei erfolgt ggf. ein Weiterreichen der Anfrage<br />

durch den LLS an andere Server, sofern er für bestimmte Aspekte nicht lokal, d. h. zuständig<br />

ist. Insbesondere werden dem Client auch die assoziierten Server mitgeteilt, die er nach weiteren<br />

semantischen Informationen befragen kann, sofern er alle selbst erreicht (outbound mode).<br />

Sind die Server nicht oder nicht in angemessener Zeit durch den Client erreichbar, kann diese<br />

Kommunikation auch durch den LLS abgewickelt werden, d. h. dieser führt die weiteren Anfragen<br />

durch und reicht die Ergebnisse an den Client heraus (inbound mode). Da dies bei zahlreichen<br />

verbundenen Clients den LLS stark belastet und es aus Datenschutzgesichtspunkten<br />

bedenklich ist, wird der inbound mode nur aktiviert, wenn der outbound mode gescheitert ist.<br />

Wenn ein Location Server neu in Betrieb genommen wird, muss er andere Location Server<br />

suchen. Dies geschieht mit den Discovery Mechanismen, die im vorangegangenen Absatz<br />

beschrieben wurden. Der Server teilt darin zusätzlich mit, welche physikalische Fläche er<br />

abdeckt. Es ist in diesem Zusammenhang leicht, seinen Master oder eine Subdomain zu identifizieren,<br />

dies geschieht über die beschriebene Namenskonvention (intern: dies setzt allerdings<br />

voraus, dass dem, der den Server in Betreib nimmt, die relevante Hierarchie bekannt<br />

ist.). Die Identifikation assoziierter Server geschieht über die Berechnung überlappender Flächen:<br />

Ein Server ist assoziiert, wenn sich die Flächen überlappen und die Überlappung nicht<br />

vollständig durch eine entsprechende Subdomain abgedeckt ist. Darüber hinaus müssen beide<br />

Server entweder verschiedenen Hierarchien angehören, oder keine direkte Relation miteinander<br />

haben.<br />

Nach dem Eintreffen der Antworten auf die Discovery-Prozedur registriert sich der Server bei<br />

den in Frage kommenden anderen Servern, diese Informationen werden in einer lokalen<br />

Datenbank gespeichert.<br />

Dieser Prozess muss ggf. wiederholt werden, wenn ein Server offline gegangen war; außerdem<br />

müssen sich die Server nach einer bestimmten Zeitspanne erneut registrieren, um nicht<br />

aus den Datenbanken gelöscht zu werden.<br />

Für Mobile Domänen, z. B. das Innere eines Zuges, sind einige Besonderheiten zu berücksichtigen:


101 Stephan Drautz<br />

• Die Assoziationen ändern sich rasch (bzw. überhaupt), da die Domäne sich bewegt.<br />

Dieses Problem wird dadurch gelöst, dass die Domäne sich häufig neu registrieren muss.<br />

• Auch die globale Position ändert sich, d. h. die Domäne muss ihre globale Position<br />

ständig kennen, z. B. über einen GPS-Receiver.<br />

Die Anmeldung an einer mobilen Domäne ist unten bei den Datenschutzerwägungen gesondert<br />

zu diskutieren.<br />

2 Sicherheitsrelevante Aspekte im Bezug auf die LSI<br />

Die LSI als Netzwerkstruktur, welche sowohl im LAN-Bereich als auch drahtlos arbeitet,<br />

muss natürlich unterschiedliche Sicherheitsanforderungen erfüllen. Hierbei gilt es prinzipiell,<br />

zwei Themenschwerpunkte zu berücksichtigen. Zum einen wäre dies die Kommunikation im<br />

Backbone-Bereich zwischen den Servern, zum anderen die Kommunikation zwischen Server<br />

und meist drahtlos angebundenen Clients – in Form von Handys, PDAs, Laptops o.ä.<br />

2.1 Kommunikation Server – Server<br />

Hier gibt es zwei Arten von Nachrichten, die zunächst prinzipiell zu unterscheiden sind, nämlich<br />

einerseits die Kommunikation zwischen physischen Servern (*.de) und jene zwischen<br />

diesen und den mit ihnen assoziierten Servern. Dieser Aspekt spielt jedoch nur im Rahmen<br />

der Vertraulichkeit eine Rolle und wird entsprechend dort diskutiert.<br />

2.1.1 Vertraulichkeit<br />

Die zwischen den Servern ausgetauschten Nachrichten sind zunächst öffentlich, d. h. die<br />

Sicherung einer Vertraulichkeit ist auf den ersten Blick nicht erforderlich. Eine Ausnahme<br />

stellt hier die Authentifizierung eines Clients dar, wenn sie über einen zentralen Server erfolgt<br />

und die Anfrage vom LLS des Clients „hochgereicht“ wird [Roth03a], da der Client seinen<br />

Standort in der Regel nicht weiter als durch die Benutzung des Systems unumgänglich<br />

verbreiten will.<br />

Es ist allerdings zu beachten, dass die zwischen den Servern ausgetauschten Nachrichten<br />

besonders bei geringer Auslastung des Systems und feingranulärer Serverstruktur evt. zur<br />

Rekonstruktion eines Bewegungsprofils dienen können. Eine generelle Verschlüsselung<br />

würde dies wirkungsvoll unterbinden, da dann einzelne Abfragen nicht mehr von einem generellen<br />

Datenabgleich zu unterscheiden wären. Je nach Hardwareausstattung und Auslastung<br />

des Systems sollte man von einer generellen Verschlüsselung zu einer Signierung der Nachrichten<br />

umschalten können(s. u.).<br />

2.1.2 Integrität<br />

Die zwischen den Servern ausgetauschten Daten sind gegen unbemerkte Veränderung zu<br />

sichern. Dies kann entweder durch eine digitale Signatur oder durch (Public Key)-Verschlüsselung<br />

der gesamten Nachricht erfolgen.<br />

2.1.3 Identifikation und Authentizität<br />

Die Server, die Nachrichten verschicken, bzw. ein Gebiet übernehmen, dürfen dies nur nach<br />

erfolgter Identifikation und Authentisierung tun. Einen sicheren Schlüsselaustausch vorausgesetzt,<br />

kann auch dieses Problem mit kryptografischen Verfahren gelöst werden.


102 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />

2.1.4 Autorisierung und Zugriffssteuerung<br />

Für jeden Server ist zu definieren, welche Nachrichten er verschicken darf. Insbesondere gilt<br />

dies für Aktualisierungen von semantischen Orten bzw. des abgedeckten physikalischen<br />

Gebiets. Dies setzt eine sichere Identifikation voraus. Die entsprechenden Berechtigungen<br />

sind im Master des Servers zu verwalten.<br />

2.1.5 Nicht-Abstreitbarkeit<br />

Dieser Aspekt könnte in Zusammenhang mit verschickten „falschen“ Informationen von<br />

Bedeutung sein, wenn es z. B. darum geht, einem malignen LSI-Server diese Eigenschaft<br />

nachzuweisen. Insbesondere im Bereich kostenpflichtiger <strong>Dienste</strong> kann auf eine Implementierung<br />

dieser Eigenschaft wahrscheinlich nicht verzichtet werden.<br />

2.1.6 Verfügbarkeit<br />

Hier steht in erster Linier ein Schutz gegen Denial-of-Service-Angriffe zur Diskussion. Da<br />

durch die Identifikation und Autorisierung klar ist, welcher Server mit welchem kommunizieren<br />

darf und es sich hierbei um überschaubare Größenordnungen handelt, ist ein LSI-Server,<br />

der das System durch exzessives Nachrichtenaufkommen blockiert, schnell von der Kommunikation<br />

abzuschneiden. Ein Nicht-LSI-Rechner, der sich als solcher tarnt und einen Angriff<br />

durchführt, könnte sich nicht identifizieren. Allerdings sind hierzu die entsprechenden Pakete<br />

zu überprüfen, so dass im Endeffekt eine Attacke durchschlagen könnte.<br />

2.1.7 Verlässlichkeit<br />

Die Verlässlichkeit des Systems lässt sich durch Backup-Server, „saubere“ Programmierung<br />

und Sicherung der Server vor fremden Servern herstellen.<br />

2.1.8 Beherrschbarkeit<br />

Dieses Thema trägt insofern zum Kapitel bei, als das durch eine übersichtliche klare Strukturierung<br />

der Programme und Definition klarer Abläufe dazu beigetragen werden kann, Fehlern,<br />

welche durch die Bedienung entstehen, vorzubeugen.<br />

2.2 Kommunikation Server – Client<br />

2.2.1 Vertraulichkeit<br />

Nach den Zielen, die für den Entwurf der LSI definiert wurden, soll es teuer sein, Bewegungsprofile<br />

von Benutzern zu erstellen. Dies soll für die Betreiber und erst recht für nicht<br />

beteiligte Dritte gelten. Damit ist die Vertraulichkeit der Client-Server-Kommunikation<br />

sicherzustellen, sie kann durch kryptografische Verfahren erreicht werden, problematisch ist<br />

hier die z. T. geringe Rechenkapazität der Clients.<br />

2.2.2 Integrität<br />

Die Integrität der zwischen Client und Server ausgetauschten Nachrichten ist zu sichern. Dies<br />

ist aber bei Verwendung geeigneter Verfahren schon durch die im vorigen Kapitel aufgestellte


103 Stephan Drautz<br />

Vertraulichkeitsforderung abgedeckt, d. h. die Verschlüsselungsverfahren dienen beiden<br />

Anforderungen.<br />

2.2.3 Identifikation und Authentizität<br />

Die Frage nach Identifikation und Authentizität hängt davon ab, ob die Infrastruktur auf der<br />

Ebene eines Forschungsprojekts betrieben wird oder ob. z. B. für den Service Rechnungen<br />

gestellt werden sollen. Im Sinne des Datenschutzes wäre es am Besten, man käme ohne Identifikation<br />

aus (s. o.). Dies ist jedoch nur möglich, wenn die LSI als kostenloser Dienst oder für<br />

einen Pauschalpreis betrieben wird. Auch die Verhinderung von Denial of Service Attacken<br />

kann eine Identifikation unumgänglich machen.<br />

2.2.4 Autorisierung und Zugriffssteuerung<br />

Die Autorisierung für die LSI ist dadurch abgedeckt, dass ein Client sich am System anmelden<br />

kann. Es ist also ggf. zu prüfen ob er einen gültigen Account hat. Er erhält dann sein physikalische<br />

Position und alle semantischen Positionen, die sich ermitteln lassen. Eventuell ist<br />

die Liste der semantischen Domänen für einen Benutzer beschränkt (weil er nicht alle abonniert<br />

hat), dann ist der Informationsfluss entsprechend einzuschränken. Weiterer Zugriff ist<br />

nicht erforderlich und auch nicht implementiert. Es ist zu prüfen, ob ein Client sich weitergehenden<br />

Zugriff verschaffen kann, z. B. durch eine Buffer-overflow-Attacke usw. (Diese spezielle<br />

Attacke nicht, da es in Java geschrieben ist.)<br />

2.2.5 Nicht-Abstreitbarkeit<br />

Für den Fall, dass nach Verbindung oder nach in Anspruch genommenem Service abgerechnet<br />

werden soll oder ein Dritter (Pizzadienst) nach Anzahl der vermittelten Kunden bezahlten<br />

muss, ist eine Nicht-Abstreitbarkeit sicherzustellen. In den übrigen Fällen kann auf diesen<br />

Overhead verzichtet werden.<br />

2.2.6 Verfügbarkeit<br />

Auch in diesem Fall sind in erster Linie Denial of Service-Angriffe abzuwehren. Wegen der<br />

begrenzten Rechen- und Kommunikationskapazität der Clients ist hier wohl in erster Linie an<br />

DDoS-Angriffe zu denken. Diesen kann z. B. durch Identifikationsmechanismen und Begrenzung<br />

der Anzahl der Positionsabfragen pro Client und Zeit begegnet werden. Die einzelnen<br />

Mechanismen werden unten näher diskutiert.<br />

2.2.7 Verlässlichkeit<br />

Für den Endanwender ist ein verlässlicher Dienst wichtig, um den Nutzen und damit auch die<br />

Akzeptanz zu erhöhen. Hierunter fällt wie auch schon bei der Serverkommunikation<br />

beschrieben eine „saubere“ Programmierung, um Programmabstürze zu vermeiden. Hierzu<br />

müssen beispielsweise Fehler abgefangen und möglichst korrigiert werden.<br />

2.2.8 Beherrschbarkeit<br />

Auch die Beherrschbarkeit ist für den Anwender ein wichtiger Faktor im Bezug auf die<br />

Sicherheit, wie es aktuelle Beispiele von Betriebssystemen oder Anwenderprogrammen (z.B.<br />

Windows) zeigen. Durch Komplexität und schlechte Strukturierung kann es schnell zu Konfigurationsfehlern<br />

und damit verbunden dann zu Sicherheitslücken in den Systemen kommen.


104 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />

3 Bedrohungsanalyse<br />

Schneier schlägt vor, bei der Bedrohungsanalyse zunächst die möglichen Angriffsziele zu<br />

identifizieren und dann zu untersuchen, wie diese Ziele unter Umständen zu erreichen sind.<br />

[Schn01].<br />

3.1 Betreiben eines malignen LSI-Servers<br />

• Hier handelt es sich um das Betreiben eines Servers, der keine oder falsche Informationen<br />

übermittelt, oder Nachrichten nicht korrekt weiterleitet.<br />

•<br />

3.2 Unbefugtes Betreiben eines LSI-Servers<br />

• Da alle Details der LSI öffentlich sind und das Netzwerk selbstorganisierend ist, ist es<br />

möglich einen Server zu betreiben, der sich einfach ins Netz einklinkt, ohne das er<br />

„angemeldet“ ist, falls eine Anmeldung erforderlich ist.<br />

3.3 Nachträgliche Modifikation von Serverdaten<br />

• Jemand könnte sich nachträglich Zugriff auf Serverdaten verschaffen und diese verändern.<br />

Hier handelt es sich um das Problem der physischen und logischen Absicherung der<br />

Serverdaten. Bei Erfolg mündet diese Attacke in das Betreiben eines malignen Servers.<br />

•<br />

3.4 Denial of Service Attacken<br />

• Bei von Clients ausgehenden Denial of Service-Attacken wird ein LLS durch einen Strom<br />

von korrekten oder inkorrekten Anfragen so ausgelastet, dass der Dienst für legitime<br />

Benutzer nicht mehr zur Verfügung steht.<br />

• Es ist auch möglich, von einem LSI-Server eine Denial of Service-Attacke zu starten,<br />

indem zahlreiche Anfragen gestellt werden, hinter denen keine echten Clients stehen. Hier<br />

ist ggf. die Abgrenzung gegen legitime Anfragen schwierig. Diese Attacke setzt voraus,<br />

dass zuvor die LSI-Software unautorisiert modifiziert wurde.<br />

• Schließlich kann ein Rechner, der nicht in der LSI eingegliedert ist, eine Attacke starten,<br />

indem er den Rechner mit normaler oder fehlerhafte TCP/IP-Kommunikation<br />

überschwemmt<br />

•<br />

3.5 Erstellung von Bewegungsprofilen<br />

• Jemand, der Zugriff auf einen LSI-Server hat, könnte die Daten nutzen um von Clients<br />

Bewegungsprofile zu erstellen, was einen erheblichen Eingriff in die Datenschutzrechte<br />

der Benutzer darstellen würde.<br />

•<br />

3.6 Betreiben eines LSI-Servers mit unautorisiert veränderten Programmteilen<br />

• Wenn es möglich ist, die LSI-Software nachträglich zu verändern, ohne dass die<br />

Funktionalität beeinträchtigt ist, können zahlreiche die Sicherheit gefährdende<br />

Änderungen vorgenommen werden. So wäre es z. B. möglich, die Positionsanfragen zu<br />

speichern, um nachträglich Bewegungsprofile zu erstellen, künstliche Positionsanfragen<br />

für Denial of Service Attacken zu benutzen oder um den gesamten Datenbestand eines<br />

assoziierten Servers abzufragen.


105 Stephan Drautz<br />

•<br />

3.7 Benutzung eines fremden LSI-Accounts<br />

• Sollte die Benutzung von LSI kostenpflichtig erfolgen und pro Anfrage abgerechnet<br />

werden, kann die Benutzung eines fremden Accounts für dessen Eigentümer zu nicht<br />

unbeträchtlichem finanziellem Schaden führen.<br />

•<br />

3.8 Erzeugen falscher LSI-Nachrichten<br />

• Diese Attacke kann als Folge des eben diskutierten Punktes „Server mit unautorisiert<br />

veränderten Programmteilen“ erfolgen oder die Nachrichten können von anderen<br />

Programmen erzeugt werden. Sie können zu Denial of Service Attacken oder zum<br />

Erlangen anderer Informationen verwendet werden.<br />

•<br />

3.9 Mithören der LSI-Nachrichten<br />

• Diese Attacke kann genutzt werden, um entweder in den Genuss von LSI-Informationen<br />

zu gelangen, obwohl man den Dienst nicht lizenziert hat oder um z. B. persönliche<br />

Informationen eines Nutzers zu bekommen.<br />

•<br />

3.10 Unbefugter Zugriff auf persönliche Daten<br />

• Dies kann entweder auf einem Kontenserver oder im Verlauf der Nutzung des <strong>Dienste</strong>s<br />

durch abhören erfolgen. Es ist aus datenschutzrechtlichen Gründen zu unterbinden.<br />

•<br />

3.11 Nichtautorisierte Nutzung kostenpflichtiger <strong>Dienste</strong><br />

• Wenn <strong>Dienste</strong> kostenpflichtig angeboten werden sollen, erfordert es dieses Lizenzmodell,<br />

dass die unautorisierte Nutzung nach Möglichkeit teurer sein sollte als das Lizenzieren des<br />

<strong>Dienste</strong>s, da sonst kein Anreiz besteht, den Service zu kaufen<br />

•<br />

3.12 Nutzung der LSI-Client-Software mit unautorisiert veränderten Programmteilen<br />

• Hier besteht einerseits die Gefahr der Nutzung nichtautorisierter <strong>Dienste</strong>, andererseits die<br />

der Denial of Service Attacke durch Umgehen eingebauter Sicherungen, z. B. eine<br />

Zeitsperre nach erfolgter Abfrage.<br />

•<br />

3.13 Kryptografische Attacken<br />

• Wie eine unbefugte Person – in diesem Kapitel als Charly, oft auch als großer Bruder<br />

Mallory bezeichnet - an die Daten kommt, wird nicht behandelt. Denkbar ist der Einsatz<br />

von Sniffer-Programmen oder die Manipulation von Routern o.ä., damit die Daten<br />

automatisch empfangen werden können. Wichtig ist nun zu untersuchen, welche<br />

Möglichkeiten bestehen, diese in unserem Fall verschlüsselten Daten wieder lesbar zu<br />

machen. In [Schm98] werden hierzu Möglichkeiten aufgezeigt, welche über das simple<br />

Ausprobieren hinausgehen. Oft wird vorausgesetzt, dass der Angreifer sowohl Daten als<br />

auch das verschlüsselte Verfahren, nicht jedoch den Schlüssel kennt. Wie er wiederum an


106 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />

Information über das verwendete Verschlüsselungsverfahren gelangt ist, kann vielfältige<br />

Möglichkeiten haben und wird hier nicht weiter beschrieben. Die kryptografischen<br />

Attacken können auf zwei Arten strukturiert werden.<br />

•<br />

3.13.1 Strukturierung nach Angriffsarten<br />

Cipher Text Only – Angriff<br />

In diesem Fall ist dem Angreifer weder das verwendete Verfahren, noch der benutzte Schlüssel bekannt. Dies ist der in der<br />

Praxis am häufigsten auftretende Fall und zugleich für den Angreifer der schwierigste, da ihm zwar chiffrierte Daten zur<br />

Verfügung stehen, aber keine Hinweise auf die verwendeten Methoden. Eine genaue Vorgehensweise für diesen Fall gibt es<br />

nicht, im schlimmsten Fall muss der im nächsten Abschnitt beschriebene Brute Force-Angriff durchgeführt werden.<br />

Known Plaintext – Angriff<br />

Bei diesem Verfahren ist es dem Angreifer bereits gelungen, sowohl einen chiffrierten Text als auch dessen<br />

Klartextdarstellung zu erhalten. Um weitere Texte entschlüsseln zu können, versucht er nun anhand dieser beiden<br />

vorhandenen Texte den zugehörigen Schlüssel zu identifizieren. Dieses Verfahren kann angewendet werden, wenn Teile von<br />

Nachrichten sich immer wiederholen, d.h. z.B. der Kopf einer E-Mail ist immer der gleiche.<br />

Chosen Plaintext – Angriff<br />

Hierbei besteht für den Angreifer die Möglichkeit, den Klartext selber zur Verschlüsselung zur Verfügung zu stellen. Anhand<br />

des Ergebnisses versucht er dann wiederum, den Schlüssel zu identifizieren. Dieses Verfahren kann beispielsweise<br />

angewandt werden, um Unix-Passwörter zu identifizieren. Steht dem Angreifer die passwd-Datei des Ziel-Rechners zur<br />

Verfügung, so kann er darin die verschlüsselten Passwörter sehen. Dadurch, dass nun viele Wörter über die<br />

Passwortverschlüsselung laufen gelassen und die Ergebnisse mit dem Wert aus der passwd-Datei verglichen werden, ist es<br />

möglich, die eigentlichen Passwörter zu identifizieren.<br />

o<br />

3.13.2 Strukturierung nach Angriffsmethoden<br />

Brute Force – Angriff<br />

Dieser Angriff zeichnet sich dadurch aus, dass nicht besondere Taktiken zur Schlüsselfindung<br />

eingesetzt werden, sondern dass sich der Angreifer auf die Ressourcen verlässt, die ihm zur<br />

Dechiffrierung bzw. zum Code-Knacken zur Verfügung stehen. Ein zur Verfügung stehender<br />

chiffrierter Text wird im einfachsten Fall so lange analysiert, bis er ein brauchbares Ergebnis<br />

liefert. Hierbei kommt es nicht auf eine bestimmte Reihenfolge der Analyse, sondern auf<br />

einen hohen Datendurchsatz an.<br />

Man in the middle<br />

Bei dieser für Public Key-Verfahren genutzten Methode gelingt es dem Angreifer, seinen<br />

Public Key anstelle des eigenen zu übergeben. Werden hiermit nun Nachrichten verschlüsselt,<br />

so kann er sie mit seinem eigenen Private Key wieder entschlüsseln. Da der Angreifer hierbei<br />

zwischen Sender und Empfänger sitzt, wird diese Methode als Man in the Middle bezeichnet.<br />

Eine Möglichkeit, dieses Problem zu vermeiden, besteht darin, Zertifikate anstelle des Public<br />

Key zur Verfügung zu stellen<br />

Denial of Service Angriff<br />

Dieses Verfahren passt auf den ersten Blick nicht in das Kapitel. Gelingt es dem Angreifer<br />

namens Charly jedoch, die Kommunikation zwischen den beiden Partner Alice und Bob zu<br />

behindern und den Verdacht zu erwecken, es liegt am verwendeten kryptografischen Verfahren,<br />

so besteht die Möglichkeit, dass Alice und Bob aus Bequemlichkeit auf die Verschlüsselung<br />

verzichten und die Daten lieber unverschlüsselt versenden, wodurch für Charly dann<br />

natürlich das Ziel erreicht ist.<br />

Verkehrsflussanalyse<br />

Hier geht es Charly als Angreifer zunächst nicht darum, die Daten zu entschlüsseln, sondern<br />

wie häufig oder wann Daten zwischen Kommunikationspartnern ausgetauscht werden. Hieraus<br />

können dann (z.B. in der Wirtschaft) Rückschlüsse auf Kontakte oder Verhalten gezogen<br />

werden.<br />

Replay-Attacke<br />

Charly kann – wenn er eine Nachricht abgefangen hat – diese einfach zu einem späteren Zeitpunkt<br />

erneut versenden. Hierdurch wird dann im besten Fall nur ein erhöhter Verwaltungs-


107 Stephan Drautz<br />

aufwand verursacht. Dieses Problem lässt sich dadurch beheben, dass bei jeder Nachricht einfach<br />

Datum und Uhrzeit mit versendet werden.<br />

4 Sicherheitsstrategien<br />

Um obigen Bedrohungen wirkungsvoll entgegenzutreten, können unterschiedliche Strategien<br />

zum Einsatz kommen.<br />

4.1 Autorisierung der Serveranmeldung<br />

• Um zu vermeiden, dass nichtautorisierte Server – aus welchen Gründen auch immer –<br />

ihren Dienst aufnehmen können, bietet es sich an, eine zentrale Autorisierungs-/ bzw.<br />

Zertifizierungsstelle einzuführen, ohne deren Zustimmung eine Anmeldung an die<br />

bestehende Netzwerkinfrastruktur abgelehnt wird. Hierzu kann etwa eine Zertifizierung –<br />

bestehend aus Public Key, Private Key sowie einer Bestätigung der Zertifzierungsstelle,<br />

dass diese Schlüssel auch echt sind – dienen. Trivialerweise muss hiermit beim<br />

Verbindungsaufbau nur eine Public Key-Verschlüsselung angefordert werden, wobei der<br />

angesprochene Server den benötigten Public Key über die Zertifizierungsstelle, und nicht<br />

über den anfordernden Server beziehen muss. Liegt dort der Schlüssel nicht vor und somit<br />

auch keine Autorisierung, wird die Verbindung abgebrochen.<br />

•<br />

4.2 Vermeidung von Versenden falscher Ortsinformationen<br />

• Um die Übertragung falscher Ortsinformationen zu vermeiden, muss nicht nur der Server,<br />

sondern auch seine Anmeldedaten zertifiziert werden. Dies kann etwa dadurch geschehen,<br />

dass die Server, die ihre Anmeldeinformationen aus XML-Dateien einlesen, dies nur mit<br />

signierten Daten tun dürfen. Die Signatur kann dann zusammen mit der Autorisierung des<br />

Servers übertragen werden.<br />

4.3 Sicherung der Datenübertragung<br />

• Die Sicherung der Datenübertragung kann an verschiedenen Stellen zum Einsatz<br />

kommen.<br />

• Auf Ebene der Kommunikation wäre dies zum einen selbige zwischen den Servern selbst<br />

(Serverkommunikation) und derjenigen zwischen Server und Client. Hier muss dann<br />

abgewägt werden, wie groß ein potentieller Schaden sein kann und wie viele Ressourcen –<br />

z.B. zur Verschlüsselung – zur Verfügung stehen. Hier ist vor allem die Server-Client-<br />

Kommunikation zu berücksichtigen, da ja auf Client-Seite leistungsschwache Geräte wie<br />

PDAs zum Einsatz kommen können, und die Akzeptanz des Systems zwar zum Einen von<br />

der Sicherheit, zum Anderen aber natürlich auch von der Geschwindigkeit des Netzwerks<br />

abhängig ist.<br />

• Auf Ebene der Sicherheitsimplementierung ist es zum einen möglich, Hardware zur<br />

Verfügung zu stellen, welche etwa die Ver- und Entschlüsselung durchführt. Dies ist<br />

wegen des Aufwands und der damit verbundenen Kosten höchstens auf Seite der Server-<br />

Server-Kommunikation denkbar, aber auch hier dürfte wegen der heutigen<br />

Leistungsfähigkeit der Systeme der Einsatz zusätzlicher Hardware in den meisten Fällen<br />

überflüssig sein. Denkbar ist der Einsatz zum Beispiel zur Identifizierung durch SIM-<br />

Karte oder SD-Karte. Auf Client-Seite dürfte sich ein solcher Aufwand erst ab einer<br />

gewissen Stufe von Kosten und potentiellem Schaden rechnen.<br />

• Zum anderen besteht die Möglichkeit, Software zur Sicherung der Daten, der<br />

Kommunikation und zur Identifikation zu Nutzen. Hier ist etwa an den Einsatz gesicherter


108 Sicherheitsproblematik am Beispiel der Location Server Infrastructure<br />

Datenübertragung mittels IPSec (über TCP/IP) und die Verwendung von Zertifizierung<br />

zur Verschlüsselung und Identifizierung zu denken.<br />

•<br />

4.4 Verhinderung von Bewegungsprofilen<br />

• Bewegungsprofile stellen zum einen aus datenschutzrechtlichen Gründen und zum<br />

anderen aus Akzeptanzgründen der User ein Problem dar. User sind im Normalfall auf<br />

ihre Anonymität bedacht. Bietet ein prinzipiell abgeschlossenes System wie die LSI die<br />

Möglichkeit, Informationen über die User zu sammeln, so würde dies vermutlich die<br />

Nachfrage stark abfallen lassen. Analysen sind hier zum Beispiel in der Form denkbar,<br />

dass sich die Position des Benutzers und somit auch sein Local Location Server ändert,<br />

anhand dessen man eine Bewegung des Anwenders nachvollziehen kann oder in der<br />

Auswertung von Informationen, welche er über die LSI angefordert hat.<br />

• Da die LSI unterschiedliche Methoden der Anfrageverarbeitung anbietet, stellen sich<br />

diese Probleme nur in bestimmten Situationen.<br />

• In einem Fall leitet der Local Location Server alle relevanten Daten (potentielle<br />

Zielserver, welche über Relationen und Assoziationen in Betracht kommen) automatisch<br />

an den Client weiter (Outbound Mode). Die weitere Nutzung dieser Informationen bleibt<br />

dann dem Client überlassen und eine Analyse wird stark erschwert.<br />

• Im anderen Fall erfolgt die Anfrageverarbeitung und Suche durch die Serverstruktur durch<br />

den Local Location Server (Inbound Mode), was die Erstellung von Bewegungsprofilen<br />

erleichtert.<br />

• In diesem und prinzipiell auch im ersten Fall bietet sich der Einsatz von Anfragtickets an.<br />

Hierbei wird für eine Kommunikationsanfrage von einem zum nächsten Server jeweils ein<br />

separates Ticket erstellt, anhand dessen dann die Anfragen durchgereicht und<br />

zurückgegeben werden. Da dieses Ticket auf jeder Zwischenstation neu erstellt wird, ist<br />

hier eine Analyse der Daten wesentlich schwieriger.<br />

5 Fazit<br />

Sicherheit und Datenschutz müssen schon beim Entwurf des Systems berücksichtigt werden,<br />

da man sich bei einem nachträglichen Einbau meist großen oder sogar unüberbrückbaren<br />

Problemen gegenübersieht. Im konkreten Fall bedeutet dies, dass für das System Sicherheitsziele<br />

zu definieren sind, welche in der Implementierungsphase konsequent berücksichtigt<br />

werden müssen. Darüber hinaus sollte man sich in die Rolle eines Angreifers versetzen, um<br />

die möglichen Schwachstellen zu identifizieren und möglichst bereits im Vorfeld zu unterbinden.<br />

Bei Verwirklichung einer konkreten Sicherheitsstrategie legt man sich darüber Rechenschaft<br />

ab, welche der genannten Ziele und Schwachstellen mit dem Softwareentwurf berücksichtigt<br />

wurden beziehungsweise ggf. später noch zu berücksichtigen sind und ob das Ziel,<br />

einen Angriff zumindest teurer zu machen als den Wert der zu sichernden Daten dargestellt<br />

wird.<br />

Für den Bereich der mobilen Datenübertragung muss darüber hinaus noch berücksichtigt<br />

werden, dass hier zu den im EDV-Bereich bisher standardmäßig schon auftretenden Problemen<br />

der Sicherheit noch neue Gefahren hinzukommen, da über die Luftschnittstelle keine<br />

direkte Anbindung mehr vorhanden sein muss, um Spionage oder Manipulation zu ermöglichen.


109 Stephan Drautz<br />

Referenzen<br />

[Prad00] Pradhan, S. Semantic Locations, Personal Technologies, Vol. 4, No. 4, 2000,<br />

213-216<br />

[Roth03]<br />

[Roth03a]<br />

Roth, J.: A Self-Organizing Infrastructure to Provide Uniform Location Data to<br />

Location Based Services<br />

Konzeption und Implementierung von Sicherheitsmechanismen für die<br />

Location Server Infrastructure Internes Papier der FernUniversität Hagen,<br />

Praktische Informatik II<br />

[Schm98] Schmeh, K.: Safer net, dpunkt.verlag (1998), ISBN 3-932588-23-1, S.72<br />

[Schn01]<br />

[WIPS00]<br />

Schneier, B.: Secrets and Lies – IT Sicherheit in einer vernetzten Welt, Wiley<br />

VCH-Verlag, Weinheim, 2001<br />

WIPS Technical Documentation, Royal Institute of Technology, Schweden<br />

http://2g1319.ssvl.kth.se/2000/group12/technical.html


Geographische Adressierung in Computernetzen<br />

Eine Taxonomie<br />

Adalbert Spakowski<br />

Friedenstr. 13<br />

63743 Aschaffenburg<br />

Adalbert.Spakowski@Fernuni-Hagen.de<br />

Zusammenfassung: Die geographische Adressierung ermöglicht den Nachrichtenaustausch<br />

zwischen Applikationen basierend auf dem physikalischen Ort der Netzwerkpräsenzen<br />

und nicht der logischen Netzwerkadresse. Hierzu existieren mehrere Ansätze, die<br />

sich in ihren administrativen Ansätzen unterschieden. Bei allen diesen Ansätzen ist es<br />

möglich gezielt Entitäten in definierten Regionen anzusprechen, diese zu „entdecken“<br />

oder bidirektionale Kommunikation zwischen diesen zu ermöglichen.<br />

1 Einleitung<br />

1.1 Szenarien der geographischen Adressierung<br />

Die geographische Adressierung in Computernetzen verbindet die physikalische Lokation der<br />

Clients und ihre logische Adressierung innerhalb eines Netzwerkverbunds. Durch das Vorhandensein<br />

der Information über die Lage einer Entität im Netzwerk sind Systeme in der Lage<br />

hier spezifische <strong>Dienste</strong> anzubieten. Diese Information kann im Freien über GPS Empfänger<br />

ermittelt werden. In Gebäuden können hier andere Positionierungssysteme zum Zuge kommen.<br />

Navas und Imielinski [NaI99] stellen hier folgende Szenarien vor:<br />

• Geographic Messaging: Eine Nachricht wird nur an Entitäten in bestimmten geographischen<br />

Lokationen verschickt. So können zum Beispiel Fahrzeuge auf einer bestimmten<br />

Autobahn über einen Verkehrsunfall im davor liegenden Tunnel informiert werden.<br />

• Geographic Advertising and Geographic Services: Es wird eine Werbung / ein Service in<br />

einem räumlichen Umfeld relativ zum Server angeboten. Alle Clients die sich innerhalb<br />

dieser Lokation befinden werden hier automatisch informiert. Möglich wäre hier zum Beispiel<br />

das Anbieten von Angaben zu einem Denkmal. So können Benutzer, die über einen<br />

entsprechenden mobilen Client verfügen während eines Stadtrundgangs informiert werden.<br />

• „Who is around“ Service: Es findet eine proaktive Suche nach Entitäten, die sich innerhalb<br />

einer definierten Lokation befinden. Ein Beispiel wäre hier die Suche nach verletzten<br />

Soldaten innerhalb eines Kriegsgebiets<br />

1.2 Aufbaumöglichkeiten des Netzwerks<br />

Zuerst muss unterschieden werden, ob es sich bei dem zu betrachteten Computernetz um ein<br />

homogenes Netz handelt, indem alle Entitäten die gleiche Technologie nutzen, oder ob es eine


112 Geographische Adressierung in Computernetzen<br />

Koexistenz von mehreren Technologien mit einem darüber liegenden einheitlichen Protokoll<br />

handelt.<br />

Möchte man einen universellen Ansatz wählen, betrachtet man hierbei das Internet mit seinen<br />

vielen Service Providern und zum Einsatz kommenden Technologien. Als das einheitliche<br />

Protokoll wird hier TCP/IP genutzt, da es von den Clients durchgehend als die „lingua franca“<br />

angesehen wird.<br />

Im folgenden wird eine Unterscheidung zwischen zentral verwalteten Netzwerken mit einem<br />

bestehenden Backbone und dezentralen Netzwerken auf Peer to Peer (P2P) Basis unterschieden<br />

werden.<br />

Einen zentralen Ansatz mit zusätzlichen technologischen Voraussetzungen beschreiben Navas<br />

und Imielinski [NaI99]. Einen P2P Ansatz findet man bei Heutelbeck [Heu02]<br />

2 Adressierungsmodell<br />

Die momentane Position des Clients wird mit Hilfe des GPS bestimmt. Diese Position dient<br />

im folgenden zur Adressierung. Die Koordinaten des Clients werden bei diesem Ansatz über<br />

ein Zweiertupel verwaltet, wobei der Breitengrad von –90° (Süd)<br />

bis 90° (Nord) und die Längengrad von –180° (West) bis 180° (Ost) als Wert annehmen kann.<br />

Benutzt man zur Darstellung der Koordinaten Fließkommazahlen mit 4 Byte Länge, lassen<br />

sich so mit einer Adressierungsgröße von 8 Byte eine präzise Adressierung des Ziels von bis<br />

zu 200 Meter erreichen. Wählt man genauere Zahlen (z.B. double floats mit 8 Byte Länge)<br />

können hier im Zusammenspiel mit einer entsprechend präzisen GPS-Auflösung erheblich<br />

genauere Eingrenzungen der Adressierung möglich sein.<br />

Mit Hilfe dieser Tupel lassen sich nun geometrische Objekte wie<br />

• Punkte<br />

• Kreise (Mittelpunkt, Radius)<br />

• beliebige Polygone (Punkt(1), Punkt (2), ... , Punkt(n),Punkt(1))<br />

adressieren .<br />

3 GEOcast – ein zentral administrierbarer Ansatz<br />

Im [NaI96] stellen Imielski und Navas drei Lösungsansätze zur geographischen Adressierung<br />

von Nachrichten, wobei der dritte Ansatz lediglich skizziert wird:<br />

• Unicast IP Routing, erweitert um GPS Adressierung<br />

• GPS-Multicasting<br />

• Lösung in der Anwendungsschicht mit Hilfe von DNS<br />

Imielski und Navas stellen weiterhin eine Implemetierung des Unicast IP Routing Ansatz<br />

vor([NaI97]), und nicht wie man aus [NaI96] erwarten würde den GPS Multitasking Ansatz,<br />

da durch die Anzahl der verschiedenen Multicastprotokolle nicht klar ist, welches Protokoll in<br />

Zukunft dominieren wird, und ob dieses auch die Aspekte des Mobile Computing abdeckt.<br />

Das System besteht aus drei Komponenten, den GeoHost, den GeoNodes und den<br />

GeoRouters.


113 Adalbert Spakowski<br />

Abbildung 1: Komponenten des Geographic Routing System [NaI97, Kap. 4.1]<br />

GeoRouter sind für den Transport der Pakete über das Internet zuständig. Sie müssen in der<br />

Lage sein, ihre benachbarten und übergeordneten Router zu kennen, und diese Informationen<br />

in ihren Routing Tabellen zu pflegen. Ebenso müssen sie ihre untergeordneten Router und<br />

GeoNodes kennen. Eine weitere Eigenschaft der Router ist auch das Tunneln der Pakete über<br />

Teile des Internets, die das GeoCast Netzwerk nicht unterstützen.<br />

GeoNodes dienen als Gateways einer Lokation in das geroutete GeoCast Netzwerk. Eine<br />

GeoNode sollte einen Automatismus zum Erkennen von neuen GeoHosts innerhalb ihres Zuständigkeitsbereichs<br />

haben und muss Nachrichten, je nach ihrer Gültigkeitsdauer, zwischenspeichern<br />

können.<br />

Der GeoHost ist ein Daemon auf dem Endgerät. Er muss den Kontakt zum zuständigen Geo-<br />

Node aufbauen und ist für die Verwaltung der geographischen Lokation des entsprechenden<br />

Computers zuständig, wie für die Bereitstellung der GeoCast Funktionalität für andere Prozesse<br />

auf der jeweiligen Maschine.<br />

3.1.1 Routing innerhalb von GeoCast Netzwerken<br />

Senden von GeoCast Nachrichten<br />

Zum Verschicken der Nachrichten erfragt der GeoHost Daemen die IP Adresse des<br />

GeoNodes. Anschließend schickt der GeoHost die Nachricht direkt an den GeoNode, und<br />

dieser dann wiederrum an den zuständigen GeoRouter.<br />

Routing von GeoCast Nachrichten<br />

Der GeoRouter empfängt die Nachricht. Zuerst untersucht er, ob sein Einzugsbereich R Teile<br />

des Zielpolygons Z der Nachricht enthält.<br />

S = R ∩ Z<br />

Ergibt sich hier eine Schnittpolygon S, so versorgt der Router den betroffenen Bereich.<br />

Der Algorithmus zur Ermittlung der Schnittmenge der beiden Polygone liefert als „Abfallprodukt“<br />

das Polygon W (W =Z / R), welches nicht im Einzugsbereich des Routers enthalten ist.<br />

Das Polygon W wird als neue Zieladresse der Nachricht an den übergeordneten Router zum<br />

Weiterleiten geschickt.


114 Geographische Adressierung in Computernetzen<br />

Anschließend berechnet der Router die Schnittpolygone S’ der untergeordneten GeoRouter<br />

und GeoNodes zu dem Zielpolygon S. Die untergeordneten Objekte erhalten die Nachricht<br />

mit den jeweiligen Zielen S’.<br />

Zusätzlich baut der Router einen Nachrichtencache auf. Dieser ermittelt auf Basis der Nachrichten<br />

ID, ob bereits Pakete an ein bestimmtes Polygon geschickt wurden. Sollte dies der Fall<br />

sein, wird keine erneute Schnittermittlung durchgeführt, sondern das Paket, analog seinen<br />

Vorgängern, an die betroffenen Ziele geroutet.<br />

Empfangen von GeoCast Nachrichten<br />

Nachdem der GeoNode die Nachricht von seinem GeoRouter zugestellt bekommt, speichert<br />

der Node sie in seinem GeoNode Cache ab und weist diese Nachricht einer passenden Multicast<br />

Gruppe zu. Der GeoNode sendet dann die Nachricht periodisch den betroffenen an die<br />

entsprechenden GeoHosts.<br />

Die GeoHosts ermitteln daraufhin, ob sie sich innerhalb des adressierten Polygons befinden.<br />

GeoHosts können auch proaktiv mit Hilfe der RECVFROMGEO – Prozedur aus der<br />

Geographic Library sich einer Multicast Gruppe anschießen und entsprechende Nachrichten<br />

empfangen.<br />

3.1.2 Format eines GeoCast Message Headers<br />

Ein Header einer GeoCast Nachricht hat das folgende Format:<br />

Nachrichten ID (9 Bytes)<br />

Port Nummer (2 Bytes)<br />

Lebenserwartung(4 Bytes)<br />

Flags(1 byte)<br />

Area Type (1byte)<br />

Gefolgt von weiteren Informationen, basierend auf den Area Type(Punkt / Kreis / Polygon)<br />

Bei einem Punkt wird zusätzlich die geographische Lokation angegeben:<br />

Type = 1<br />

Breitengrad (8 Bytes)<br />

Längengrad (8 Bytes)<br />

Bei einem Kreis kommt der Radius noch hinzu:<br />

Type = 2<br />

Breitengrad (8 Bytes)<br />

Längengrad (8 Bytes)<br />

Radius (8 Bytes)<br />

Bei einem Polygon wird zuerst die Anzahl der Punkte angegeben. Die Implementierung von<br />

Imielski und Navas lassen hierbei Polygone mit bis zu 65535 Punkten zu:<br />

Type = 3<br />

Breitengrad (8 Bytes)<br />

Längengrad (8 Bytes)<br />

Radius (8 Bytes)<br />

Im Folgenden ist ein Header einer Nachricht an einen bestimmten Punkt exemplarisch dargestellt:


115 Adalbert Spakowski<br />

Abbildung 2: Nachrichten Header mit einer Punkt Zielkoordinate [NaI97, Kap. 5.1)<br />

3.1.3 Aufbau der Routing Tabelle<br />

Der Kern des Routing im GeoCast Netzwerk sind selbstverständlich die Routing Tabellen der<br />

einzelnen GeoRouters. Im folgenden wird der Aufbau dieser erklärt.<br />

Der Cache<br />

Der Cache ist für das schnelle Wiederverwenden von Routing Informationen zuständig. Untersuchungen<br />

haben ergeben, dass im Vergleich zum ersten, nicht zwischengespeicherten Paket<br />

ein Cache die Routing – Zeiten der drauffolgenden und bereits gecachten Pakete reduziert,<br />

und zwar auf ca. 2-3 % der Zeit bei Polygonen und Kreisen und auf ca. 24 % der Zeit bei<br />

Punkten.<br />

Ein Cache Eintrag ist dabei ein Tupel der Form:<br />

<br />

Die Nachrichten ID, welche dem ersten Paket entnommen wird dient hierbei als Schlüssel der<br />

Tabelle. Auf den ersten Blick wäre es sinnvoll das Zielpolygon als Schlüssel zu nehmen.<br />

Hierzu konnten aber bisher keine klaren Implementierungsvorschläge gemacht, die mit der<br />

variablen Strukturlänge umgehen können.<br />

Die Liste der nächsten Ziele enthält die Adressen der GeoRouter und GeoNodes, die das erste<br />

Paket empfangen haben. An diese wird dann die Nachricht geschickt.<br />

Der Zeitstempel dient zum Entfernen von alten Einträgen aus dem Cache. Bei jedem Zugriff<br />

auf einen Eintrag wird der Zeitstempel aufgefrischt. Innerhalb von bestimmten Zeitintervallen<br />

wird der Cache auf alte Einträge überprüft und bereinigt.


116 Geographische Adressierung in Computernetzen<br />

Service Area<br />

Die Service Area beschreibt das Zuständigkeitsgebiet des Routers und umfasst eine Konvexe<br />

Hülle aller Polygone, welche die untergeordneten GeoRouter und GeoNodes bedienen. Da es<br />

bei einer Vereinigung der Polygone zu „Löchern“ innerhalb der Struktur kommen kann und<br />

der Polygonschnittalgorithmus von einzelnen konvexen Polygonen ausgeht, wird hier nicht<br />

die Vereinigung der einzelnen Polygone, sondern die Konvexe Hülle der Vereinigung betrachtet.<br />

Liste der untergeordneten und übergeordneten Knoten des GeoCast Netzwerks<br />

Die Routing Tabelle enthält jeweils eine Liste der direkt unter- und der direkt übergeordneten<br />

Objekte im GeoCast Netzwerk. Diese Liste enthält neben weiteren Informationen die Service<br />

Area Polygone der Knoten und die Art der Kommunikation mit den Knoten (evtl. Tunnelung,<br />

u.ä.).<br />

4 GPS-Multicast Ansatz<br />

Eine Alternative zum obigem GeoCast Ansatz ist der GPS-Multicast Ansatz von Imlielski und<br />

Navas [NaI967]. Der Unterschied ist hier primär im ersten Teilstück der Reise eines Pakets,<br />

vom Sender zur sogenannten Mobile Support Station( MSS), dem Analogon des GeoNode im<br />

vorangegangenem Beispiel. Ebenfalls wird generell von einem Wireless Network ausgegangen.<br />

4.0 Exkurs: Was bedeutet Multicast<br />

Multicast bedeutet, dass eine IP Adresse nicht einer einzelnen Maschine, sondern einer<br />

Gruppe von Maschinen zugeordnet wird. Hierzu sind Adressen im sogenannten Class D Netz<br />

(Range 224.0.0.0 bis 239.255.255.255) reserviert. Im [NaI96] wird aber ein IP Adressenbereich<br />

verwendet, welcher von der Internet Task Force zu Experimentierzwecken bestimmt<br />

wurde(über 240.0.0.0). Präsenzen die sich einer solchen Multicast Gruppe anschließen wollen,<br />

verschicken eine entsprechende Anfrage an ihren Router. Dieser nimmt nun die Präsenzen<br />

mit in seine Routing Tabelle und stellt ihnen die Pakete zu, die an die Multicast Adresse<br />

gerichtet sind. Das Verwenden einer Multicast Struktur macht vor allem Sinn, wenn die<br />

Nachrichten simultan an mehrere Empfänger verschickt werden sollen. Durch Multicasting<br />

werden die Netzwerkkapazitäten, und die Last der Server-CPU entlastet, da die Pakete jedes<br />

Teilstück im Netz nur einmal passieren müssen.<br />

4.1 Grundidee<br />

Beim Multicast Ansatz werden zwei weitere Begriffe geprägt - Partition und Atom. Ein Atom<br />

ist die kleinste geographische Einheit, die sich geographisch adressieren lässt. Eine Partition<br />

ist eine größere geographische Fläche, die selber wiederum Partitionen und Atome enthalten<br />

kann.<br />

Die Grundidee beim Multicast Ansatz ist, beim Verschicken eines Pakets dieses an diejeniege/dasjenige<br />

kleinste Partition/Atom zu adressieren, die/das das eigentliche Zielpolygon<br />

enthält. Jede Partition und jedes Atom erhalten eine dedizierte Multicast Adresse. Somit wird<br />

das Paket nicht an das eigentliche Zielpolygon, sondern an die Partition, die das gesamte Polygon<br />

enthält geschickt. Das geographische Polygon selber ist im Inhalt des Pakets nochmal<br />

zu finden.


117 Adalbert Spakowski<br />

4.2 Aufbau eines Multicast Trees<br />

Da die Partitionen des Netzwerks bereits statisch fest vorgegeben sind, kennt ein MSS beim<br />

Hochfahren, die Partitionen innerhalb seiner Reichweite, die von ihm bedient werden. Dadurch<br />

kann er sich bei den entsprechenden Multicast Gruppen registrieren.<br />

Setzt man das Vorhandensein dieser Multicast Trees voraus, kann ein Sender die Multicast<br />

Adressen der Partition ermitteln, die sein Zielpolygon enthält. Er verschickt dann die Nachricht<br />

an die Multicast Adresse. Alle für diese Adresse registrierten MSS erhalten die verschickte<br />

Nachricht<br />

Hierbei können jedoch aufgrund von vielen Präsenzen sehr große Routingtabellen entstehen.<br />

Aus diesem Grund wird vorgeschlagen, das link state multicast protokoll entsprechend zu<br />

modifizieren um Informationen über kleine Objekte nur lokal zu propagieren.<br />

4.3 Multicast Adressierung der Präsenzen<br />

Wie oben erwähnt, wird jede Partition und jedes Atom einer Multicast Adresse zugeordnet.<br />

Die Multicast Adressierung ist hierarchisch aufgebaut. Bei der Adressierung wird beispielhaft<br />

das folgende Schema vorgeschalgen:<br />

1111.GPS.S.C.x<br />

Dabei gilt Folgendes:<br />

1111: Die ersten 4 bit stellen sicher, dass die IP Adresse oberhalb von 240.0.0.0 liegt, und<br />

somit es sich hierbei um ein Klasse E Netz handelt. Es steht für Experimentierzwecke der<br />

IETF zur Verfügung.<br />

GPS ist eine Bitfolge zum dedizierten GPS Netzbereich. Vorgeschlagen werden hier 6 Bit.<br />

S adressiert das Bundesland – die Partition eines Bundeslands hat dabei die Adresse S/0/0<br />

C adressiert einen Bezirk innerhalb des Bundeslandes. Die Bezirkspartition lässt sich dabei<br />

unter der Adresse S/C/0 ansprechen<br />

x adressiert eine entsprechende geographische Präsenz in S/C.<br />

Hierdurch wird eine zweistufige Partitionierung nach Bundesländern und Bezirken erreicht.<br />

Den einzelnen partitionierten Bereichen werden dedizierte Multicast Router (unter der Adresse<br />

1111.GPS.S.C.0) zugewiesen.<br />

4.4 Polygonadressierung mit Hilfe des DNS<br />

Es stellt sich nun die Frage, wie ein Sender die Multicast Adresse des entsprechenden Empfängers<br />

finden soll. [NaI96] schlägt hier den Einsatz einer hierarchischen DNS Struktur vor.<br />

Innerhalb der root Domäne .geo wird eine hierarchische Zonenstruktur vorgeschlagen, die<br />

Namensräume für Bundesländer, Bezirke , Städte und lokale Server enthält. Somit ist das<br />

Format der geographischen DNS Zonen:<br />

local.county.state.geo<br />

Entsprechend den Zonen werden auch DNS Server aufgebaut.<br />

Die DNS Resource Records (DNS RR) werden entsprechend angepasst, um goegraphische<br />

Polygone aufnehmen zu können.<br />

4.4.1 Routing der Pakete von der MSS zum Empfänger<br />

Zur Zustellung des Pakets von der MSS zum Client existieren drei Lösungsansatze:


118 Geographische Adressierung in Computernetzen<br />

Application Level Filtering<br />

Die MSS verschickt das erste Paket mit dem definierten Polygon an seine Clients innerhalb<br />

seiner Partition. Alle Empfänger, die ja ihre GPS Position kennen, können die Mitgliedschaft<br />

im Zielpolygon, welches im Paket mitenthalten ist, überprüfen und entsprechend nach Bedarf<br />

die Nachricht verarbeiten.<br />

Multicast Filtering<br />

Die MSS propagiert eine neue temporäre Multicast Adresse, die das Zielpolygon ansprechen<br />

soll. Die Clients, die innerhalb des Polygons stationiert sind schließen sich dieser Multicast<br />

Gruppe an. Diese Nachricht wird mehrfach von der MSS verschickt, um verlässlich die entsprechenden<br />

Clients zu erreichen. Anschließend erhalten alle registrierten Clients die eigentliche<br />

Nachricht.<br />

Computer in physikalischen Netzen<br />

Modifizierte Basisstationen mit einem Zugriff ins physikalische Netz(Ethernet, TokenRing<br />

u.ä.) sollten die Nachrichten entsprechend an betroffene Computer im physikalischen Netzwerk<br />

übertragen. Hierzu bietet sich besonders der obere Multicast Ansatz an.<br />

5 Domain Name Service – Ansatz<br />

Ein dritter zentraler Ansatz von Imlielski und Navas[NaI96] basiert auf dem Domain Name<br />

Service. Hierzu wird eine First Level Domain geographic angelegt. Unterhalb dieser Domäne<br />

werden hierarchisch Subdomänen für die Bundesländer und Regionen aufgebaut. In diesen<br />

Domänen finden sich dann die einzelnen Präsenzen und Polygone, die angesprochen werden<br />

können. Eine mögliche Adresse könnte somit sein ezb.frankfurt.hessen.geographic<br />

Der Sender der zum Beispiel eine Nachricht an alle Präsenzen in der Europäischen Zentralbank<br />

schicken möchte, ermittelt im DNS die entsprechende IP Adresse.<br />

Für das Verschicken der eigentlichen Nachricht werden in [NaI96]nun drei Möglichkeiten<br />

vorgeschlagen:<br />

• Die Nachricht wird an MSS Einheiten per Unicast verschickt, die der zurückgelieferten IP<br />

Adressen entsprechen.<br />

• Es wird eine temporäre Multicast Gruppe angelegt, die alle betroffenen Clients enthält.<br />

Diese Gruppe empfängt dann die entsprechenden Informationen.<br />

• Eine zentrale MSS bekommt die Nachricht zugestellt und ist für die Distribution der<br />

Nachricht an die entsprechenden Clients und weitere betroffene MSSs zuständig.<br />

6 ContextCast – ein Peer to Peer Ansatz<br />

Bei den vorherigen Ansätzen wird ein vorhandener, zentraler Backbone vorausgesetzt. In<br />

manchen Szenarien kann es wünschenswert sein ein dezentrales Netzwerk aufzubauen. Dies<br />

senkt die Infrastrukturkosten sowohl bei der Inbetriebnahme, wie auch bei der Wartung. Jedoch<br />

sind Effizienzeinbußen die Kehrseite der Medaille.<br />

[Heu02] beschreibt mit den Context Spaces und dem ContextCast Netzwerk einen solchen<br />

P2P Ansatz. Hierbei existieren im Vergleich zu dem vorherigen zentralen Ansatz minimale<br />

Anforderungen (TCP/IP Kommunikation) an die Entitäten im Netzwerk. Als Vorlage dienen<br />

hierzu vorhandene File Sharing Netzwerke, die ihre Stärken besonders in der Entdeckung der<br />

vorhandenen Ressourcen haben.


119 Adalbert Spakowski<br />

6.1 Begriffsklärung<br />

Funktionell ist der Context Spaces Ansatz in der Lage Nachrichten an alle mobilen Entitäten<br />

innerhalb einer bestimmten Region zu schicken(Contextual Messaging) sowie alle mobilen<br />

Entitäten innerhalb einer Region ausfindig zu machen(Contextual Resource Discovery).<br />

Eine Präsenz im ContextCast Netzwerk hat die folgenden Eigenschaften<br />

• einen beschreibenden String d,<br />

• eine aktuelle Lokation l ∈ G<br />

• eine maximale Bandbreite in 10 3 Byte /s<br />

• eine Kennzahl für die Mobilität der Präsenz<br />

• eine IP Netzwerk Adresse<br />

• eine definierte Portnummer<br />

Ein globaler Raum wird zuerst in lokale, z.T. auch überschneidende Subräume unterteilt.<br />

Hierzu wird zuerst der Context Space definiert:<br />

1. Sei G ⊆ Z n , n∈IN ein Global Context Space, bestehend aus einem Kreuzprodukt der<br />

Grenzintervalle G i =[l i ,u i ], i ∈ {0,...,n-1},li,u i ∈ Z und l i ≤ u i .<br />

2. Sei ein Context Space S ein Tupel, bestehend aus einem Subcube S* des Global Context<br />

Space G und einem einheitlichen Bezeichner s. S* ist das Kreuzprodukt des Subintervalle<br />

der Grenzintervalle von G.<br />

3. Sei S ein Context Space, smin(S) die minimale Größe aller Grenzintervalle von S*.<br />

Sei die Adressierungsmenge A eine Menge aller Sequenzen in B n :={0,...,2 n-1 }, A k ⊂A<br />

die Menge aller Sequenzen der Länge k, k ∈ IN 0.<br />

4. Sei der Clusterlevel l von S a n definiert durch die Länge von a, l ∈ IN 0 und l ≤ ⎣<br />

log(smin(S)) ⎦. Sei c(l) die Menge aller Cluster S a mit dem Clusterlevel l. Sei C(x,l)<br />

ein Cluster von C(l) , das x∈S* enthält.<br />

6.2 Struktur eines ContextCast Netzwerks<br />

Die obigen Definitionen lassen nun eine klare Strukturierung des Netzwerks zu.<br />

Ein Global Context Space lässt sich somit in mehrere Context Spaces unterteilen, die verschiedene<br />

voneinander unabhängige Netzwerke darstellen. Im ersten Schritt besteht ein Context<br />

Space aus einem Cluster. Bei Bedarf aber lässt sich dieser wiederum zu mehreren Subclustern<br />

teilen, wobei hier jeweils eine Unterteilung in 2 AnzahlDerDimensionen Subcluster pro Ebene<br />

geschieht. Die Tiefe der Unterteilung wird hierbei durch den Clusterlevel definiert.<br />

Eine Präsenz befindet sich immer nur in einem Cluster pro Clusterlevel. Die folgende Abbildung<br />

verdeutlicht das.


120 Geographische Adressierung in Computernetzen<br />

Abbildung 3: Partitionierung des Context Space [HEU02, Kap.4]<br />

Die Topologie des ContextCast Netzwerks ist baumartig. Pro aktiven Cluster existiert ein<br />

sogenannter Clusterhead, welcher die administrativen Aufgaben wahrnimmt und somit einen<br />

Knoten in der Baumstruktur abbildet. Weitere Präsenzen innerhalb eines Clusters auf der untersten<br />

Ebene stellen Blätter des Baums dar.<br />

6.3 Initiieren eines ContextCast Netzwerks<br />

Da es sich bei ContextCast Netzwerken um nicht zentrale permanent verfügbare Netzwerke<br />

handelt, muss ein Context Space vor dem Gebrauch erst initialisiert werden. Hierzu definiert<br />

eine Präsenz ein Gebiet S* mit einem eindeutigen Bezeichner s. Somit ist der neue Context<br />

Space S :=(S*,s) definiert.<br />

Möchte nun ein weiterer Teilnehmer A sich dem Netzwerk anschließen, muss er zumindest<br />

eine Präsenz, die bereits Mitglied ist, kennen. Diese wird dann über den JOIN - Befehl der<br />

ContextCast Library kontaktiert. Dieser JOIN Befehl wird dann dem entsprechenden<br />

Clusterhead, der in der Lokation des neuen Teilnehmers die Präsenzen verwaltet, zugestellt.<br />

Der zuständige Clusterhead bestätigt dann dem neuen Teilnehmer seine Aufnahme(JOINACK).<br />

Wenn A die erste Präsenz in einem Cluster ist, kann es auch vorkommen,<br />

dass es für den Cluster in dem sich A befindet keinen Clusterhead gibt. Dann wird der neue<br />

Teilnehmer bei seiner Aufnahe gleichzeitig auch zum Clusterhead. Der übergeordnete<br />

Clusterhead informiert die neue Präsenz über die Rolle in Form einer SPLIT Nachricht.<br />

Ein weiteres mögliches Szenario ist das Erreichen eines Grenzwerts der Bandbreite des aktuellen<br />

Clusterheads durch das Hinzunehmen einer neuen Präsenz. Der Clusterhead führt daraufhin<br />

einen SPLIT Vorgang durch. Er unterteilt seinen Cluster in 2 n Subcluster. Alle neuen<br />

Clusterheads der untergeordneten Cluster werden durch eine SPLIT Nachricht über ihren<br />

neuen Zustand und die zu bedienenden Präsenzen informiert. Alle weiteren untergeordneten<br />

Präsenzen werden anschließend auf die neuen für sie zuständigen Clusterheads hingewiesen.


121 Adalbert Spakowski<br />

Ist hierbei der neue Knoten nicht selber ein Clusterhead geworden, wird seine JOIN Anfrage<br />

an den neuen untergeordneten Clusterhead weitergeleitet.<br />

6.4 Routing<br />

Bei einem vorhandenen Netzwerk ist das Routing der Nachrichten verhältnismäßig simpel. Es<br />

fallen besonders Ähnlichkeiten zum GeoCast Routing auf. Möchte eine Präsenz eine Nachricht<br />

an ein bestimmtes Gebietverschicken, so schickt sie die Nachricht an ihren zuständigen<br />

Clusterhead. Ein Clusterhead des Clusters S a verteilt die Nachricht mit dem Zielgebiet T anschließend<br />

nach folgenden drei Regeln:<br />

1. Wenn die Ebene des Clusterheads keine Subcluster hat, dann wird die Nachricht an<br />

alle Blätter, die sich in S a ∩ T befinden, gesendet.<br />

2. Ansonsten erhalten alle betroffenen Subcluster S a’ , für die gilt T’=T ∩ S a’ , T’ ≠ ∅,<br />

eine Kopie der Nachricht mit dem Zielgebiet T’<br />

3. Dann wird T # := T \ S a bestimmt. Ist T # ≠ ∅,dann wird eine Kopie der Nachricht mit<br />

dem Zielgebiet T # an den übergeordneten Clusterhead geschickt. Existiert kein übergeordneter<br />

Clusterhead wird die Nachricht verworfen.<br />

Die Clusterheads können hier als Cache Speicher für repetitive Nachrichten dienen, oder um<br />

Nachrichten mit einer längeren Gültigkeitsdauer für später hinzukommende neue Clients bereitzuhalten.<br />

Die folgende Abbildung stellt exemplarisch das Routen einer Nachricht vor:<br />

Abbildung 4: Routing einer ContextCast Nachricht [Heu02,Kap.5]<br />

a) Präsenz F verschickt eine Nachricht an die Region T, b) beschreibt den gerouteten Weg der<br />

Nachricht inkl. der möglichen Antworten der Empfänger<br />

Der Vorgang beim Resource Discovery lässt sich mit dieser Technik ebenfalls implementieren.<br />

Es sollten dabei jedoch noch zusätzliche Sicherheitsaspekte betrachtet werden.


122 Geographische Adressierung in Computernetzen<br />

6.5 Bewegung der Präsenzen<br />

Interessant ist ebenfalls der Umgang mit der Lokationsänderung der einzelnen Präsenzen.<br />

Hierbei gilt zuerst, dass eine Präsenz nur Clusterhead oder Blatt eines Clusters sein kann in<br />

dem sie sich selber auch befindet. Hierzu müssen zunächst aus Applikationssicht Grenzwerte<br />

für die Updateintervalle und Lokationsabweichungen gesetzt werden. Um unnötigen Netzwerkverkehr<br />

zu vermeiden muss die Präsenz selber Ihre Koordinatenänderungen an das ContextCast<br />

Netzwerk propagieren.<br />

Bewegt sich eine Präsenz innerhalb des Clusters verschickt sie eine MOVE Nachricht mit den<br />

neuen Koordinaten an ihren Clusterhead. Dieser bestätigt dann die neue Lokation mit einer<br />

MOVEACK Nachricht. In Sonderfällen, wenn zum Beispiel während der Anfrage des Clients<br />

ein Split der Knoten erfolgt, kann es vorkommen, dass sich die Präsenz in einem falschen<br />

Cluster wiederfindet. Da die betroffene Präsenz keine erwartete MOVEACK Nachricht, sondern<br />

eine SPLIT Nachricht erhält, reagiert sie, indem sie ihre MOVE Anfrage an den neuen<br />

Clusterhead stellt.<br />

Führt eine Bewegung zum Verlassen des jeweiligen Clusters, so schickt die Präsenz eine<br />

JOIN Nachricht mit der neuen Lokation. Hat die Präsenz eine administrative Rolle, so schickt<br />

sie eine LEAVE Nachricht an den Clusterhead in der Erwartung einer LEAVEACK Nachricht.<br />

Nach einem abgeschlossenen Umzug bestätigt A dem alten Clusterhead den Erfolg in einer<br />

LEAVEFIN Nachricht. Bis zum Eintreffen dieser Nachricht kann der Clusterhead selber seine<br />

Position nicht ändern. Dadurch wird sichergestellt, dass der Clusterhead nicht in der Zwischenzeit<br />

die Lokation geändert hat, oder ausgeschaltet wurde. Erhält die Präsenz anstelle der<br />

LEAVEACK Nachricht eine Split oder HANDOVER Nachricht (mehr dazu weiter unten), so<br />

wiederholt sie ihre Anfrage nach dem Realokierungsvorgang des Netzwerks.<br />

Verlässt eine Präsenz einen Cluster, in dem sie die einzige Präsenz und somit auch der<br />

Clusterhead war, wird der Cluster geschlossen. Dazu schickt die Präsenz eine<br />

CLOSECLUSTER Nachricht an ihren übergeordneten Cluster. Dieser Bestätigt den Vorgang<br />

mit einer CLOSECLUSTERACK Nachricht. Sollte in der Zwischenzeit eine JOIN Anfrage bei<br />

der Präsenz eintreffen, leitet die Präsenz die Anfrage an den übergeordneten Clusterhead, der<br />

sie nach dem CLOSECLUSTERACK bearbeitet.<br />

Ein weiterer Vorgang ist die Übergabe der Clusterhead Rolle an eine andere Präsenz. Angenommen<br />

B übergibt diese Rolle an C. Hiezu sendet B eine HANDOVER Nachricht an C. Alle<br />

folgenden Nachrichten, die sich an B als Clusterhead richten schickt B dann sofort an C. C<br />

erhält mit der HANDOVER Nachricht Informationen über alle benachbarten Präsenzen. C<br />

schickt an alle seine Nachbarn eine NEWCLUSTERHEAD Nachricht, die die Nachbarn mit<br />

der NEWCLUSTERHEADACK bestätigen. Nachdem alle Anfragen bestätigt wurden, informiert<br />

C B mit der HANDOVERACK Nachricht über die geglückte Rollenübernahme. B Beendet<br />

die Übergabe mit einer HANDOVERFIN Nachricht und schickt selber wiederum bei Bedarf<br />

eine JOIN Message an C, da es sich selber nicht in der Liste, die von<br />

NEWCLUSTERHEAD übertragen wird, enthält, um Endlosschleifen zu verhindern.<br />

Die Folgende Abbildung veranschaulicht die Rollenübergabe nochmals grafisch:


123 Adalbert Spakowski<br />

Abbildung 5: Clusterhead Handover Darstellung [Heu02, Kap. 7]<br />

7 Zusammenfassung / Ausblick<br />

Es wurden Netzwerke betrachtet, die alle auf einer Anbindung per TCP/IP an eine Netzwerk<br />

Infrastruktur bestehen. Dieser einheitliche Ansatz wird durch die hohe Verfügbarkeit des Internets<br />

unterstützt. Darüber hinaus existieren Möglichkeiten mobile, geographisch Adressierbare<br />

Netzwerke auf proprietären Technologien aufzubauen. So lassen sich z.B. die Lokationen<br />

in Mobilfunk- Netzen indirekt aus der Signalstärke und der Zeitverzögerung zum Endgerät<br />

schätzen(vgl. z.B. [ALL+02]). Hier fehlen jedoch Konzepte diese Adressierung proaktiv<br />

für Applikationen zu nutzen. Das Hauptanwendungsfeld ist hier das Aufspüren der Präsenzen,<br />

ohne einen definierten Nachrichtenaustausch und Routingfunktionalität.


124 Geographische Adressierung in Computernetzen<br />

Referenzen<br />

[ALL+02] S.Ahonen, J.Lähteenmäki, H.Laitinen ans S.Horsmanheimo (2002):<br />

Usage of mobile location techniques for UMTS network planing in urban environment,<br />

http://newton.ee.auth.gr/summit2002/papers/SessionW8/2502094.pdf<br />

[Heu02] Dominic Heutelbeck (2002):<br />

Context Spaces - Self-Structuring Distributed Networks for Contextual Messaging and<br />

Resource Discovery,<br />

CoopIS'02, Proc. of Tenth International Conference on Cooperative Information Systems.<br />

- University of California Irvine, USA, October 30 - November 1, 2002<br />

[NaI96] Tomasz Imielinski and Julio C. Nawas (1996):<br />

GPS-Based Adressing and Routing,<br />

RFC 2009, Computer Science, Rutgers University, März 1996<br />

[NaI97] Tomasz Imielinski and Julio C. Nawas (1997):<br />

GeoCast – Geographic Adressing and Routing,<br />

Proc. of the Third ACM/IEEE International Conference on Mobile Computing and<br />

Networking (MobiCom'97), Budapest, Hungary, September 26-30 1997


Mathematische Grundlagen für Augmented-Reality<br />

Systeme<br />

Affine Objektrepräsentation und Registrierungsfehler<br />

Alexander Lorenz<br />

Roermonder Straße 56<br />

52072 Aachen<br />

Lorenz.Alex@gmx.de<br />

Zusammenfassung: Die meisten AR-Systeme basieren auf Messungen und<br />

Positionsbestimmungen von verschiedenen Trackern. Hier wird ein System vorgestellt,<br />

das ohne diese Tracker und ohne Kalibrierungen auskommt. Dazu wird die affine<br />

Darstellung von Punkten benutzt. Es werden die mathematischen Grundlagen dieser<br />

Darstellung beschrieben. edes heutige AR-System produziert Registrierungsfehler. Ein<br />

Registrierungsfehler entsteht, wenn ein virtueller 3D-Punkt nicht exakt auf den richtigen<br />

Punkt im Bild projiziert wird. Die größten Fehlerquellen sind Verzögerungen im System,<br />

optische Verzerrung und Trackermessfehler.<br />

1 Einleitung<br />

Ein Augmented Reality System besteht im Kern aus einer Kamera, die die reale Umwelt<br />

aufnimmt, einer Graphikeinheit, die für virtuelle Objekte zuständig ist, und einem Bildschirm.<br />

Auf diesem Bildschirm werden in das Kamerabild virtuelle Objekte eingeblendet, die sich<br />

auch beim Bewegen der Kamera wie echte Objekte verhalten. Dadurch wird das reale Bild der<br />

Umwelt angereichert („augmented“ = „erweitert“). Augmented Reality Systeme sollen bei der<br />

Lösung von Realweltproblemen helfen, wie sie z.B. in der Medizin oder beim Militär<br />

vorkommen.<br />

Für diese Systeme gibt es im Wesentlichen drei Vorraussetzungen:<br />

• Das Mischen von virtuellen 3D-Objekten mit Bildern der realen Welt<br />

• Eine konsistente Sicht auf diese Objekte von allen Blickwinkeln aus generieren<br />

• Alle Operationen müssen in Echtzeit ausgeführt werden, um eine Interaktion mit dem<br />

Benutzer zu ermöglichen<br />

Augmented Reality kann ein bisschen mit der bekannteren Virtual Reality verglichen werden,<br />

wobei aber bei letzterem die komplette Sicht im Computer generiert ist. Der Vorteil der<br />

Augmented Reality ist sicherlich die wesentlich realistischere und natürlichere Darstellung<br />

zum einen und die bei weitem mehr an Informationen enthaltene reale Umwelt zum anderen.<br />

Wie oben erwähnt muss eine konsistente Sicht auf alle Objekte erzeugt werden. Inkonsistente<br />

Sichten entstehen durch eine Nichtübereinstimmung zwischen dem Koordinatensystem, das<br />

den Blickpunkt des Benutzers in der Realwelt beschreibt, und dem Koordinatensystem, das<br />

den Blickpunkt des Graphiksystems in der virtuellen Welt beschreibt. Es müssen die<br />

geometrischen Beziehungen zwischen den virtuellen und realen Objekten definiert werden.<br />

Fehler in diesen Beziehungen werden als Inkonsistenzen wahrgenommen. Zu unterscheiden<br />

ist zwischen statischen und dynamischen Registrierungsfehlern. Zu den statischen<br />

Registrierungsfehlern zählt die unterschiedliche Platzierung von Objekten in<br />

unterschiedlichen Sichten. Dynamische Registrierungsfehler treten auf, wenn das System den


126 Mathematische Grundlagen für Augmented-Reality Systeme<br />

Echtzeitanforderungen nicht gerecht wird und dadurch bei Bewegungen Positionserschiebungen<br />

sichtbar sind.<br />

2 Transformationen<br />

Um eine korrekte Darstellung zu erhalten, muss man Wissen über die Beziehungen zwischen<br />

Kamera-, Realwelt- und Objektkoordinatensystem besitzen ([Vall]).<br />

object<br />

vertex<br />

object-centered<br />

coordinate system<br />

O<br />

graphics camera<br />

coordinate system<br />

graphics<br />

plane<br />

world<br />

point<br />

image<br />

plane<br />

world<br />

coordinate system<br />

P<br />

C<br />

video camera<br />

coordinate system<br />

Abbildung 1: die verschiedenen Koordinatensysteme und ihre Transformationen ([VaKu98])<br />

Diese Beziehungen werden in Abbildung 1 durch die Transformationen Object-to-World O,<br />

World-to-Camera C und Camera-to-Image plane P dargestellt. In vielen Systemen werden<br />

diese Beziehungen durch Sensoren, Kalibrierungen und Messungen bestimmt. Dabei werden<br />

mechanische, magnetische und optische Techniken benutzt, um die Position und Ausrichtung<br />

der Kamera mit Bezug auf das Welt-Koordinatensystem zu bestimmen. Damit wird die<br />

Transformation C bestimmt. Um P zu bestimmen braucht man die Fokusweite und die<br />

Seitenverhältnis-Parameter der Kamera. Das kann durch Kalibrierung erreicht werden. Die<br />

Transformation O kann durch Messungen bestimmt werden. Damit hat man im Prinzip alles,<br />

um eine korrekte Verschmelzung von virtuellen Objekten mit dem Videobild durchzuführen.<br />

Allerdings werden durch diese Vorgehensweise Einschränkungen auferlegt. Die<br />

mechanischen Sensoren sind in der Reichweite beschränkt, magnetische Sensoren sind<br />

anfällig für Störfelder und haben größere Verzögerungen. Die Parameter der Kamera können<br />

sich mit der Zeit ändern und müssen neu kalibriert werden. Fehler in solchen Messungen<br />

führen dann schließlich zu Registrierungsfehlern.<br />

3 Affine Darstellung<br />

Man kann diese gesuchten Transformationen auch anders bestimmen. Dazu werden<br />

bestimmte Bezugspunkte in der Realwelt verfolgt. In [VaKu] wird beobachtet:<br />

„Sei eine Menge von vier oder mehr nicht-planparallelen 3D-Punkten gegeben. Die<br />

Projektion von allen Punkten dieser Menge kann als eine Linearkombination der<br />

Projektion von nur vier dieser Punkte berechnet werden.“<br />

Dadurch ist es möglich ein globales Koordinatensystem aufzubauen, in dem alle<br />

Koordinatensysteme aus Abbildung 1 ausgedrückt werden können. Dieses Koordinatensystem<br />

basiert nur auf der Verfolgung und Bestimmung von vier nicht-planparallelen Bezugspunkten.


127 Alexander Lorenz<br />

Eine genaue Bestimmung wo ein Punkt eines virtuellen Objektes auf dem Bildschirm<br />

dargestellt wird, ist grundlegend für eine korrekte Registrierung. In homogenen Koordinaten<br />

kann die Projektion eines 3D-Punktes [X Y Z 1] T auf dem Videobild [u v 1] T folgendermaßen<br />

ausgedrückt werden:<br />

⎡u⎤<br />

⎢ ⎥<br />

⎢<br />

v<br />

⎥<br />

= P3<br />

⎢⎣<br />

1⎥⎦<br />

x4<br />

C<br />

4x4<br />

⎡X<br />

⎤<br />

⎢ ⎥<br />

⎢<br />

Y<br />

⎥<br />

⎢Z<br />

⎥<br />

⎢ ⎥<br />

⎣ 1 ⎦<br />

P, C und O sind die entsprechenden oben genannten Transformationen. Diese Gleichung legt<br />

die Vermutung nahe, dass die verschiedenen Transformationen P, C und O unabhängig<br />

voneinander bestimmt werden. In einem System der University of Rochester ([VaKu])<br />

werden alle Koordinaten in einem gemeinsamen affinen Koordinatensystem ausgedrückt.<br />

Dieses Koordinatensystem wird durch vier nicht-planparallele Punkte definiert, die von allen<br />

Positionen aus mit der Kamera verfolgt werden können. Damit kann die Projektion als eine<br />

einzige homogene Transformation angesehen werden, sowohl für virtuelle als auch für reale<br />

Punkte:<br />

wobei [x y z 1] T die affinen Koordinaten für den Punkt [X Y Z 1] T sind und ∏ 3x4 die<br />

Projektion eines 3D affinen Punktes auf die Bildoberfläche ist. Jetzt brauchen nicht mehr alle<br />

Transformationen bestimmt zu werden, sondern es reicht aus, alles in die affine Darstellung<br />

zu bringen und dann für jede Sicht die Projektionsmatrix ∏ zu berechnen. Es müssen dann<br />

keine Kalibrierungen der Kameraparameter oder Tracker mehr vorgenommen werden, was<br />

natürlich hilf Registrierungsfehler zu reduzieren und langwierige Kalibrierungsprozeduren zu<br />

vermeiden.<br />

3.1 Affine Räume und Projektionen<br />

Zuerst werden ein paar Grundbegriffe erläutert, die eine wichtige Rolle spielen: der Begriff<br />

des affinen Raumes und der Begriff der Projektion.<br />

Ein affiner Raum über einem Körper K ist gegeben durch das Tupel (X, V, t). Dabei ist X<br />

eine Menge von Punkten p, q, r…, V ein K-Vektorraum und t eine einfache transitive<br />

Operation mit t : X × V → X ,( p,<br />

v)<br />

→ p + v .<br />

Einfach transitiv bedeutet dabei, dass es zu je zwei Punkte p, q ε X genau einen Vektor v ε V<br />

mit q = p + v gibt, man schreibt dann v = pq . Außerdem muss für die Abbildung gelten<br />

p + 0 r = p,<br />

∀p<br />

∈ X und<br />

p + ( v + w)<br />

= ( p + v)<br />

+ w,<br />

∀p<br />

∈ X, ∀v,w<br />

∈V<br />

.<br />

In diesem affinen Raum kann dann das globale, affine Koordinatensystem aufgespannt<br />

werden (siehe nächster Abschnitt), in dem schließlich alle Punkte beschrieben werden<br />

können.<br />

O<br />

4x4<br />

Gleichung 1<br />

⎡x⎤<br />

⎡u⎤<br />

⎢ ⎥<br />

⎢ ⎥ ⎢<br />

y<br />

= Π ⎥<br />

⎢<br />

v<br />

⎥<br />

3x4<br />

⎢z⎥<br />

⎢⎣<br />

1⎥⎦<br />

⎢ ⎥<br />

⎣1⎦<br />

Gleichung 2


128 Mathematische Grundlagen für Augmented-Reality Systeme<br />

Eine Projektion ist eine Abbildung von Raumgebilden auf eine Ebene, hier einen Bildschirm.<br />

Man unterscheidet Parallelprojektion und Zentralprojektion, je nachdem, ob die<br />

Projektionsstrahlen parallel laufen oder von einem Punkt (dem Zentrum, hier das Auge)<br />

ausgehen. Im Folgenden handelt es sich um Zentralprojektionen. Der Schnittpunkt zwischen<br />

dem Bildschirm und der optischen Achse zum Punkt im Raum ergibt die Projektion des<br />

Punktes auf dem Bildschirm. Die Projektionen der affinen Basispunkte können durch einfache<br />

Messungen bestimmt werden bzw. ergeben sich automatisch aus der Aufnahme per<br />

Videokamera.<br />

3.2 Das globale, affine Koordinatensystem<br />

Durch vier nicht-planparallele Bezugspunkte wird ein globales Koordinatensystem<br />

aufgespannt, in dem alle übrigen Punkte des Systems dargestellt werden. Dieses<br />

Koordinatensystem ist invariant gegenüber affinen Transformationen (Rotation, Translation,<br />

nichteinseitige Größenveränderung). Die affine Darstellung eines Punktes wird durch<br />

• die vier affinen Basispunkte p 0 , p 1 , p 2 und p 3 , von denen p 0 als Ursprung<br />

ausgezeichnet wird, und<br />

• die affinen Koordinaten der Punkte im Bezug auf die affinen Basispunkte<br />

zusammengesetzt.<br />

Der Ursprung p 0 hat also die homogenen affinen Koordinaten [0 0 0 1] T , die Basispunkte p 1 ,<br />

p 2 und p 3 haben die Koordinaten [1 0 0 1] T , [0 1 0 1] T und [0 0 1 1] T . Damit haben die affinen<br />

Basisvektoren die Werte p 1 = [1 0 0 0] T , p 2 = [0 1 0 0] T und p 3 = [0 0 1 0] T . Jeder beliebige<br />

Punkt p kann jetzt durch eine Linearkombination dieser Basisvektoren ausgedrückt werden: p<br />

= xp 1 + yp 2 + zp 3 + 1p 0 = [x y z 1] T .<br />

3.3 Affine Reprojektion und Rekonstruktion<br />

Dieses affine Augmented Reality System basiert auf zwei Eigenschaften [Vall]. Die erste ist<br />

die „Affine Reprojection Property“. Wenn die Projektion eines 3D-Punktes in zwei Sichten<br />

bekannt ist, kann dessen Projektion in einer dritten Sicht berechnet werden. Es muss also<br />

nichts über die Parameter der Kamera oder ähnliches bekannt sein. Allein die Projektion der<br />

Basispunkte muss in den zwei Sichten bekannt sein. Dann kann mit folgendem Satz die<br />

Projektion in einer beliebigen anderen Sicht berechnet werden:<br />

Property 1 (Affine Reprojection Property) If in an image, I m , the projection, [u pi v pi<br />

1] T of the four points, p i i = 0 ... 3, which define the affine basis is known then the<br />

projection, [u p v p 1] T of any point, p, with homogenous affine coordinates [x y z<br />

1] T can be calculated as<br />

m<br />

⎡u<br />

⎤ ⎡<br />

p<br />

u<br />

⎢ m ⎥ ⎢<br />

⎢v<br />

p ⎥ = ⎢v<br />

⎢ ⎥ ⎢<br />

⎣<br />

1<br />

⎦ ⎣<br />

m<br />

p1<br />

m<br />

p1<br />

− u<br />

− v<br />

0<br />

m<br />

p0<br />

m<br />

p0<br />

u<br />

v<br />

m<br />

p2<br />

m<br />

p2<br />

− u<br />

− v<br />

m<br />

p0<br />

m<br />

p0<br />

u<br />

v<br />

m<br />

p3<br />

m<br />

p3<br />

− u<br />

− v<br />

0 0<br />

Gleichung 3<br />

m<br />

p0<br />

m<br />

p0<br />

m ⎡x⎤<br />

u ⎤<br />

p0<br />

⎢ ⎥<br />

m ⎥⎢<br />

y<br />

v ⎥<br />

p0<br />

⎥⎢z⎥<br />

1 ⎥<br />

⎦⎢<br />

⎥<br />

⎣1⎦<br />

(Eigenschaft 1 (Affine Reprojektionseigenschaft) Wenn in einem Bild I m die<br />

Projektion [u pi v pi 1] T der vier Punkte p i , i = 0 ...3, die die affine Basis definieren,<br />

bekannt sind, dann kann die Projektion [u p v p 1] T jedes Punktes p, der die<br />

homogenen affinen Koordinaten [x y z 1]T hat, berechnet werden als…)<br />

Gleichung 3 definiert die Projektion eines 3D-Punktes in jedem neuen Bild als eine<br />

Linearkombination der Projektionen der affinen Basispunkte in diesem Bild. Die affinen<br />

Basispunkte werden durch visuelle Verfolgung bestimmter Eigenschaften oder Bezugspunkte


129 Alexander Lorenz<br />

in der Umgebung festgelegt und deren Projektion im Videobild bestimmt. Um jetzt aber die<br />

Projektion in einer beliebigen dritten Sicht zu berechnen, braucht man noch die zweite<br />

Eigenschaft.<br />

Die zweite Eigenschaft bestimmt die Technik zur Bestimmung der affinen Koordinaten eines<br />

Punktes.<br />

Property 2 (Affine Reconstruction Property) The affine coordinates of any point<br />

can be computed from equation 3 if its projection in at least two views is known<br />

and the projection of the affine basis points are also known in those views.<br />

(Eigenschaft 2 (Affine Rekonstruktionseigenschaft) Die affinen Koordinaten<br />

eines jeden Punktes können aus Gleichung 3 berechnet werden, wenn deren<br />

Projektion in mindestens zwei verschiedenen Sichten bekannt sind, ebenso wie<br />

die Projektionen der affinen Basispunkte in den verschiedenen Sichten bekannt<br />

sein müssen.)<br />

Das Ergebnis ist ein überbestimmtes Gleichungssystem. Hat man zwei Sichten I 1 und I 2 einer<br />

Szene, in denen die Projektion der affinen Basispunkte p 0 …p 3 bekannt ist, dann können die<br />

affinen Koordinaten [x y z 1] T durch folgendes Gleichungssystem bestimmt werden:<br />

⎡u<br />

⎢<br />

⎢v<br />

⎢u<br />

⎢<br />

⎢⎣<br />

v<br />

1<br />

p<br />

1<br />

p<br />

2<br />

p<br />

2<br />

p<br />

⎤ ⎡u<br />

⎥ ⎢<br />

⎥ = ⎢v<br />

⎥ ⎢u<br />

⎥ ⎢<br />

⎥⎦<br />

⎢⎣<br />

v<br />

1<br />

p1<br />

1<br />

p1<br />

2<br />

p1<br />

2<br />

p1<br />

− u<br />

− v<br />

− u<br />

− v<br />

1<br />

p0<br />

1<br />

p0<br />

2<br />

p0<br />

2<br />

p0<br />

u<br />

v<br />

u<br />

v<br />

1<br />

p2<br />

1<br />

p2<br />

2<br />

p2<br />

2<br />

p2<br />

− u<br />

− v<br />

− u<br />

− v<br />

1<br />

p0<br />

1<br />

p0<br />

2<br />

p0<br />

2<br />

p0<br />

Gleichung 4<br />

u<br />

v<br />

u<br />

v<br />

1<br />

p3<br />

1<br />

p3<br />

2<br />

p3<br />

2<br />

p3<br />

− u<br />

− v<br />

− u<br />

− v<br />

1<br />

p0<br />

1<br />

p0<br />

2<br />

p0<br />

2<br />

p0<br />

u<br />

v<br />

u<br />

v<br />

1<br />

p0<br />

1<br />

p0<br />

2<br />

p0<br />

2<br />

p0<br />

⎤⎡x⎤<br />

⎥⎢<br />

⎥<br />

⎥⎢<br />

y<br />

⎥<br />

⎥⎢z⎥<br />

⎥⎢<br />

⎥<br />

⎥⎦<br />

⎣1⎦<br />

wobei [u p v p 1] T die Projektionen des Punktes p und [u pi v pi 1] T die Projektionen der<br />

Basispunkte p j in Bild I i sind. Durch die so bestimmten affinen Koordinaten können jetzt mit<br />

Gleichung 3 die Projektionen in einer beliebigen anderen Sicht berechnet werden.<br />

3.4 Affine Tiefe<br />

Das System muss natürlich auch eine korrekte Tiefenanordnung der Objekte gewährleisten.<br />

Da das System außerdem in Echtzeit arbeiten muss, sind der realistischen Darstellung<br />

virtueller Objekte Grenzen gesetzt und es sollte, wenn möglich spezielle<br />

Hardwareunterstützung genutzt werden. Besonders das so genannte „hidden-surface-removal“<br />

via z-Buffering profitiert sehr von einer Hardwareunterstützung. Dazu wird jedem Punkt ein<br />

Tiefenwert entlang der optische Achse zugeordnet, der so genannte z-Buffer. Der eigentliche<br />

Wert ist unwichtig, wichtig ist nur die Tiefenreihenfolge der Punkte ([VaKu98]). Dazu muss<br />

man als erstes die optische Achse der Kamera als eine 3D-Linie, deren Punkte alle auf<br />

denselben Punkt im Bild projiziert werden, bestimmen. Die optische Achse wird durch den<br />

homogenen Vektor [ζ T 0] T definiert, wobei ζ als das kartesisches Produkt bestimmt ist:<br />

⎡u<br />

⎢<br />

ζ = ⎢u<br />

⎢<br />

⎣u<br />

p<br />

p<br />

1<br />

− u<br />

p0<br />

⎤ ⎡v<br />

p<br />

⎥ ⎢<br />

2<br />

− u<br />

p0<br />

⎥x⎢v<br />

p<br />

− ⎥ ⎢<br />

3<br />

u<br />

p0<br />

⎦ ⎣v<br />

p<br />

Gleichung 5<br />

p<br />

Die erste Spalte entspricht den ersten drei Elementen der ersten Zeile der Matrix ∏, die<br />

zweite Spalte entspricht den ersten drei Elementen in der zweiten Zeile der Matrix ∏. Die<br />

genannte Eigenschaft garantiert, dass alle Punkte {p + t ζ, t ε R}, die die Sichtlinie definieren,<br />

auf ein und denselben Punkt projiziert werden.<br />

1<br />

2<br />

3<br />

− v<br />

− v<br />

− v<br />

p0<br />

p0<br />

p0<br />

⎤<br />

⎥<br />

⎥<br />

⎥<br />


130 Mathematische Grundlagen für Augmented-Reality Systeme<br />

Der Tiefenwert, der für den z-Buffer benutzt wird, wird jedem Punkt durch das Produkt [ζ T<br />

0] T p zugewiesen. Dadurch kann die komplette Projektion eines affinen Punktes ausgedrückt<br />

werden als:<br />

⎡u<br />

⎤ ⎡u<br />

⎢ ⎥ ⎢<br />

⎢<br />

v<br />

⎥ = ⎢<br />

v<br />

⎢w⎥<br />

⎢<br />

⎢ ⎥ ⎢<br />

⎣1⎦<br />

⎣<br />

p1<br />

p1<br />

− u<br />

− v<br />

p0<br />

p0<br />

u<br />

v<br />

p2<br />

p2<br />

− u<br />

− v<br />

p0<br />

p0<br />

u<br />

v<br />

T<br />

ζ<br />

0<br />

Gleichung 6<br />

p3<br />

p3<br />

− u<br />

− v<br />

p0<br />

p0<br />

u<br />

p0<br />

⎤⎡x⎤<br />

v<br />

⎥⎢<br />

⎥<br />

p0<br />

⎥⎢<br />

y<br />

⎥<br />

0 ⎥⎢z⎥<br />

⎥⎢<br />

⎥<br />

1 ⎦⎣1⎦<br />

Wobei w der z-Buffer des Punktes in der Projektion ist. Diese Matrix hat dieselbe 4x4 Form<br />

wie die Sicht-Matrix, die in gebräuchlichen Graphiksystemen benutzt wird, um<br />

Graphiktransformationen durchzuführen. Dadurch ist es hier möglich das z-Buffering und das<br />

„hidden-surface-removal“ effizient durch die Hardware zu unterstützen. Ein korrektes<br />

Anordnen der Objekte hintereinander ist allerdings nur zwischen virtuellen Objekten möglich.<br />

Verdeckt ein reales Objekt ein virtuelles, so ist eine korrekte Darstellung nur mit zusätzlichen<br />

Informationen über das reale Objekt möglich.<br />

3.5 Interaktive Modellerstellung<br />

Informationen über reale Objekte können mit Augmented Reality selbst gewonnen werden. Es<br />

ist möglich mittels eines kleinen Pointers, der in der Hand gehalten wird, von einem realen<br />

Modell ein virtuelles Objekt zu erschaffen ([VaKu]). Dazu wird erst das globale affine<br />

Koordinatensystem berechnet. Dann wird von zwei Kameras beobachtet wie mit dem Pointer<br />

die Oberfläche des realen Objektes „angemalt“ wird. Durch die zwei Kameras kann die<br />

Affine Reconstruction Property genutzt werden, um die Koordinaten der gezeichneten<br />

Bereiche zu ermitteln (siehe Abschnitt 3.3). Im Projektionsbild können die schon<br />

„angemalten“ Bereiche gerendert werden, um so dem Benutzer sofort die Möglichkeit zu<br />

geben, eventuelle Korrekturen vorzunehmen. Alles wird korrekt gerendert, auch wenn das<br />

Objekt bewegt wird. Das verleiht den Eindruck, virtuelle Farbe auf das Objekt gebracht zu<br />

haben.<br />

4 Registrierungsfehler<br />

Kein heutiges Augmented Reality System ist perfekt. Daraus ergibt sich zwangsläufig, dass in<br />

jedem System Registrierungsfehler vorkommen. Wie groß diese Fehler sind hängt unter<br />

anderem von der verwendeten Hardware und Software ab. [MGGNTO] stellt einen online-<br />

Algorithmus, mit dem die Genauigkeit eines Head-Mounted-Display Augmented Reality<br />

Systems bestimmt werden kann, vor. Welche Fehler noch zu tolerieren sind hängt dabei vom<br />

Anwendungsbereich ab. Bei chirurgischen Eingriffen muss sicher genauer gearbeitet werden<br />

als bei einem Raketenzielsystem. Die folgenden Beschreibungen und Berechnungen beziehen<br />

sich auf ein System mit einem Head-Mounted-Display (HMD).<br />

4.1 Fehlermaße<br />

Bei einem Registrierungsfehler wird ein Punkt nicht genau auf der erwarteten Stelle<br />

abgebildet. Der dargestellte Punkt kann weiter hinten/vorne und/oder weiter rechts/links als<br />

erwartet erscheinen. Daraus ergeben sich die Fehlermaße aus Abbildung 2.


131 Alexander Lorenz<br />

E<br />

r<br />

Θ/2<br />

r<br />

P<br />

s = lateral error<br />

b = linear error<br />

t = depth error<br />

P’<br />

Abbildung 2: die verschiedenen Fehlermaße ([Ho])<br />

E ist das Auge des Betrachters, P der echte Punkt und P’ der falsch dargestellte Punkt. Der<br />

lateral error beschreibt die seitliche Abweichung, beantwortet also die Frage wo der Punkt P’<br />

erscheinen würde, wenn er denselben Abstand vom Betrachter hätte wie P. Der depth error<br />

gibt die Abweichung in der Tiefe an und beschreibt die Frage wie viel weiter hinten oder<br />

vorne der Punkt P’ liegt. Schließlich bestimmt der linear error den Abstand zwischen P und<br />

P’.<br />

Θ<br />

s = 2r<br />

sin<br />

2<br />

Der seitliche Fehler wird dann angegeben durch:<br />

Der Tiefenfehler wird angegeben durch:<br />

t =<br />

v E<br />

− v<br />

_ P'<br />

E _ P<br />

wobei<br />

v<br />

E _ P'<br />

und<br />

E P<br />

v _<br />

die Größen der Vektoren von E nach P und von E nach P’ sind.<br />

Jetzt könnte man meinen, wozu braucht man den lateral und den depth error Der linear error<br />

beschreibt schließlich beides. Man braucht den seitlichen Fehler sowie den Tiefenfehler unter<br />

anderem deshalb, weil bei stereoskopischer Sicht der Fall vorkommen kann, dass die<br />

Projektionen eines Punktes parallel sind, was zu einem unendlichen linear error führt, der<br />

dann natürlich nicht aussagekräftig ist ([Ho]).<br />

4.2 Fehlertypen<br />

Es gibt im Wesentlichen vier Fehlerkategorien ([Ho95]). Jeder Fehler kann einer dieser<br />

Kategorien zugeordnet werden.<br />

• Erstellungs- und Ausrichtungsfehler: das sind Fehler bei der Erstellung der Daten, z.B.<br />

können beim Einscannen Artefakte auftreten, oder bei der Darstellung in Polygonen<br />

entstehen gewisse Abweichungen. Fehler in der Ausrichtungsprozedur mit den<br />

Landschaftsmerkmalen gehören ebenso zu dieser Kategorie.<br />

• Fehler in der Verfolgung der Kopfbewegungen: das sind Fehler in den<br />

Transformationen zwischen Welt und Tracker und zwischen Tracker und Sensor, die<br />

den Standort des HMD in der Welt definieren. Ursachen hierfür sind<br />

Kalibrierungsfehler, Verzögerungen und Tracker-Messfehler.


132 Mathematische Grundlagen für Augmented-Reality Systeme<br />

• Display Fehler: das sind Fehler in der Darstellung. Dazu gehören optische Verzerrung,<br />

falsche Kalibrierung des virtuellen Bildes mit Bezug auf die Sensoren des Trackers,<br />

ein nicht-flaches Display, seitliche Farbabweichung etc.<br />

• Sichtfehler: Fehler in der internen Darstellung des Blickpunktes des Benutzers. Hierzu<br />

zählen Augenbewegungen, Kalibrierungsfehler und Verrutschen des HMD.<br />

Zu den größten Fehlern gehören die Fehler der zweiten und dritten Fehlerkategorie, die<br />

deswegen auch ausführlicher betrachtet werden.<br />

4.2.1 Verzögerungen im System<br />

Verzögerungen im System gehören zu den Fehlern in der Verfolgung der Kopfbewegungen,<br />

sie sind die größten Fehlerursachen. Selbst kleine Kopfbewegungen haben zum Teil große<br />

Registrierungsfehler zur Folge, die sofort jede Illusion der echten Einbettung virtueller<br />

Objekte in die Landschaft zerstören. Verzögerungen im System sind die Summe aller<br />

Verzögerungen von dem Zeitpunkt an, wo die Positionsbestimmung des Kopfes durchgeführt<br />

wird bis zu dem Zeitpunkt wo das Bild erstellt und schließlich dargestellt wird. Im Einzelnen<br />

sind die Verzögerungsursachen ([Ho]):<br />

• Tracker: die Zeit um Daten zu sammeln und Berechnungen durchzuführen<br />

• Host-Computer-Verzögerung: Holen und Senden der Tracker-Daten,<br />

Betriebssystemaufgaben etc.<br />

• Bilderstellung: die Zeit um das Bild zu rendern<br />

• Videosynchronisation: Warten auf den nächsten Videoframe<br />

• Frame-Verzögerung: viele Geräte zeichnen das Bild sequentiell von oben nach unten,<br />

das dauert bei 60 Hz etwa 17 s. Wenn man also bei der unteren Zeile angekommen ist,<br />

ist das dortige Bild etwa 17 s alt.<br />

• interne Display-Verzögerung<br />

Der Registrierungsfehler durch Verzögerung ist für unbewegliche Objekte durch die Stärke<br />

der Kopfbewegung von dem Zeitpunkt, an dem die Position bestimmt wurde bis zu dem<br />

Zeitpunkt, an dem das Bild dargestellt wird, bestimmt. Für diesen Fehler gilt dann:<br />

b<br />

delay<br />

=<br />

v<br />

head<br />

∆t<br />

+<br />

Θ<br />

head<br />

2sin<br />

S _ P'<br />

Gleichung 7<br />

2<br />

∆t<br />

v<br />

wobei Θ head die Winkelgeschwindigkeit und v head die geradlinige Geschwindigkeit des Kopfes<br />

angibt, ∆t ist die Netzverzögerung und v S_P’ gibt die Entfernung des Punktes P’ vom Sensor<br />

an. Die Geschwindigkeitswerte sind natürlich anwendungsbereichsabhängig. Man kann davon<br />

ausgehen, dass ein Kampfpilot schnellere Bewegungen macht als ein Chirurg. Bei einer<br />

Operation liegt die durchschnittliche Geschwindigkeit bei 164 mm/s und 20 °/s, das<br />

Maximum bei etwa 500 mm/s und 50 °/s. Setzt man letzteres in die Formel ein (für die<br />

Netzverzögerung ∆t nehmen wir 65 ms, was die minimale Verzögerung eines Pixel-Planes<br />

Rendering Systems darstellt, und die für die Entfernung ||v S_P’ || 500 mm) erhält man:<br />

b delay<br />

= 500 mm / s ⋅0.<br />

065s<br />

+


133 Alexander Lorenz<br />

was einen sehr großen Fehler darstellt. Nehmen wir die Durchschnittswerte entstehen immer<br />

noch 22 mm Fehler. Die Frame-Verzögerung ist da allerdings noch nicht mit eingerechnet,<br />

was noch einmal 17 ms ausmachen kann. Aus der einfachen Rechnung kann eine Regel<br />

abgeleitet werden, für jede Millisekunde Verzögerung muss man mit etwa 1 mm<br />

Registrierungsfehler rechnen im schlechtesten Fall, im Durchschnitt 1/3 mm/ms. Wenn man<br />

aber im Submillimeterbereich arbeiten will, hilft nur eine vorrausschauende<br />

Kopfbewegungsbestimmung. Verzögerungsfehler stellen eine so große<br />

Registrierungsfehlerquelle dar, dass sie größer ist als alle anderen Quellen zusammen!<br />

4.2.2 Weltkoordinatensystem-Fehler<br />

Dieser Fehler gehört ebenfalls zur zweiten Klasse. Normalerweise hat man ein benutzer- oder<br />

systemdefiniertes Weltkoordinatensystem als Referenz. Ein solches System wird z.B. dann<br />

gebraucht, wenn man einen Tracker hat, der Punkte in der Welt (W) genau bestimmen kann,<br />

aber keine Kopfbewegungen verfolgen kann ([Ho]). Dann ist W als<br />

Referenzkoordinatensystem gegeben und T wird relativ dazu ausgedrückt. Um jetzt den<br />

virtuellen Punkt P richtig auszurichten muss er in einem Koordinatensystem angegeben<br />

werden, das dem System bekannt ist, also das Sensorkoordinatensystem. Eine Möglichkeit ist<br />

es, den Punkt P relativ zu einem Weltkoordinatensystem W zu messen, und dann diesen<br />

Vektor in das Sensor-Koordinatensystem zu transformieren:<br />

v<br />

S _ P<br />

= T<br />

S _ T<br />

⋅T<br />

T _ W<br />

Gleichung 8<br />

⋅v<br />

W _ P<br />

T T_W stellt dabei die Transformation von W nach T dar, T S_T von T nach S. v W_P und v S_P sind<br />

die entsprechenden Vektoren. Eine zweite Methode ist es, den Punkt mit Bezug auf das<br />

Tracker-Koordinatenssytem zu messen, indem der Punkt mithilfe mehrerer Messungen im<br />

Tracker-Raum digitalisiert wird. Das führt dann zu folgender Gleichung:<br />

v<br />

S _ P<br />

= T<br />

S _ T<br />

⋅v<br />

T _ P<br />

Gleichung 9<br />

Diese Methode hat bessere Fehlereigenschaften, da der Fehler b W_T wegfällt, ist aber nicht<br />

immer möglich, da die meisten guten digitalen Tracker nicht für Kopfverfolgung geeignet<br />

sind. Nur durch Fehler in der Bestimmung des Ursprungs und der Ausrichtung des Tracker-<br />

Koordinatensystem mit Bezug auf das Welt-Koordinatensystem ergibt sich für den Fehler<br />

b W_T :<br />

b W<br />

= δ v<br />

_ T<br />

W _ T<br />

δ Θ<br />

+ 2⋅sin<br />

Gleichung 10


134 Mathematische Grundlagen für Augmented-Reality Systeme<br />

δv W_T ist der Fehler in der Bestimmung des Ursprungs, δΘ W_T der Ausrichtungsfehler. Nur<br />

durch den Ausrichtungsfehler bekommen wir bei einer Entfernung von 500 mm des Kopfes<br />

vom Tracker-Ursprung und 500 mm des Punktes vom Sensor einen Fehler von 4 bis 10 mm.<br />

Um die Kopfposition und –ausrichtung zu bestimmen (T T_S ) kommen noch mehr Fehler<br />

hinzu.<br />

4.2.3 Tracker-Messfehler<br />

Der Tracker-Fehler kann in drei Kategorien eingeteilt werden ([Ho]):<br />

• statische Feldstörung: systematische, wiederholbare Störung der Messgröße z.B. durch<br />

Metall bei magnetischen Trackern. Kann durch Kalibrierung bis zu dem Grad behoben<br />

werden wie er wiederholbar und systematisch ist.<br />

• nicht-wiederholbare Tracker-Fehler (Jitter): dieser Fehler kann nicht herauskalibriert<br />

werden, dazu gehören sowohl kurzzeitige Störungen wie auch Langzeitstörungen<br />

• dynamische Tracker-Fehler: jeder Fehler, der durch die Bewegung des Sensors<br />

hervorgerufen wird<br />

Der Gesamtregistrierungsfehler durch Tracker-Messfehler kann durch die Gleichung 11<br />

ausgedrückt.<br />

b<br />

trac ker<br />

=<br />

δ v<br />

T _ S<br />

δ ΘT<br />

_ S<br />

+ 2⋅sin<br />

⋅<br />

2<br />

v<br />

S _ P<br />

Das zeigt, dass Verschiebungsfehler nur zum Registrierungsfehler addiert werden, der<br />

Ausrichtungsfehler aber mit der Entfernung zum Punkt P multipliziert wird. Für die Polhemus<br />

Fastrak z.B. bekommt man für eine Entfernung von 500 mm einen Fehler von 2.6 mm ([Ho]).<br />

4.2.4 Optische Verzerrung<br />

Dieser Fehler gehört zu den Display-Fehlern. Viele HMDs erzeugen eine Verzerrung des<br />

Bildes, d.h. ein Punkt wird etwas weiter seitlich dargestellt als er eigentlich sollte. Die<br />

häufigste Art der Verzerrung ist die so genannte pincushion distortion. Dabei werden die<br />

Punkte je weiter sie von der optischen Achse entfernt liegen umso weiter nach außen verzerrt<br />

(das Gegenteil davon wird barrel distortion genannt). Die seitliche Abweichung eines Punktes<br />

kann man durch Gleichung 12 annähern.<br />

r = m⋅<br />

r + k<br />

i<br />

s<br />

3<br />

( mrs<br />

)<br />

Gleichung 12<br />

r i bezeichnet dabei den Abstand von der optischen Achse zum Punkt im Bild, m ist die lineare<br />

Vergrößerung, k ist der Koeffizient für die optische Verzerrung und r s ist der Abstand von der<br />

optischen Achse zum Punkt im Bildschirm. Da man auf der optischen Achse keinen (oder nur<br />

einen sehr geringen Fehler im stereoskopischen Fall) sieht, der aber zum Rand hin immer<br />

größer wird, ist Vorsicht geboten, wenn man größere Displays einsetzen möchte. Da der<br />

Fehler sich mit der Zeit nicht ändert, könnte man dem eigentlich sehr gut entgegenkommen,<br />

indem man eine Vorverzerrung z.B. mittels Texture Mapping, das von [WaHo] beschrieben<br />

wird, vornimmt. Leider sind diese Methoden zurzeit noch so rechenintensiv, dass der Fehler<br />

zwar korrigiert werden kann, aber durch die zusätzliche Verzögerung ein noch viel größerer<br />

Fehler entsteht.<br />

Wie kann man sich diesen Fehler optisch vorstellen Dazu werfen wir einen Blick von oben<br />

auf die Szenerie.


135 Alexander Lorenz<br />

LE<br />

LI<br />

screen<br />

image<br />

RI<br />

RE<br />

Abbildung 3: Auswirkung der optischen Verzerrung von oben gesehen ([Ho])<br />

LE und RE sind das linke und das rechte Auge. LI und RI sind die Zentren der zwei Bilder.<br />

Die gestrichelten Linien zeigen die echte Lage an, die durchgezogenen Linien die Verzerrung.<br />

Für das linke Auge gilt, dass aufgrund der Verzerrung die Punkte auf dem Bildschirm weiter<br />

nach unten versetzt sind (eigentlich nach rechts, da wir ja von oben auf die Szenerie schauen),<br />

und zwar je weiter weg vom Zentrum, desto größer ist die Abweichung. Beim rechten Auge<br />

verschiebt sich der Punkt des oberen Randes des Rechtecks nicht, weil er genau auf das<br />

Zentrum fällt. Der untere Rand des Rechtecks verschiebt sich dagegen wieder gemäß der<br />

üblichen Abweichung. So entsteht eine Verzerrung und die Objekte am Rand des<br />

Bildschirmes machen den Eindruck als würden sie auf den Benutzer zukommen. Ist ein<br />

Objekt erst in der Mitte des Sichtfeldes, so ist es nicht verzerrt. Bewegt jetzt der Benutzer<br />

seinen Kopf, so dass das Objekt jetzt am Rand des Bildes ist, so scheint es als hätte das<br />

Objekt seine Form geändert. Wenn man eine stereoskopische Sicht benutzt, dann entsteht<br />

natürlich immer ein kleiner Fehler, da ein Objekt nie gleichzeitig im Zentrum des Bildes des<br />

linken Auges und des rechten Auges sein kann.<br />

5 Abschließender Kommentar<br />

Die affine Repräsentation aller Punkte bringt den großen Vorteil mit sich, dass komplett auf<br />

Kalibrierungen versichtet werden kann, womit eine Fehlerquelle für Registrierungsfehler und<br />

eine teilweise langwierige Kalibrierungsprozedur beseitigt wird. Da das Koordinatensystem<br />

erst zur Laufzeit berechnet werden kann, können auch erst dann virtuelle Objekte platziert<br />

werden. Allerdings gibt es noch einige Probleme und Einschränkungen mit diesem System.<br />

Es müssen in jedem Bild bestimmte Merkmale verfolgt werden. Diese Merkmale müssen<br />

einen sehr hohen Kontrast und eine einfache Struktur aufweisen. Kein Merkmale darf je<br />

verdeckt oder außerhalb des Sichtradius’ sein, es muss immer eine Verfolgung gewährleistet<br />

sein. Man könnte diese Einschränkung umgehen, indem man mehr als vier Bezugspunkte<br />

wählt. Doch es ist noch nicht ganz klar wie mit einer wechselnden Anzahl von Bezugpunkten<br />

von einem Bild zum nächsten umgegangen werden soll.<br />

In jedem heutigen AR-System sind Registrierungsfehler vorhanden. Darum stellt sich zurzeit<br />

nicht die Frage, ob man ein registrierungsfehlerfreies System bekommt, sondern wie viel<br />

Registrierungsfehler für ein bestimmtes Anwendungsgebiet noch akzeptabel sind. Das größte<br />

Problem stellt die zeitliche Verzögerung im System dar. Sie produziert so viel Fehler wie alle<br />

anderen Fehlerquellen zusammen und lässt Submillimeter-Anwendungen fast unmöglich<br />

erscheinen. Deshalb gilt es hier noch effizientere, schnellere Hard- und Software zu<br />

entwickeln. Optische Verzerrung ist eine weitere auffällige Fehlerquelle. Zurzeit kostet die<br />

Behebung dieses Fehlers so viel zusätzliche Zeit, dass dadurch mehr Fehler produziert werden<br />

als behoben werden. Trackermessfehler lassen sich dagegen durch sorgfältige Kalibrierung<br />

weitestgehend vermeiden.


136 Mathematische Grundlagen für Augmented-Reality Systeme<br />

Referenzen<br />

[VaKu]<br />

[Vall]<br />

[Ho]<br />

[WaHo]<br />

[MGGNTO]<br />

[Ho95]<br />

[VaKu98]<br />

Vallino J., Kutulakos K. N.:<br />

Augmented Reality Using Affine Object Representation<br />

Fundamentals of Wearable Computers and Augmented Reality<br />

Lawrence Erlbaum Associates, Inc. Publisher, 157 - 182<br />

Vallino J.:<br />

Augmented Reality with Minimal Calibration<br />

http://www.se.rit.edu/~jrv/research/ar/thesis.html<br />

Holloway R. L.:<br />

Registration Error Analysis for Augmented Reality Systems<br />

Fundamentals of Wearable Computers and Augmented Reality<br />

Lawrence Erlbaum Associates, Inc. Publisher, 183 – 218<br />

Watson A., Hodges F.:<br />

Using Texture Maps to Correct for Optical Distortion in Head-Mounted Displays<br />

Proceedings VRAIS ’95, IEEE Virtual Reality Annual Symposium (Research Triangle<br />

Park, March), 172 – 178<br />

McGarrity E., Genc Y., Navab N., Tuceryan M., Owen C.:<br />

Evaluation of Calibration for Optical See-Through Augmented Reality Systems<br />

Proceedings of the IEEE and ACM International Symposium on Augmented Reality,<br />

157 – 166<br />

Holloway R. L.:<br />

Registration Errors in Augmented Reality Systems<br />

Dissertation 1995<br />

Vallino J., Kutulakos K. N.:<br />

Calibration-Free Augmented Reality<br />

Computer Science Departement, Univerity of Rochester


Wearable Computer und Augmented Reality<br />

Anwendungen<br />

Hermann Kollmar<br />

Konstanzer Str. 26<br />

D-69126 Heidelberg<br />

Hermann.Kollmar@FernUni-Hagen.de<br />

Zusammenfassung: Wearable Computer (WC) werden bereits in den verschiedensten<br />

Bereichen eingesetzt. Auch für Augmented Reality (AR) existieren schon zahlreiche Anwendungsgebiete.<br />

WC erweitern dabei die Einsatzmöglichkeiten dieser Technologie dort,<br />

wo Mobilität gefragt ist. Die derzeit bedeutendsten Anwendungsbereiche solcher WCund<br />

WC/AR-Systeme sind Fertigungsprozesse und Wartung, Militär, Medizin, Logistik,<br />

Architektur und Unterhaltung. Eine Entwicklungsrichtung zielt darauf ab, WC zunehmend<br />

direkt in die Kleidung zu integrieren. Für die Zukunft ist zu erwarten, dass WC zu<br />

tiefgreifenden Änderungen in Handlungsabläufen des täglichen Lebens und Kommunikationsformen<br />

mit Computern im weitesten Sinne führen.<br />

1 Einführung<br />

1.1 Begriffsdefinitionen<br />

1.1.1 Wearable Computer<br />

Die Grenze zwischen herkömmlichem Computersystem und Wearable Computer (WC) ist<br />

etwas unscharf: Tragbare Computer im Sinne eines Laptops sind damit eigentlich noch nicht<br />

gemeint (es sei denn, sie sind irgendwie am Körper befestigt), in der Regel kann man ungefähr<br />

ab der Größe eines Handheld (z.B. PDA) und darunter von einem WC sprechen. Neben<br />

diesen in der Hand tragbaren Computersystemen bezeichnet man aber besonders informationstechnische<br />

Geräte, die am Körper oder an der Kleidung getragen werden oder sogar direkt<br />

in Kleidungsstücke integriert sind, als WC [Bab01]. Ob man auch noch bei vollständig<br />

implantierbaren Systemen von „wearable“ sprechen will, ist fraglich.<br />

1.1.2 Augmented Reality<br />

Augmented Reality (AR) bedeutet, dass die Wirklichkeit, so wie wir Menschen sie wahrnehmen,<br />

um bestimmte virtuelle, von einer entsprechenden Elektronik (z.B. PC) generierte Informationen<br />

angereichert, d.h. überlagert wird. Die Präsentation dieser Superposition aus Realität<br />

und Virtualität erfolgt dann auf eine für den menschlichen Betrachter geeignete Weise<br />

(bei visuellen Informationen z.B. über ein Brillensystem).<br />

1.2 Spezifische Technologien<br />

WC und AR greifen bei ihrem Einsatz auf eine Reihe spezifischer Technologien zurück, die<br />

sich insbesondere auf die folgenden Punkte beziehen:<br />

• Rechenleistung: Neben Anwendungen für WC, die die Rechenleistung und Vielseitigkeit<br />

eines herkömmlichen Computersystems benötigen, gibt es viele, bei der die Hardware abgespeckt<br />

und auf die spezifische Aufgabe abgestimmt werden kann, wodurch dann oft<br />

überhaupt erst „Tragbarkeit“ erreichbar ist. In solchen Fällen kommen statt vollwertiger<br />

Computersysteme in der Regel Microcontroller zum Einsatz.


138 Wearable Computer und Augmented Reality Anwendungen<br />

• Netzwerkanbindung: Häufig werden WC in ein meist drahtloses lokales Netzwerk (<strong>wireless</strong><br />

LAN) eingebunden: Wenn verschiedene Teile eines WC am Körper verteilt sind, können<br />

diese über ein sog. Body-LAN (auch als Personal Area Network, kurz PAN bezeichnet)<br />

miteinander kommunizieren, oder aber der WC ist als Ganzes über ein LAN oder eine<br />

andere spezielle Funkschnittstelle in einen größeren informationstechnischen Kontext eingebunden.<br />

• Eingabegeräte: Statt der gewöhnlichen Eingabegeräte wie Maus und Tastatur können zur<br />

Steuerung und Dateneingabe z.B. spezielle Miniaturtastaturen (beispielsweise am Handgelenk<br />

zu tragen oder einhändig bedienbar), Touchpads, Trackballs, Datenhandschuhe<br />

oder Spracherkennung verwendet werden. Es gibt auch bereits Versuche mit Techniken,<br />

die Gebärden bzw. Gestiken, elektrische Hirn- oder Muskelströme zur Steuerung einsetzen<br />

[BBS01].<br />

• Ausgabegeräte: Hier kommen statt eines Monitors neben Sprache vor allem brillenbasierte<br />

optische Darstellungssysteme zur Anwendung [Blü02], [Bab01]: Bei einem Head-<br />

Mounted-Display (HMD) nimmt eine am Brillengestell befestigte Videokamera die reale<br />

Szene auf. Zusammen mit virtuellen Informationen werden diese Bilder über kleine, ebenfalls<br />

an der Brille montierten Monitore einem (monokular) oder beiden Augen (biokular)<br />

zur Anzeige gebracht. Ähnlich funktioniert ein See-Through-HMD: Hier werden die virtuellen<br />

Informationen auf einem an der Brille befestigten Monitor über einen vor dem Auge<br />

des Betrachters angebrachten halbdurchlässigen Spiegel in dessen reale Sicht eingefügt.<br />

Statt eines Monitors können die virtuellen Daten auch mittels eines Laserscanners auf die<br />

Netzhaut projiziert werden.<br />

In zunehmendem Maße kommen auch haptische Ausgabegeräte wie Force-Feedback-<br />

Displays zum Einsatz.<br />

Abb. 1: Monokulares See-Through-HMD [LuI] und Handgelenkstastatur [WL]<br />

• Tracking-Systeme: Damit zum realen Sichtfeld passende virtuelle Informationen hinzugefügt<br />

werden können, muss ermittelt werden, worauf der Betrachter schaut bzw. welche<br />

Objekte sich in seinem Sichtfeld befinden und wie der Blickwinkel auf diese ist. Gerade<br />

im Zusammenhang mit WC-Systemen unter outdoor-Bedingungen ist das präzise<br />

Tracking meist schwierig. Daher kommen in solchen Situationen in der Regel Kombinationen<br />

aus mehreren der weiter unten vorgestellten Verfahren zur Anwendung. Man<br />

spricht dann auch von hybriden Tracking-Systemen [AHN99]. Die Position des Beobachters<br />

kann man z.B. mittels GPS tracken, die Orientierung seines Kopfes (Blickrichtung)<br />

durch einen am Kopf befestigten elektronischen Kompass, evtl. kombiniert mit einem<br />

Neigungsmesser. Man kann auch Objekte in der Umgebung des Beobachters tracken: Die<br />

hierzu eingesetzten Tracking-Systeme arbeiten meist auf optischer Basis. Beim sog. Marker<br />

Tracking werden an den zu trackenden Objekten Registriermarken angebracht, z.B. in<br />

Form von Strichcodes oder Kreisen. Das Landmark Tracking hingegen erhält seine Bezugspunkte<br />

aus markanten, fest stehenden Objekten der Umgebung. Auch planare Flä-


139 Hermann Kollmar<br />

chen, beispielsweise von Gebäuden, sind hierfür nutzbar. Diese Methode spielt insbesondere<br />

in der Architektur eine bedeutende Rolle.<br />

Abb. 2: WC-System VuMan 2 von der Carnegie Mellon Universität mit HMD und Drei-Tasten-<br />

Eingabegerät [VuM]<br />

1.3 Verknüpfung von WC und AR<br />

Zunächst lassen sich die beiden Begriffe unabhängig voneinander betrachten: Grundsätzlich<br />

gibt es Applikationen für WC, die keine AR nutzen und umgekehrt solche für AR, die nicht auf<br />

einem WC laufen, sondern auf herkömmlichen Rechnersystemen.<br />

Die vorliegende Arbeit fokussiert hauptsächlich auf solche WC-Anwendungen, bei denen<br />

beide Technologien miteinander verbunden sind: WC erweitern hier die Anwendungsmöglichkeiten<br />

von AR um solche, bei denen Erfassung, Verarbeitung oder Präsentation der Daten<br />

mittels gewöhnlicher Computer nicht praktikabel wäre.<br />

2 Anwendungsgebiete<br />

Für WC und AR existieren mittlerweile zahlreiche Einsatzmöglichkeiten. Die wichtigsten sollen<br />

im folgenden exemplarisch dargestellt werden:<br />

2.1 Fertigungsprozesse und Wartung<br />

Bei einem Fertigungsprozess fallen gewöhnlich viele Daten an, z.B 3D-Strukurpläne von<br />

Teilen, Montageanleitungen, oder den Materialfluss betreffend. Hierbei ist die Verfügbarkeit<br />

und die Möglichkeit zur Manipulation von diesen Daten an beliebigem Ort und jederzeit im<br />

Produktionsablauf wünschenswert. Außerdem finden Montagearbeiten oft unter ungünstigen<br />

räumlichen Bedingungen statt, wo die Verwendung von herkömmlichen Rechnern wie Desktop<br />

oder Laptop nicht möglich ist, zumal wenn der Monteur beide Hände zum Arbeiten<br />

braucht. Mittels WC und AR hingegen ist die Visualisierung dreidimensionaler oder textueller<br />

Daten sowie ein intuitiver, interaktiver Umgang mit diesen Daten auch unter den oben<br />

geschilderten Umständen möglich. Als Ausgabegerät wird dabei meist ein HMD verwendet.<br />

Dies eröffnet u.a. folgende Möglichkeiten [BBS01]:<br />

• Visualisierung von 3D-Bauteilmodellen direkt an der benötigten Stelle im Montageprozess<br />

• Simulation von Arbeitsabläufen mit der Möglichkeit zur Visualisierung des Ergebnisses<br />

direkt auf den betreffenden Werkstücken<br />

• Hilfe bei manuellen Produktionsvorgängen: Beispielsweise kann durch Einblenden einer<br />

Markierung in das Sichtfeld auf das Werkstück direkt die exakte Bohrlochposition angegeben<br />

werden<br />

• Training vor Ort z.B. bei Einführung neuer Montagetechniken oder technischen Änderungen<br />

von Bauteilen<br />

• beidhändiges Arbeiten bei simultaner Projektion von relevanten Informationen (z.B. über<br />

den nächsten auszuführenden Arbeitschritt, hierfür benötigte Werkzeuge und Materialien)


140 Wearable Computer und Augmented Reality Anwendungen<br />

auf das jeweilige Arbeitsumfeld. Dadurch werden auch Informationen in gedruckter Form<br />

wie Pläne usw. überflüssig und der Monteur kann sich voll auf den eigentlichen Arbeitsablauf<br />

konzentrieren. Sprachausgabe ist hier ebenfalls einsetzbar.<br />

• Hilfe bei der Qualitätskontrolle: Über ein HMD kann dem Arbeiter z.B. angezeigt<br />

werden, wo und welche Maßnahme er durchführen muss. Mittels einer zum WC-System<br />

gehörenden Videokamera oder per Spracheingabe kann dabei gleich die Dokumentation<br />

der ausgeführten Tätigkeiten erfolgen.<br />

Derartige Systeme werden u.a. in der Automobilproduktion [RSK99] und im Flugzeugbau<br />

[CMG99] bereits seit einiger Zeit eingesetzt, aber auch bei Inspektions- und Wartungsarbeiten<br />

zeigen sie ihre Stärken: Zur Wartung von Flugzeugen gehört beispielsweise auch die Untersuchung<br />

der Flugzeughaut auf Korrosion und Risse. Gerade hier kommt die physische Bewegungsfreiheit,<br />

die ein WC dem Servicepersonal ermöglicht, voll zum Tragen.<br />

Abb. 3: Links: WC-System VuMan 2R beim Einsatz in der Flugzeugwartung; Rechts: Das<br />

Eingabegerät besteht aus einer Drehscheibe mit drei Drucktasten, womit der Anwender z.B.<br />

durch mittels des HMD angezeigter Menus navigieren kann [VuM]<br />

2.2 Militär<br />

Dieses Einsatzgebiet stellt bezüglich der Technik auch einige spezifische Anforderungen an<br />

WC-Systeme [TRL01]: Gerade bei Kampfeinsätzen sind Steuerungen durch kontinuierlichen<br />

Sprachfluss schlecht einsetzbar. Bezüglich Störgeräuschen unempfindliche Systeme, die nur<br />

auf einzelne Worte oder kurze Phrasen reagieren, eignen sich hier besser. Eine hundertprozentige<br />

Zuverlässigkeit insbesondere bei Kommandos wie „Feuer!“ muss selbstverständlich<br />

sein. Daneben werden besondere Anforderungen an Robustheit, Gewicht und Batterielebensdauer<br />

gestellt.<br />

Im Folgenden sind die wichtigsten militärischen Anwendungsbereiche kurz erläutert[TRL01]:<br />

2.2.1 Kommunikation<br />

Für die Truppenführung gehören gute Kommunikationsmöglichkeiten zu den wichtigsten<br />

Dingen. Im Rahmen einer Aufklärungsmission ist es z.B. grundsätzlich gefährlich, direkt Informationen<br />

an Ort und Stelle drahtlos zu übermitteln, da der Sender dabei angepeilt werden<br />

kann. Wird mit der Weitergabe hingegen bis zur Rückkehr gewartet, ist die daraus entstehende<br />

Zeitverzögerung evtl. zu groß. Ein WC-System kann hier helfen, indem die Informationen<br />

vor Ort im WC gespeichert und erst bei Erreichen einer sicheren Position per Funk<br />

(z.B. über in die Ausrüstung bzw. Kleidung integrierte Antennen) weiter übermittelt werden.<br />

Angesichts des Trends zu multinationalen Einsätzen ist auch die Fähigkeit zu mobiler Kommunikation<br />

mittels automatischer Sprachübersetzung von großer Bedeutung.<br />

2.2.2 Orientierung<br />

In vielen Situationen ist die genaue Kenntnis der eigenen Position nötig (z.B. beim Anfordern<br />

von Artillerieunterstützung, damit man nicht in „friendly fire“ gerät). Aus diesem Grund


141 Hermann Kollmar<br />

wurde vom U.S.-Militär das Global Positioning System (GPS) entwickelt. Die von einem<br />

GPS-Empfänger gelieferten Ortskoordinaten können auf dem Display eines WC-Systems direkt<br />

in einer digitalen Karte angezeigt werden, beispielsweise als Punkt. Dies erleichtert die<br />

Orientierung. Auch die Routenplanung wird durch WC vereinfacht. Im Gegensatz zu zivilen<br />

Produkten müssen hier aber noch andere Faktoren wie verwendeter Fahrzeugtyp, Straßenzustand<br />

und Wetterbedingungen Berücksichtigung finden. WC können diese Informationen<br />

sammeln, aufbereiten und geeignet präsentieren.<br />

2.2.3 Logistik<br />

Militärische Einsätze erfordern neben der Erfassung, Zusammenführung und Bewertung verschiedenster<br />

Daten die Bewältigung zahlreicher logistischer Aufgaben auch direkt am Einsatzort.<br />

So müssen etwa verschiedene Berichte verfasst, die Reichweite der Ressourcen (Sprit,<br />

Munition, usw.) berechnet und Nachschub über entsprechende Formulare angefordert werden.<br />

Alle diese Aufgaben werden durch WC erleichtert, insbesondere sind diese Vorgänge damit<br />

papierlos zu bewerkstelligen.<br />

2.2.4 Wartung und Instandhaltung<br />

Das U.S.-Militär verwendet bereits seit geraumer Zeit verschiedene WC-Systeme bei der<br />

Wartung von Flugzeugen, Helikoptern und anderem komplexen technischen Gerät. Funktionell<br />

sind die hier eingesetzten Systeme mit den in Kapitel 2.1 vorgestellten zivilen Versionen<br />

vergleichbar.<br />

2.2.5 Medizinische Erstversorgung<br />

Für einen im Kampfeinsatz verwundeten Soldaten ist die erste Stunde danach die kritischste<br />

Zeit. Die übliche Rettungskette sieht so aus:<br />

• Erkennung, dass der Soldat überhaupt medizinische Hilfe braucht<br />

• Information der zuständigen Rettungsleitstelle, Anforderung eines Transportmittels<br />

• Untersuchung und Erstversorgung vor Ort<br />

• Transport zur nächstgelegenen medizinischen Einrichtung, dort weitere Untersuchungen<br />

und Versorgung, evtl. Verlegung in andere Einrichtungen<br />

WC mit entsprechender sensorischer Ausstattung können hier eine sehr wichtige Hilfe sein:<br />

Über Sensoren für die medizinischen Basisparameter Puls- und Atmungsfrequenz, Blutdruck<br />

und Blutsauerstoffgehalt kann der physische Zustand eines Soldaten permanent überwacht<br />

und durch ein eingebautes Expertensystem beurteilt werden. Bei Überschreiten kritischer<br />

Werte (die z.B. auf einen Schockzustand hindeuten) kann dann automatisch unter Übermittlung<br />

der gemessenen Werte im Sinne einer einfachen Erstdiagnose und der augenblicklichen<br />

räumlichen Position in Form von GPS-Daten adäquate Hilfe angefordert und zum Einsatzort<br />

dirigiert werden.<br />

Weiterhin können z.B. vom Rettungspersonal erste Videobilder samt Ton des Verwundeten<br />

mittels eines entsprechend ausgestatteten WC-Systems aufgenommen, komprimiert und zu<br />

einem Arzt der Leitstelle übermittelt werden, der dann auch in der Lage ist, Rückfragen zu<br />

stellen und Anweisungen zu geben. Außerdem kann der WC ein Inventar über die den Rettungskräften<br />

aktuell zur Verfügung stehenden Verbrauchsmittel wie Medikamente, Kanülen,<br />

Verbandsmaterial vorhalten, indem die Verpackungen diese Dinge mit einem Barcode versehen<br />

und bei Entnahme gescannt werden. Damit erfolgt auch gleichzeitig die sehr wichtige<br />

Dokumentation über Art, Umfang und Zeitpunkt der Medikation, die ein Verwundeter bis<br />

zum Eintreffen in einer medizinischen Einrichtung bereits erhalten hat. Diese Informationskette<br />

kann auch mit Verfahren der herkömmlichen Telemedizin gekoppelt werden, so dass auf<br />

diesem Wege auch weit entfernte Spezialisten oder Versorgungseinrichtungen z.B. in den<br />

USA direkt erreichbar sind.


142 Wearable Computer und Augmented Reality Anwendungen<br />

2.2.6 Integrierte WC-Systeme<br />

Ein Beispiel eines derartigen Systems ist der Land Warrior der U.S. Army [LW], [TRL01]:<br />

Dabei handelt es sich um eine allwetter- und nachttaugliche integrierte Kampfausrüstung für<br />

Infanteriesoldaten, die aus vier technischen Subsystemen besteht:<br />

• Helmsystem mit Computer und Display zum Anzeigen von digitalen Karten, Bildern der<br />

an der Waffe montierten Wärmekamera und weiteren Informationen<br />

• Befestigungssysstem mit Schutz vor ballistischen Einwirkungen<br />

• Waffensystem einschließlich Wärmebild- und Videokamera, Laser-Entfernungsmesser,<br />

Digitalkompass (koppelbar mit dem GPS)<br />

• Computer- und Funksystem, bestehend aus zwei Funkgeräten, GPS und menugesteuertem<br />

Computerinterface, steuerbar durch ein am Brustgurt befestigtes Zeigegerät<br />

Abb. 4: U.S. Infanterie-Waffensystem Land Warrior [LW]; mittels der am Gewehr befestigten<br />

Sensorik und des am Helm montierten Displays kann der Soldat sogar „um die Ecke“ feuern,<br />

ohne sich selbst wesentlich zu gefährden<br />

Eine neuere Entwicklung stammt von der Firma Xybernaut, USA. Das nur ca. 900 Gramm<br />

schwere System MA4-TC [MA] wird gesteuert von einem 400 MHz-P III-Prozessor mit einem<br />

wechselbaren Speichersystem. Alle kommerziell verfügbaren Standard-Betriebssysteme<br />

sind einsetzbar. Neben einer am Headset mit Bluetooth-Schnittstelle befestigten Farbkamera<br />

und Sprachsteuerung sollen in Kürze auch Spracherkennung und automatische Fremdsprachenübersetzung<br />

als Features hinzukommen. Das System wird zunächst bei der U.S. Navy<br />

und der Nationalgarde bei Wartungsteams für Flugzeuge und Waffensysteme zum Einsatz<br />

kommen im Rahmen einer entsprechenden Machbarkeitsstudie.<br />

Noch einen Schritt weiter gehen die Bestrebungen der Firma Natick Labs [FMW], wo man<br />

versucht, Computer und Elektronik direkt in die Textilien zu integrieren, einschließlich Antennen<br />

und Netzwerkfähigkeiten in Form eines short range-PAN (vgl. Kapitel 1.2). Die PANbasierte<br />

Technologie soll u.a. dazu dienen, chemische Kampfstoffe zu detektieren, den physischen<br />

Status des Soldaten zu überwachen und für eine positive Identifikation zu sorgen, um<br />

Opfer in den eigenen Reihen durch „friendly fire“ zu vermeiden. Inzwischen wurde auch bereits<br />

ein in Textilien integrierbares USB-Kabel entwickelt.<br />

Zusammen mit anderen Firmen ist man nun bestrebt, die Integration von optischen Fasern und<br />

herkömmlichen elektrischen Verbindungen in Textilien zur Serienreife zu bringen. Weitere<br />

Projekte beschäftigen sich u.a. mit der Entwicklung eines drucksensitiven Keyboards mittels<br />

einer soft-switch-Textilfaser.


143 Hermann Kollmar<br />

2.3 Medizin<br />

WC sind im gesamten Spektrum des Gesundheitswesens zum Nutzen sowohl des Patienten als<br />

auch des Arztes einsetzbar. Im Wesentlichen sind dies die Bereiche Prävention, Diagnose und<br />

Behandlung [SJ01] in verschiedenen Situationen, die beispielhaft näher erläutert werden sollen:<br />

2.3.1 Monitoring<br />

Wie im Kapitel 2.2.5 bereits für den militärischen Sektor dargestellt, bietet das Tragen von<br />

Smart Clothing oder anderen intelligenten Accessoires die Möglichkeit des permanenten und<br />

lokal unabhängigen Monitorings von über Sensoren nichtinvasiv erfassbaren wichtigen Gesundheitsparametern,<br />

der Medikation oder auch anderen Dingen wie Art und Ausmaß körperlicher<br />

Belastung eines Athleten: Hier können neben Basisparametern wie Puls, Atmung, Blutdruck<br />

usw. auch spezifische Belastungen an bestimmten Körperstellen wie Knie, Schulter,<br />

Fuß z.B. durch Druck- und Dehnungssensoren ermittelt werden.<br />

Abb. 5: Beispiel eines Sensorsystems zur Erfassung biometrischer Daten [Aff]<br />

Im Rahmen der Prävention kann man z.B. auch vollkommen gesunde, d.h. symptomlose Personen<br />

mit genetischer Prädisposition zu Herz-Kreislauf-Erkrankungen mittels über einen einfachen<br />

Brustgurt oder über in Textilien integrierte Sensoren abgeleitetes EKG permanent monitoren.<br />

Dieses Vorgehen bietet sich natürlich erst recht bei Personen mit bereits bestehender<br />

Symptomatik oder im Zustand nach schädigenden Ereignissen (z.B. Herzinfarkt) an. Ein<br />

weiteres wichtiges Beispiel ist die häusliche kontinuierliche Überwachung der Atembewegungen<br />

von Säuglingen mit Prädisposition zum „Plötzlichen Kindstod“, SIDS (Sudden Infant<br />

Death Syndrome) genannt. Die Daten können drahtlos an einen bedside-Monitor übertragen<br />

und dort ausgewertet werden. Im Falle eines länger dauernden Atemstillstands gibt das Gerät<br />

dann Alarm.<br />

Ganz neue Möglichkeiten ergeben sich durch WC auch für die häusliche Versorgung von Patienten:<br />

Üblicherweise sieht das Schema ungefähr so aus: Eine medizinische Kraft hat pro<br />

Tag eine bestimmte Anzahl von Personen zu versorgen, die nach Plan jeweils ein- oder mehrfach<br />

besucht und je nach Erfordernissen behandelt oder sonstwie unterstützt werden. Dabei<br />

erfolgt auch die Erhebung medizinischer Daten (Blutdruck. Puls, usw.), die man vorteilhafterweise<br />

auch permanent mittels geeignetem Sensorsystem eines WC ermitteln sowie<br />

loggen und auswerten könnte. Bei Gefahr kann dann der WC die Betreuungsperson, die ir-


144 Wearable Computer und Augmented Reality Anwendungen<br />

gendwo unterwegs ist, über Funk alarmieren und ihr beispielsweise über ein HMD die entsprechenden<br />

Informationen anzeigen, so dass diese sofort reagieren kann.<br />

Natürlich gibt es auch Situationen, wo das Monitoring mittels WC die einzige Möglichkeit<br />

dafür ist, etwa bei Raumflügen.<br />

2.3.2 Rettungswesen<br />

Das vom Universitätsklinikum Regensburg entwickelte WC-System NOAH (Notfall<br />

Organisations- und Arbeitshilfe) [Uch] stellt innovatives Kommunikationskonzept für das<br />

Rettungswesen dar. Wesentliches Ziel war es, die Kommunikationsanbindung des Notarztes<br />

an die Rettungsleitstelle und die Notaufnahmen der Krankenhäuser zu verbessern. Mit NOAH<br />

können für das Einsatzmanagement wichtige Informationen in Sekundenschnelle erfasst und<br />

optimal via digitalem Datenfunksystem weitergegeben werden:<br />

Mittels der am Einsatzort erhobenen Daten kann die Rettungsleitstelle während der Patientenversorgung<br />

einen Zielklinikvorschlag erarbeiten und den Patienten dort voranmelden. Die<br />

aufnehmende Klinik ist so frühzeitig in der Lage, vorbereitende Maßnahmen zur Weiterversorgung<br />

des Notfallpatienten zu treffen. Die Eingabe aller für die Notfalldokumentation (Notarzteinsatzprotokoll)<br />

nötigen Daten erfolgt unkompliziert mittels Stift per Touch-Panel oder<br />

Sprache. Auf diese Weise wird gegenüber herkömmlichen Vorgehensweisen ein sehr wichtiger<br />

Zeit- und Informationsvorsprung erreicht. Außerdem besteht die Möglichkeit, mittels einer<br />

Videokamera auch Bilder vom Einsatzort oder von Patienten und deren Verletzungen sowie<br />

12-Kanal EKG-Sequenzen mitzuschicken.<br />

Das ganze System, das ansonsten noch Zentraleinheit, Batterie, Kartenleser und ein GPS-Modul<br />

umfasst, ist in eine Rettungsdienstjacke integriert. Daneben existiert noch eine Systemversion<br />

in Form eines Kleinstcomputers mit integriertem Funkmodul.<br />

Abb. 6: WC-System NOAH [Uch]; eines seiner Features ist die Zielführung mittels GPS<br />

2.3.3 Implantierbare WC<br />

Ein weiteres enorm wichtiges medizinisches Einsatzgebiet für WC stellt der Diabetes<br />

(Zuckerkrankheit) dar. Die im Verlauf der Erkrankung regelmäßig auftretenden, mitunter<br />

schwerwiegenden Schädigungen an vielen Organen sind allesamt letztlich auf einen nicht<br />

exakt auf den aktuellen Blutglucosegehalt angepassten Insulinspiegel zurück zu führen. Neben<br />

dem persönlichen Leid ist der Kostenaufwand für die Behandlungen enorm. Nun ist es<br />

andererseits nicht praktikabel bzw. zumutbar, dass sich ein insulinpflichtiger Diabetiker sehr<br />

häufig am Tag nach erfolgter Blutzuckerkontrolle die entsprechende exakte Menge Insulin<br />

injiziert. Daher wird bereits seit geraumer Zeit an einer künstlichen Bauchspeicheldrüse gear-


145 Hermann Kollmar<br />

beitet: Ein vollständig unter der Haut liegendes Implantat soll permanent den Blutglucosegehalt<br />

messen, daraus die exakt benötigte Insulinmenge errechnen und diese mittels eines dazu<br />

gehörigen Pumpensystems freisetzen. Das Insulinvorratsbehältnis ist dabei per Injektion von<br />

außen nachfüllbar. Zusätzlich könnten z.B. alle Daten geloggt und vom Arzt zur Therapiekontrolle<br />

drahtlos abgerufen werden. Angesichts von weltweit etwa 500 Millionen Betroffenen<br />

[Ber03] wäre solch ein implantierbarer WC von unschätzbarem Wert.<br />

Auf andere intelligente Implantate, wie z.B. Herzschrittmacher, soll hier nicht weiter eingegangen<br />

werden.<br />

2.4 Logistik<br />

Ein Beispiel für den Einsatz von WC-Systemen in der Logistik ist das Wearable Scan System<br />

WSS [Sym] der Firma Symbol Technologies, USA. Das System wird z.B. in den Bereichen<br />

Lagerverwaltung, Produktion, im Einzelhandel, aber auch in anderen Branchen (beispielsweise<br />

im E-Commerce) eingesetzt.<br />

Das System besteht aus einem Scanner und einem am Unterarm befestigten Computer. Der<br />

Ring-Scanner wird am Zeigefinger getragen. Zum Aktivieren dieses Scanners zeigt man einfach<br />

mit dem Finger auf den maximal 60 cm entferneten Barcode, wobei gleichzeitig der<br />

Daumen gegen einen Auslöser drückt. Der für große Reichweiten vorgesehene Scanner wird<br />

auf dem Handrücken getragen. Mit ihm können Barcodes auf Paletten in einer Entfernung von<br />

bis zu 7,6 m gelesen werden. Der Computer besteht aus Prozessor (16 MHz NEC V25), hintergrundbeleuchtetem<br />

LCD-Display, programmierbare Membrantastatur, Lithiumionenakku<br />

und Funkkommunikationseinheit (max. Übertragungsrate: 11 Mbps) und bietet leistungsstarke<br />

Funktionen zur Informationserfassung, Datenverarbeitung und Datenkommunikation.<br />

Abb. 7: Tragbares Dateneingabegerät WSS mit Handrückenscanner und vergrößert<br />

dargestelltem Ringscanner (Bildmitte) [Sym]<br />

2.5 Architektur<br />

2.5.1 Bauaufnahme<br />

Bei einer Bauaufnahme erfolgt eine strukturierte Erfassung von Bauwerksinformationen z.B.<br />

zwecks einer Bestandsaufnahme durch Generierung eines komplexen digitalen Abbildes (Angabe<br />

von verwendeten Materialien, Konstruktionsmerkmale etc.) sowie die Erfassung weiterer<br />

planungsrelevanter Baubeschreibungen, verbunden mit einer Reduktion der Daten auf das<br />

Wesentliche. Die Erfassung der Geometriedaten erfolgt durch Verfahren aus den Bereichen<br />

Geodäsie, Architektur, Stadt- und Regionalplanung. Die hierzu notwendigen Erfassungsgeräte<br />

werden über den WC gesteuert und das aus den Eingabedaten resultierende Gebäudemodell<br />

kann dann per HMD in den Sichtbereich des Anwenders überlagert werden, der damit z.B. in


146 Wearable Computer und Augmented Reality Anwendungen<br />

der Lage ist, mögliche Fehler durch manuelle Anpassung des digitalen Modells an den<br />

Realbestand sofort zu eliminieren.<br />

Abb. 8: Szenario einer Bauaufnahme [Gre01]: Links die reale Szene, in der Mitte das aus den<br />

erfassten Daten vom Computer generierte Bild (statische Elemente), rechts der Gesamteindruck,<br />

der dem Anwender über ein HMD vermittelt wird<br />

2.5.2 Bauwesen<br />

Weitere Einsatzmöglichkeiten von WC/AR-Systemen gibt es auch bei der Konstruktion und<br />

beim Bau von Gebäuden: Wenn strukturelle Gebäudedaten wie z.B. statische Elemente, Wasserrohre<br />

oder elektrische Leitungen auf einem WC verfügbar sind, kann der Architekt, der<br />

diese Daten über ein HMD eingespiegelt bekommt, sich sozusagen mit Röntgenaugen durch<br />

ein reales Gebäude bewegen. Informationen, die normalerweise nur zweidimensional in Form<br />

von Plänen vorliegen, werden so plastisch und leichter „begreifbar“. Auch für spätere Wartungs-<br />

und Reparatureinsätze ist diese Möglichkeit hilfreich, da so nicht sichtbare oder<br />

abstrakte Strukturen vor Ort angezeigt werden können.<br />

2.5.3 Planung<br />

Bei der Planung von Bauwerken wird AR schon seit einiger Zeit eingesetzt: Beispielsweise<br />

können Bilder oder Videoaufnahmen von realen Szenen (z.B. das Baugrundstück oder der<br />

Rohbau) mir Modelldaten überlagert werden. Damit bietet sich dem Betrachter dann das Bild<br />

des fertigen Bauwerks [KSR01]. Die Portierung dieser AR-Techniken auf WC-Systeme erweitert<br />

auch hier die Möglichkeiten: Z.B. kann der Betrachter jetzt nicht nur sehen, wie sich<br />

ein Bauwerk, das noch gar nicht existiert, in die Umgebung einfügt, sondern er ist jetzt auch<br />

fähig, vor Ort nach Belieben um das virtuelle Gebäude herum oder auch hinein zu gehen.<br />

Ein Beispiel eines hierfür entwickelten Systems ist TINMITH2 von der University of South<br />

Australia [TPG99]: Zunächst wird von dem betreffenden Objekt mittels einer Standard-CAD-<br />

Software ein 3D-Modell erzeugt und in Form eines Sets aus 3D-Linien in der Datenbank des<br />

Systems abgelegt. Die Hardware besteht im Wesentlichen aus Tragegestell, Notebook, Batterie,<br />

Antenne, HMD, Mini-Keyboard sowie einem differenziell arbeitenden GPS-Modul und<br />

einem digitalen Kompass zum Tracken des Standorts und der Kopfposition des Benutzers.<br />

Die Software besteht aus mehreren Modulen, die in eine Client-Server-Struktur eingebunden<br />

sind und über TCP/IP miteinander kommunizieren.


147 Hermann Kollmar<br />

Abb. 9: Links: TINMITH2-System; auf dem Kopf ist der Digitalkompass montiert, der zum<br />

Tracken der Kopfbewegungen dient; am linken Unterarm befindet sich das Mini-Keyboard zur<br />

Eingabe von Daten oder Steuerung des Systems; Rechts: Blick durch das HMD: Die in der Datenbank<br />

gespeicherten Informationen des Objekts werden dem realen Sichtfeld überlagert [Tin]<br />

Die rechte Hälfte der Abb. 9 zeigt einen Blick durch das HMD, wie er sich dem Benutzer offenbart:<br />

Am rechten Rand ist die Überlagerung des realen Gebäudes mit Informationen aus<br />

der Datenbank in Form grüner Linien zu sehen; die ebenfalls grün linierte quaderförmige<br />

Struktur zeigt die Grundform eines geplanten Erweiterungsbaus. Es wäre auch möglich, statt<br />

dieser einfachen Liniendarstellung ein komplett gerendertes 3D-Modell, versehen mit Texturen<br />

für die Oberflächen und Berücksichtigung des Sonnenlichteinfalls bzw. des Schattenwurfs,<br />

einzublenden, was dann auch einen realistischen Aspekt des geplanten Gebäudeteils<br />

vermitteln würde. Sogar Animationen beweglicher Gegenstände wie Türen, Fenster oder Personen<br />

sind denkbar.<br />

Das TINMITH-System [Tin] wird laufend weiterentwickelt: In der aktuellen Version kann der<br />

Benutzer seinem Sichtfeld auch virtuelle Gegenstände wie Bäume, Tische, Laternen hinzufügen,<br />

die er mit einem Datenhandschuh frei platzieren, rotieren oder skalieren kann. Diese<br />

Möglichkeiten machen das System damit auch interessant für Aufgaben im Bereich Gartenarchitektur<br />

und Landschaftsbau. Ein weiteres Feature ist das sog. construction at a distance:<br />

Mit dieser Technik kann der Benutzer einfache geometrische Objekte (z.B. Flächen)<br />

platzieren und aus diesen dann Gebäude oder andere Dinge formen, welche zusätzlich noch<br />

texturiert werden können. Insgesamt lassen sich so auch komplexe Welten erzeugen um<br />

entweder reale Szenarien nach Belieben zu modifizieren oder komplett neu zu erschaffen. Bei<br />

bereits existierenden Gebäuden können nach Erfassung ihrer geometrischen Eigenschaften<br />

verschiedene Modifikationen vor Ort ausprobiert und „direkt“ im Kontext des realen Umfelds<br />

beobachtet werden.<br />

2.5.4 Rekonstruktion<br />

Zur Rekonstruktion historischer Gebäude oder Landschaften lassen sich WC/AR-Systeme<br />

ebenfalls nutzen: Das Projekt GEIST [Gei] beispielsweise hat u.a. zum Ziel, Ruinen historischer<br />

Gebäude sowie die 50000 Quadratmeter große terrassenartige Gartenanlage „Hortus<br />

Palatinus“ am Heidelberger Schloss mit ihren geometrisch angelegten Beeten und Hecken<br />

sowie geheimnisvollen Grotten, die auch als „achtes Weltwunder“ bezeichnet, jedoch nie<br />

vollendet wurde und heute nur noch rudimentär vorhanden ist, digital wieder auferstehen zu<br />

lassen. Hierzu wurden die historischen Orginalpläne des Architekten sowie weitere Quellen<br />

wie Stiche und Gemälde mit den aktuellen Geländedaten des heutigen Schlossgartens abgeglichen<br />

und daraus ein 3D-Modell konstruiert. Das mobile AR-System soll dann eine visuelle


148 Wearable Computer und Augmented Reality Anwendungen<br />

Überlagerung von Informationen und graphischen Rekonstruktionen zerstörter Bauwerke über<br />

die noch existierenden Bauwerke mittels eines HMD liefern. Hierbei werden besondere Anforderungen<br />

an das Tracking gestellt: Damit das System die Position und die Blickrichtung<br />

des Benutzers kennt, um gezielt Informationen in die natürliche Umgebung einzublenden,<br />

könnte auch hier zur Ermittlung der Position des Benutzers differentielles GPS, für die Blickrichtungsbestimmung<br />

Orientierungssensoren benutzt werden. Allerdings ist zum einen die<br />

Genauigkeit gängiger GPS-Systeme hier grundsätzlich zu gering, zum anderen werden im<br />

urbanen Umfeld GPS-Signale durch eng stehende Gebäude behindert und verfälscht. Daher<br />

kommen hier zusätzliche Verfahren zur Anwendung, nämlich ein gyroskopbasiertes Tracking<br />

sowie ein videobasierter Ansatz: Letzteres bringt das Videobild mit digitalen dreidimensionalen<br />

Referenzmodellen in Übereinstimmung. Im durch eine kleine Kamera aufgenommenen<br />

Videostrom erkannte Features werden im 3D-Modell identifiziert und dienen zur Ermittlung<br />

der Position und Blickrichtung des Benutzers.<br />

Abb. 10: Links sind im Hintergrund die Mauerreste, wie sie sich heute darstellen, zu sehen; die<br />

Galerie im Vordergrund ist virtuell hinzugefügt; Rechts ist die sog. Scheffelterrasse abgebildet;<br />

das sog. Lusthaus am linken Ende ist nie gebaut worden, es existiert nur als digitale Rekonstruktion<br />

aus alten Quellen [EML]<br />

Geplant ist, das vorgestellte Projekt in erster Linie im Edutainment-Sektor einzusetzen: Auf<br />

unterhaltsame Weise soll Schülern oder auch Touristen das geschichtliche Umfeld des<br />

Dreißigjährigen Krieges vermittelt werden. Neben den bereits vorgestellten Features können<br />

computeranimierte Darstellungen menschlicher Charaktere in Geschichten vor realen Kulissen<br />

agieren, wobei der Anwender interaktiv in das Handlungsgeschehen eingreifen kann.<br />

Hierzu ist neben der 3D-Objektdatenbank noch zusätzlich eine Wissensdatenbank vorhanden,<br />

die entsprechende Informationen liefert. Ein Prototyp des Projekts soll bis zum Jahr 2004 fertig<br />

entwickelt sein.<br />

2.6 Unterhaltung<br />

Inzwischen sind einige Computerspiele am Markt, welche AR-Technologie nutzen. Eines der<br />

ersten war ARQuake [Mat02], [ARQ], welches auf dem bekannten Computer-Actiongame<br />

Quake basiert. In dem Spiel geht es darum, Monster zu bekämpfen, Gegenstände einzusammeln<br />

und bestimmte Aufgaben zu erledigen. Hierzu bewegt sich der Spieler in einer virtuellen<br />

Umgebung, die auf dem Computerbildschirm dargestellt wird. Die Steuerung bzw. Navigation<br />

in der virtuellen Welt erfolgt über Maus bzw. Tastatur.<br />

Das Spiel wurde nun so modifiziert, dass der Spieler sich jetzt in einer realen Umgebung bewegen<br />

und dort gegen die virtuellen Monster kämpfen kann. Diese werden über ein HMD in<br />

das reale Bild des Spielers eingeblendet, der als technische Ausrüstung neben dem HMD u.a.<br />

einen mobilen Rechner sowie eine Kombination aus GPS, digitalem Kompass und Neigungsmesser<br />

zwecks genauer Ermittlung seines Standorts und seiner Kopfpositionierung am<br />

Körper trägt.


149 Hermann Kollmar<br />

Abb. 11: Vorder- und Rückansicht des WC-Systems für ARQuake (University of South<br />

Australia) [ARQ]<br />

Damit sich der Spieler frei bewegen kann, muss zunächst ein Plan mit den sich auf dem Areal<br />

befindlichen Gebäuden erstellt und in den mobilen Rechner eingegeben werden. Monster, die<br />

sich aus der Sicht des Spielers hinter Gebäudeteilen befinden, sind für diesen dann nicht<br />

sichtbar.<br />

Abb. 12: Virtuelles Monster, mittels HMD in das reale Blickfeld des Spielers eingefügt [ARQ]<br />

Als Waffe dient ein umgebautes Spielzeuggewehr aus Plastik, welches zur Simulation des<br />

Rückstoßes beim Abfeuern der Waffe oder bei einem Treffer des Spielers durch ein feindliches<br />

Monster haptisches Feedback liefert. Dies wird durch eine eingebaute Magnetspule erreicht,<br />

die in den geschilderten Situationen dann ein größeres Gewicht anzieht.<br />

3 Ausblick<br />

Es ist zu erwarten, dass WC-Anwendungen in immer mehr Bereiche unseres Lebens eindringen<br />

werden. Dies ist nicht nur auf die Weiterentwicklung von Technologien wie die der AR<br />

oder Netzwerke betreffend zurückzuführen, sondern auch auf die teilweise dramatischen<br />

Fortschritte in der Mikroelektronik und der Mikrosystem- sowie Nanotechnologie. Die dadurch<br />

erzielten Reduktionen bei den Herstellungskosten und den räumlichen Dimensionen<br />

technischer Intelligenz sowie die Erschließung ganz neuer Möglichkeiten (z.B. integrierte<br />

Schaltkreise auf flexiblen Kunststoffträgern) ermöglichen in zunehmendem Maße auch die<br />

Fertigung von Smart Devices aller Art (z.B. in Form von Schmuck), die dem Benutzer gegenüber<br />

ihr HiTec-Innenleben ganz oder teilweise verbergen, typischerweise miteinander ver-


150 Wearable Computer und Augmented Reality Anwendungen<br />

netzt sind und ihre Umgebung mittels entsprechender Sensorik ständig überwachen. Künftige<br />

WC-Systeme werden auch zunehmend in die Kleidung integriert. Als ständig verfügbarer Begleiter<br />

sollen sie dem Verbraucher mehr Komfort bieten und die verschiedensten Dienstleistungen<br />

anbieten wie Kommunikation, Terminplanung oder Navigation. Bei den Smart<br />

Clothes ist die Kleidung Medium, Träger und Schnittstelle zugleich für die unterschiedlichsten<br />

Systemanwendungen. Smart Textiles hingegen sind hochentwickelte Gewebe, bei<br />

denen die technische Intelligenz bereits in die Faser integriert ist.<br />

Alle diese Faktoren führen nicht nur auf den Weg zum Ubiquitous Computing, also der überall<br />

verfügbaren Rechnerleistung, sondern auch zu veränderten Arbeitsabläufen im täglichen<br />

Leben und anderen Kommunikationsformen beim Umgang mit Computern im weitesten<br />

Sinne.<br />

Referenzen<br />

[Aff] MIT Media Lab:<br />

Prototype Sensing System,<br />

http://affect.media.mit.edu/AC_research/sensing.html<br />

[AHN99] Azuma R. T.; Hoff, B. R.; Neely H. E.; Sarfaty R.; Daily M. J.; Bishop G.; Vicci L.;<br />

Welch G.; Neumann U.; You S.; Nichols R.; Cannon J. (1999):<br />

Making Augmented Reality Work Outdoors Requires Hybrid Tracking,<br />

In: Augmented reality : placing artificial objects in real scenes : proceedings of IWAR<br />

’98 (1999), Behringer R.; Klinker G.; Mizell D. (eds.), A K Peters, Ltd., Natick, MA,<br />

USA<br />

[ARQ] Projekt ARQuake:<br />

http://www.tinmith.net/arquake.htm<br />

[Bab01] Baber C. (2001):<br />

Wearable Computers: A Human Factors Review,<br />

International Journal of Human-Computer Interaction, Vol. 13(2), 123-146<br />

[BBS01] Barfield W.; Baird K.; Shewchuk J.; Ioannou G. (2001):<br />

Applications of Wearable Computers and Augmented Reality to Manufacturing,<br />

In: Fundamentals of Wearable Computers and Augmented Reality (2001), Lawrence<br />

Erlbaum Associates, Inc. Publishers, 695-713<br />

[Ber03] Berlinghof H. (2003):<br />

„Künstliche Bauchspeicheldrüse“ als Fernziel,<br />

Rhein-Neckar-Zeitung Heidelberg, Nr. 111 vom 15.05.03, 12<br />

[Blü02] Blümchen K. (2002):<br />

Augmented Reality,<br />

http://wwwiaim.ira.uka.de/Teaching/ProseminarMedizin/Ausarbeitungen/<br />

WS0102/07_Augmented_Reality.pdf<br />

[CMG99] Curtis D.; Mizell D.; Gruenbaum P.; Janin A. (1999):<br />

Several Devils in the Details: Making an AR Application Work in the Airplane<br />

Factory,<br />

In: Augmented reality : placing artificial objects in real scenes : proceedings of IWAR<br />

’98 (1999), Behringer R.; Klinker G.; Mizell D. (eds.), A K Peters, Ltd., Natick, MA,<br />

USA<br />

[EML]<br />

European Media Laboratory Heidelberg:<br />

Den Garten des „Winterkönigs“ digital aufgebaut,<br />

http://www.eml.org/deutsch/News/Topnews/hortus_palatinus.html


151 Hermann Kollmar<br />

[FMW] 10meters.com News Service:<br />

Trend Report: The Fabric of Modern Warfare,<br />

http://www.10meters.com/wearable_military.html<br />

[Gei] Projekt GEIST:<br />

http://www.tourgeist.de<br />

[Gre01] Grether K. (2001):<br />

Konzeption und Entwurf eines technischen Systems zur entwurfsbezogenenplanerischen<br />

Bearbeitung von Bauwerken im Bestand,<br />

http://www.uni-weimar.de/~grether/diplom/Diplom.html<br />

[KSR01] Klinker G.; Stricker D.; Reiners D. (2001):<br />

Augmented Reality for Exterior Construction Applications,<br />

In: Fundamentals of Wearable Computers and Augmented Reality (2001), Lawrence<br />

Erlbaum Associates, Inc. Publishers, 379-428<br />

[LuI] Fa. Essilor / MicroOptical Corp.:<br />

Lunettes informatives,<br />

http://www.snof.org/vue/luninformativ.html<br />

[LW] U.S. Infanterie-Waffensystem Land Warrior:<br />

http://www.fas.org/man/dod-101/sys/land/land-warrior.htm<br />

[MA] ITworld.com:<br />

US military begins testing wearable computers,<br />

http://<strong>wireless</strong>.itworld.com/4276/IWD010420hnxybernaut/page_1.html<br />

[Mat02] Mathes J. (2002):<br />

Augmented Reality: 6. Anwendungen,<br />

http://wwwbruegge.in.tum.de/teaching/ws01/AR-Proseminar/presentations/7-<br />

ProsAR1-Mathes.pdf<br />

[RSK99] Reiners D.; Stricker D.; Klinker G.; Müller S. (1999):<br />

Augmented Reality for Construction Tasks: Doorlock Assembly,<br />

In: Augmented reality : placing artificial objects in real scenes : proceedings of IWAR<br />

’98 (1999), Behringer R.; Klinker G.; Mizell D. (eds.), A K Peters, Ltd., Natick, MA,<br />

USA<br />

[SJ01] Satava R. M.; Jones S. B. (2001):<br />

Medical Applications for Wearable Computing,<br />

In: Fundamentals of Wearable Computers and Augmented Reality (2001), Lawrence<br />

Erlbaum Associates, Inc. Publishers, 649-662<br />

[Sym] Wearable Scan System WSS:<br />

http://www.symbol.com<br />

[Tin] Projekt TINMITH:<br />

http://www.tinmith.net/wearable.htm<br />

[TPG99] Thomas B.; Piekarski W.; Gunther B. (1999):<br />

Using Augmented Reality to Visualise Architecture Designs in an Outdoor<br />

Environment,<br />

http://www.arch.usyd.edu.au/kcdc/journal/vol2/dcnet/sub8/<br />

[TRL01] Tappert C. C.; Ruocco A. S.; Langdorf K. A.; Mabry F. J.; Heineman K. J.; Brick T.<br />

A.; Cross D. M.; Pellisier S. V.; Kaste R. C. (2001):<br />

Military Applications of Wearable Computers and Augmented Reality,<br />

In: Fundamentals of Wearable Computers and Augmented Reality (2001), Lawrence<br />

Erlbaum Associates, Inc. Publishers, 625-648<br />

[Uch]<br />

System NOAH der Unfallchirurie Universitätsklinikum Regensburg:<br />

http://www.uni-regensburg.de/Fakultaeten/Medizin/Uch/noah/


152 Wearable Computer und Augmented Reality Anwendungen<br />

[VuM]<br />

[WL]<br />

Projekt VuMan:<br />

http://www-2.cs.cmu.edu/afs/cs.cmu.edu/project/vuman/www/general.html<br />

WristPC Keyboard (Fa. L3Systems):<br />

http://www.wearlab.de/DOCS/studie/all.phpelch=131&mask=5


Design-Aspekte von Wearable Computern<br />

Olaf Geschonke<br />

og@octopus.baltic.de<br />

Abstract: In diesem Dokument wird auf die soziale Akzeptanz und auf das ergonomische<br />

Design von Wearable Computern eingegangen. Ferner werden mögliche Realisierungen<br />

von wichtigen Komponenten besprochen.<br />

1 Begriffsbestimmung<br />

Ein Wearable Computer ist ein persönlicher Assistent der den Benutzer bei seiner jeweiligen<br />

Tätigkeit unterstützt, immer und überall aktiv, und in allen Situationen benutzbar ist.<br />

Er wird ständig am Körper getragen bzw. ist direkt in die Kleidung integriert.<br />

Laut dem FAQ des MIT soll ein „wearable computer“ die folgenden 5 Eigenschaften besitzen<br />

[1]:<br />

• portable while operational<br />

Der Wearable ist in jeder Lage einsetzbar, insbesondere auch dann, wenn sich der<br />

Anwender in Bewegung befindet<br />

• hands-free use<br />

Die Bedienung sollte möglichst freihändig erfolgen, damit der Anwender in seiner eigentlichen<br />

Tätigkeit nicht behindert wird.<br />

• Sensors<br />

Der Wearable sollte über Sensoren verfügen um seine Umwelt wahrnehmen und sich<br />

kontextsensitiv verhalten zu können.<br />

• attention-getting<br />

Ein Wearable ist in der Lage die Aufmerksamkeit seines Benutzers auf sich zu lenken,<br />

selbst wenn er gerade nicht aktiv genutzt wird.<br />

• allways on<br />

Der Wearable ist ständig in Betrieb und aktiv.<br />

Anders als herkömmliche Computer besitzt ein Wearable ein „gewisses Verständnis“ für<br />

seine Umgebung und „weiß“ was der Benutzer gerade tut. Befindet sich der Benutzer z.B. in<br />

einer Besprechung, so wird er nicht mit Nachrichten über eingegangene E-Mails gestört.<br />

Der Rechner kann Sinneswahrnehmung des Benutzers erweitern oder verstärken.<br />

Von „erweiterter Realität“ (Augmented Reality) spricht man, wenn das Gesichtsfeld des Nutzers<br />

um computergenerierte Objekte erweitert wird.


154 Design-Aspekte von Wearable Computern<br />

Ein Beispiel für eine solche Überlagerung des realen Bildes mit computergenerierten Objekten<br />

wird in Abbildung 1 gezeigt. Hier wird der Blick durch ein Head-up-Display auf eine<br />

Baustelle dargestellt, die mit Daten aus dem Bauplan überlagert wird.<br />

Abbildung 1: Überlagerung des realen Bildes mit computergenerierten Objekten [B1][B2][B3]<br />

Das folgende Beispiel (Abbildung 2) zeigt, wie der Benutzer einen Riss im Mauerwerk zunächst<br />

vergrößert darstellen lässt, und ihn anschließend vermisst.<br />

Abbildung 2: Vergrößerung von Ausschnitten des realen Bildes [B4][B5][B6]<br />

Für Wearables lassen sich vielfältige Anwendungen finden:<br />

Eine wäre z.B. in der Vermessung und Planung zu sehen. Ein mit Entfernungssensoren und<br />

Kamera ausgestatteter Wearable kann diese Aufgabe wesendlich vereinfachen (wie durch das<br />

obige Beispiel schon angedeutet wurde).<br />

Zur Wartung und Reparatur von komplexen Maschinen ist ein Zugriff auf die Dokumentation<br />

unerlässlich. Hier kann ein Wearable die notwendigen Informationen direkt in das Sichtfeld<br />

des Technikers einblenden und geeignete Reparaturmaßnahmen vorschlagen. Falls nötig<br />

könnte ein Experte via Videokonferenz hinzugezogen werden, dem dann übertragen werden<br />

kann, was der Techniker vor Ort sieht und misst.<br />

Es wäre auch denkbar Wearables bei Rettungsdiensten einzusetzen, die die aktuelle Position<br />

innerhalb des Gebäudes anzeigen, die körperliche Verfassung des Feuerwehrmanns, sowie<br />

den Sauerstoffvorrat überwachen und bei Gefahr warnen.<br />

Als abschließendes Beispiel ließe sich ein Wearable auch „zivil“, als persönlicher Assistent<br />

und Kommunikationsmittel, nutzen.


155 Olaf Geschonke<br />

2 Akzeptanz von Wearable Computern<br />

Für die sozialen Wechselwirkungen zwischen Personen ist der gegenseitige Eindruck von<br />

entscheidender Bedeutung. Technische Ausrüstung, die in Gegenwart Anderer benutzt wird,<br />

hat dabei oft einen negativen Einfluss auf die Wahrnehmung der Person. [2] [3]<br />

Dabei übertragen die Menschen oft den Einfluss, den sie vom Einsatz der Technik auf ihr<br />

Sozialleben erwarten, auf den Nutzer der jeweiligen Technik. [3]<br />

Der Umgang von Menschen untereinander beruht auf Konventionen, deren Bruch gesellschaftlich<br />

sanktioniert wird. Ein solcher Bruch kann in einem „extremen Outfit“ bestehen<br />

(z.B. Head-up-Display, Datenhandschuh und Kabel), oder darin scheinbar Selbstgespräche zu<br />

führen (bei nicht sichtbarer Technik).<br />

Mit dem e-SUIT [4] wurde auf Basis eines herkömmlichen PDAs ein Wearable mit dem Ziel<br />

geschaffen, die sozialen Interaktionen des Benutzers möglichst wenig zu stören. Der PDA<br />

wird unsichtbar unter dem Anzug getragen und kommuniziert dabei über im Anzug befindliche<br />

LEDs, kapazitive Schalter und einem Vibrations-Motor mit dem Benutzer.<br />

Dabei ist wichtig, dass der Benutzer, durch die Beschäftigung mit dem Gerät, den sozialen<br />

Kontakt nicht abbrechen muss.<br />

Die negativen sozialen Auswirkungen neuer Geräte können vermieden (bzw. vermindert)<br />

werden, wenn sie in vertrauter Form erscheinen. [3]<br />

Für die jeweiligen Benutzer ist es zunächst wichtig, dass das Gerät bequem und einfach zu<br />

benutzen ist und ihm einen tatsächlichen Nutzeffekt bringt. Dabei soll es die Bewegungsfreiheit<br />

nicht behindern, leicht, flexibel und robust sein und eine ausreichend lange Laufzeit besitzen.<br />

Ist der Wearable in die Kleidung integriert, so muss eine einfache Reinigung möglich<br />

sein.<br />

Da Wearables den ganzen Tag über getragen werden kann es Befürchtungen hinsichtlich gesundheitlicher<br />

Beeinträchtigung oder Überwachung geben, die abgebaut werden müssen.<br />

Das Bedürfnis nach Individualität kann auch dazu führen, dass der Benutzer seinen Wearable<br />

offen zeigen will, denn neuartige Technik hat Statuscharakter. Andere Individuen werden<br />

wiederum soziale Nachteile befürchten und dies daher vermeiden wollen.<br />

Das Design des Wearables muss dabei immer zum persönlichen Stil des Benutzers passen. [2]<br />

Bevor Menschen Computer als tägliche Kleidung akzeptieren, müssen diese ihr störendes<br />

Äußeres verlieren und sich auch anfühlen und tragen lassen wie normale Kleidung. Durch<br />

Fortschritte in der Mikroelektronik ist dies möglich geworden. Kleidung, die in der Lage ist<br />

Informationen zu verarbeiten, zu speichern, zu empfangen und zu senden, wird als „computational<br />

clothing“ oder „smart clothing“ bezeichnet. Diese Fähigkeiten erlauben der Kleidung<br />

als „standalone“ Computer zu arbeiten, auf Sensoren zu reagieren und sich mit Netzwerken zu<br />

verbinden. Durch das Einbetten von Computern in die Kleidung haben die Menschen ständig<br />

Zugang zu Ressourcen, ohne die Unbequemlichkeit verschiedene Geräte mit sich herum tragen<br />

zu müssen. Computerisierte Kleidung wird die volle Funktionalität eines Computersystems<br />

haben und dabei „fast unauflöslich“ mit ihrem Träger verbunden sein. Dies unterscheidet<br />

sie von anderen „wearablen“ Geräten, wie z.B. Uhren, Radios, usw. Der Computer der<br />

Kleidung ist dabei ständig einsatzbereit und muss er nicht eingeschaltet, oder geöffnet werden<br />

wie gewöhnliche Handheld-Geräte, PDAs und Laptops. [5]


156 Design-Aspekte von Wearable Computern<br />

3 Integration<br />

Um digitale Technik in Kleidung zu integrieren gibt es mehrere Möglichkeiten. Kabel können<br />

direkt bei der Herstellung von Polymer-Fasern im Gewebe untergebracht werden. Leitende<br />

Schichten können im mehreren Layern angeordnet und mit Schaltkreisen verbunden werden.<br />

Beispielsweise lässt sich eine einfache Matrix-Tastatur auf Textilbasis aus zwei Layern mit<br />

leitendem Material und einer Nylon-Lage als Isolator aufbauen. Durch Löcher in der Nylon-<br />

Lage kann durch Druck eine Verbindung zwischen Leitern hergestellt und das Signal durch<br />

einen Controler ausgewertet werden.[6]<br />

Einige Komponeten der Wearables sind allerdings nicht einfach aus Gewebe herstellbar, wie<br />

zum Beispiel die Teile der Energieversorgung. Für eine köpergerechte Unterbringung müssen<br />

solche festen Teile hinsichtlich Form und Platzierung einigen Anforderungen genügen.<br />

Um die Bewegungsfreiheit nicht zu beeinträchtigen, müssen zunächst Bereiche auf dem<br />

menschlichen Körper gefunden werden, die einer geringe Bewegung bzw. Dehnung ausgesetzt<br />

sind. Diese Bereiche müssen eine hinreichend große Oberfläche besitzen und sollen ungefähr<br />

die gleiche Größe bei allen Erwachsenden aufweisen.[5]<br />

Abbildung 3: mögliche Bereiche für die Unterbringung von wearablen Objekten [5]<br />

Die Teile sollen einen komfortabeln und stabilen Sitz haben. Dazu ist es notwendig ihre Form<br />

dem menschlichen Körper anzugleichen.[5]<br />

Abbildung 4: Formgebung von wearablen Objekten - (a) konkave Form auf der Körperseite -<br />

(b) Konvexe Form der Oberfläche - (c) verjüngung der Form - (d) fertige Form mit<br />

abgerundeten Ecken [5]<br />

Flexible Bereiche zwischen Körper und den festen Teilen des Wearables tragen den verschiedenen<br />

Körperformen der Benutzer (abhängig von Muskel und Fettaufbau) Rechnung.


157 Olaf Geschonke<br />

Der menschliche Körper kann seine Form durch Bewegung stark verändern. Bewegungsfreiheit<br />

lässt sich durch aussparten der aktiveren Bereiche um die Gelenke, oder durch schaffen<br />

von Freiräume, in denen sich der Körper bewegen kann, erreichen. Der Rumpf ist z.B. ein<br />

guter Platz für einen Wearable. Dabei müssen die Arme aber volle Bewegungsfreiheit haben,<br />

um an den Seiten und vor dem Rumpf zu schwingen. Zusätzlich muss der Rumpf in der Lage<br />

sein, Drehungen und Biegungen auszuführen.[5]<br />

Das Gewicht des Wearables soll die Balance und Bewegungsfreiheit des Körpers nicht behindern.<br />

Der Körper speichert sein zusätzliches Gewicht, in Bauch, Taille und Hüftgegend. Der<br />

Hauptteil der Last sollte hier, nahe am Schwerpunkt untergebracht werden.<br />

Das Gewicht der Ausrüstung kann sich im Druck auf die Haut niederschlagen. Dabei gelten<br />

weniger als 60g/m 2 komfortabel, 60-100g/m 2 sind unkomfortabel und über 100g/m 2 werden<br />

nicht toleriert. [5]<br />

4 Energieversorgung<br />

Wegen der geforderten ständigen Verfügbarkeit, stellt die Batterielaufzeit ein großes Problem<br />

dar. Energieverschwendung wird hier mit einer hohen „Zuladung“ bestraft, denn es müssen<br />

entsprechend mehr (relativ schwere) Akkus mitgeschleppt werden. Lithiumionen-Akkus haben<br />

eine Energiedichte von 155 Wh/kg und (teure) Lithium-Polymer-Akkus kommen auf 170<br />

Wh/kg. Ein Vielfaches an Energieausbeute wird zukünftig von Brennstoffzellen erwartet, die<br />

allerdings einen geringeren Wirkungsgrad besitzen und den größten Teil ihrer Energie als<br />

Wärmeenergie abgeben [7].<br />

Eine zentralisierte Energieversorgung aller Komponenten ist aus verschiedenen Gründen<br />

ideal: Der Ladezustand der Komponenten kann bei einer zentralen Energieversorgung leichter<br />

überwacht werden. Weiterhin gibt es einige Ansätze zur Verlängerung der Laufzeit durch<br />

“mobile“ Energiegewinnung z.B. Solarzellen, Körperabwärme, oder Bewegungsenergie des<br />

Menschen. Piezoelektrische Elemente in Schuhsolen sollen z.B. ca. 5 W (abhängig von Gewicht<br />

und Schrittgeschwindigkeit) erzeugen können[8] (siehe Bild 5 ).<br />

Abbildung 5: piezoelektrische Stromerzeugung im Schuh [B7]<br />

Neben der Aufladbarkeit bietet eine zentrale Energieversorgung noch den Vorteil eines möglichen<br />

Energiemanagements. Nicht benötigte Komponenten können völlig abgeschaltet werden.


158 Design-Aspekte von Wearable Computern<br />

Diese Eigenschaften setzten natürlich eine Verbindung der Komponenten über Kabel voraus.<br />

Über Funk vernetzte Komponenten müssen zwingend über eigene Energiequellen verfügen<br />

und können naheliegenderweise auch nicht ganz abgeschaltet werden.<br />

Weitere Vorteile der Verbindung von Komponenten mit Kabeln gegenüber der Funkvernetzung<br />

bestehen z.B. in der i.A. höheren Bandbreite der Kabel und in der Abhörsicherheit der<br />

Verbindung. Der Vorteil einer Funkvernetzung liegt wiederum in einer höheren Bequemlichkeit<br />

im Umgang mit „extern“ untergebrachten Komponeten, wie z.B. einer Datenbrille. Diese<br />

müsste dann nicht mehr mit einem Kabel „befestigt“ werden.<br />

Hinsichtlich der angestrebten langen Laufzeit ist es entscheidend, dass die eingesetzten Komponenten<br />

eine geringe Leistungsaufnahme besitzen und keiner aktiven Kühlung bedürfen. Als<br />

besonders energiesparende CPU gilt z.B. der Crusoe Prozessor von Transmeta. Das aktuelle<br />

Spitzenmodell „TM5800“ kommt mit durchschnittlich 1 – 2W Leistung aus und kann seine<br />

Taktrate zwischen 667MHz und 1GHz anpassen [9].<br />

Speicherkarten sind aufgrund ihres geringen Energiebedarfs und weil sie über keinerlei beweglichen<br />

Teile verfügen, gut für mobile Computer geeignet. Verfügbar sind z.Z. Karten bis<br />

zu 1 GByte.<br />

Der Energiebedarf ist aber nicht das alleinig bestimmende Kriterium für die Komponentenauswahl.<br />

Bestimmend sind letztendlich die für den Einsatzzweck erforderliche Ausstattung,<br />

sowie Kostenargumente. Daher werden auch z.B. in derzeit erhältlichen Wearables häufig<br />

Festplatten eingesetzt (ViA II PC [10], Xybernaut Mobile Assistant (MA) V [11]).<br />

5 Ausgabemöglichkeiten<br />

Head-up-Displays (HUDs) bzw. Head-Mounted-Displays (HMDs) befinden sich ständig im<br />

Gesichtsfeld des Anwenders. Damit sind sie ideal für einen Wearable, denn der Anwender<br />

muss seine Tätigkeit nicht unterbrechen um auf das Display zu blicken. Das störende Aussehen<br />

dieser Displays ist mittlerweile überholt, diese Displays können inzwischen auch in Form<br />

von gewöhnlichen Brillen realisiert werden.<br />

Abbildung 6: Brillen-Displays [B8]


159 Olaf Geschonke<br />

Abbildung 7: Prinzip von halbdurchsichtigen Displays [B9][B10]<br />

Das Display ist dabei seitlich angebracht und das Bild wird über einen halbdurchsichtigen<br />

Spiegel ins Auge gelenkt. Dabei kann auch die Trägheit des Auges ausgenutzt werden, indem<br />

das Bild nur von einer LCD-Zeile oder einem Laser, über einen schnell beweglichen Spiegel<br />

aufgebaut wird. Derartige Displays habe meist eine feste Fokussierung, d.h. das computergenerierte<br />

Bild ist nur bei einer bestimmten Sehweite scharf.<br />

Häufig sind diese Displays nur monokular ausgeführt. Die Fähigkeit der räumlichen Wahrnehmung<br />

wird durch monokulare Displays stark beeinträchtigt (bzw. unmöglich). Gleichzeitig<br />

hat auch der Computer keine Möglichkeit, Dinge in den Raum zu projizieren.<br />

Abbildung 8: Sicht durch monokulares Display [B11]<br />

Displays können auch in tragbarer Form ausgeführt sein. Diese Displays haben den Nachteil,<br />

dass der Benutzer seine jeweilige Tätigkeit unterbrechen muss, um auf das Display zu<br />

blicken. Eine mögliche Bauform ist in Abbildung 7 dargestellt.<br />

Abbildung 9: Handgelenk-Display von Motorola [B12]


160 Design-Aspekte von Wearable Computern<br />

Polymere Displays (pLEDs / OLEDs) sind noch relativ neue Entwicklungen. Sie sind in flexibler<br />

Form herstellbar und könnten direkt in die Kleidung integriert werden. Möglich sind<br />

auch faltbare oder rollbare Formen. Problematisch ist die bisher recht geringe Haltbarkeit<br />

dieser Displays.<br />

Besonders energiesparend und für vorwiegend statische Anzeigen (Texte) geeignet sind das<br />

s.g. „elektronische Papier“ und die „elektronische Tinte“. Beide Konzepte haben gemeinsam,<br />

dass farbige Partikel durch anlegen eines elektr. Feldes ausgerichtet werden und diese Ausrichtung<br />

nach Abschalten des Feldes beibehalten. Bei der „elektronischen Tinte“ schwimmen,<br />

in kleinen, mit farbiger Flüssigkeit gefüllten Kapseln, kleine weiße elektrisch geladene Partikel.<br />

Diese wandern, je nach anliegender Spannung, nach oben und verdrängen dabei die Flüssigkeit,<br />

oder nach unten, wodurch ein Bildpunkt sichtbar wird. Beim „elektronischen Papier“<br />

hingegen werden geladene Kugeln ausgerichtet, die auf einer Seite schwarz und auf der Anderen<br />

weiß sind. Je nach Ausrichtung des Feldes erscheint der Bildpunkt schwarz oder weiß.<br />

Auch derartige Displays könnten in die Kleidung integriert werden (wenn das Problem der<br />

Haltbarkeit gelöst ist).<br />

6 Eingabemöglichkeiten<br />

Für Wearables gibt es verschiedene Eingabemöglichkeiten. Dazu gehören Spracherkennung,<br />

Augenverfolgung, Gestenerkennung und die Eingabe mit Hilfe von Tasten.<br />

Die Steuerung mittels Spracherkennung funktioniert nur bei einem kleinen Wortschatz hinreichend<br />

zuverlässig. Je weiter die Worte phonetisch auseinander liegen (d.h. je unähnlicher sie<br />

klingen) desto besser sind sie unterscheidbar. Die Wahrscheinlichkeit phonetisch ähnlicher<br />

Worte nimmt mit der Größe des Wortschatzes zu. In wechselnden Umgebungen, insbesondere<br />

wenn (laute) Umweltgeräusche hinzukommen, ist die Spracherkennung nicht immer gewährleistet.<br />

Eine weitere Steuerungsmöglichkeit besteht darin, die Blickrichtung des Benutzers auszuwerten.<br />

Dazu kann eine Kamera das Bild des Auges aufnehmen und an den Rechner übertragen.<br />

Die Blickrichtung ist durch Analyse dieses Bildes auf (bestenfalls) ein Grad genau bestimmbar<br />

[12]. Diese Information kann zur Selektion von Objekten und zur Menu-Auswahl<br />

genutzt werden. Die Bestätigung der Auswahl kann (falls nötig) durch „längeres“ Hinsehen<br />

(ca. 1 Sekunde) erfolgen, oder durch Tastendruck. Die Zeit zur Selektion liegt typischerweise<br />

im 100ms Bereich. Aufgrund der Ungenauigkeit müssen die Selektionsboxen hinreichend<br />

entfernt voneinander liegen.<br />

Auch eine Steuerung durch Erkennung von Gesten ist möglich. Dazu können zwei verschiedene<br />

Verfahren eingesetzt werden: optische Erkennung und physische Erkennung.<br />

Mit Hilfe einer Kamera, die im Gesichtsfeld des Benutzers angebracht ist, können Gesten der<br />

Hand durch Bilderkennung ausgewertet werden. Dabei kann die Kamera so angeordnet werden,<br />

wie der Bildgenerator bei den oben beschriebenen Brillendisplays. Der Nachteil der optischen<br />

Erkennung besteht darin, dass eine relativ hohe Rechenleistung zur Bildauswertung,<br />

sowie entsprechende Lichtverhältnisse erforderlich sind.<br />

Bei der physischen Erkennung wird die jeweilige Stellung der Hand durch spezielle Hardware<br />

(Datenhandschuh) festgestellt. Mit Hilfe von Optischen Leitern, die auf dem Handrücken und


161 Olaf Geschonke<br />

den Fingern angebracht sind, lässt sich der Krümmungsgrad der Finger bestimmen. Je nach<br />

Krümmung der Finger lässt die Glasfaser unterschiedlich viel Licht durch. Auf dem gleichen<br />

Prinzip basiert auch die elektrische Version, bei der spezielle Metallbänder benutzt werden,<br />

die je nach Krümmung ihren Widerstand verändern. Dieses Verfahren gilt aber als genauer als<br />

die Verwendung Optischer Leiter. Das Problem dieser beiden Verfahren besteht darin, dass<br />

sich nur eine Gesamtkrümmung messen lässt, die dann erst auf die einzelnen Fingergelenke<br />

umgerechnet werden muss. Genauer ist hierbei die Verwendung eines Exoskelettes, welches<br />

am Handschuh angebracht ist und jedes Fingergelenk und seine Krümmung einzeln erfasst.<br />

[13]<br />

Abbildung 11: Prinzip Datenhandschuh [B13]<br />

Eine weitere Eingabemöglichkeit ist die Steuerung mit s.g. Einhandkeyboards, die am Unterarm<br />

befestigt werden, oder mit anderen einhändig bedienbaren Steuergeräten.<br />

Abbildung 12: Eingabegeräte [B14][B15]<br />

Wie schon angesprochen ist es auch möglich sensitive Elemente (Tasten) direkt in die Kleidung<br />

zu integrieren [6]. Häufig möchte man die Anzahl der notwendigen Tasten reduzieren,<br />

was zur Entwicklung der s.g. Chord-Tastaturen geführt hat. Bei diesen wird nur ein Minimum<br />

von Tasten benötigt, die aber gleichzeitig, in zu erlernenden Mustern, betätigt werden.


162 Design-Aspekte von Wearable Computern<br />

Hier ein Beispiel für die Zeicheneingabe mit nur 5 Tasten:<br />

Abbildung 13: Zeicheneingabe mit Chord-Tastatur [B16]<br />

Keine der vorgestellten Eingabemöglichkeiten ist zur Eingabe von längeren Texten geeignet.<br />

7 User-interface<br />

Wearables werden häufig für den Zugriff auf Informationen genutzt während eine andere Tätigkeit<br />

ausgeführt wird. Der Wearable soll dabei eine nahtlose Integration von Informationsverarbeitungstools<br />

in die Arbeitsumgebung ermöglichen. Um dies zu erreichen muss das<br />

System seine Funktionalität in einer natürlichen und unkomplizierten Weise zur Verfügung<br />

stellen, um dem Benutzer zu ermöglichen, all seine Konzentration auf seine Tätigkeit zu<br />

richten, ohne Ablenkung durch das System selbst. Viele Konventionen herkömmlicher Interfaces<br />

müssen hinsichtlich ihrer Effektivität überdacht werden, und das Interface den Aufgaben<br />

angepasst werden.[14]<br />

Bei HUDs ist zu beachten, dass die Sicht des Nutzers nicht blockiert wird, wenn er sich in<br />

Bewegung befindet. Die Informationen sollten immer so angeordnet sein, dass die Sicht auf<br />

die Umwelt sichergestellt ist. Die gewöhnlichen GUI-Komponenten (Menues, Scrollbars,<br />

Buttons) sind meist zu klein um während der Bewegung getroffen werden zu können. Generell<br />

sollte es vermieden werden mit dem Cursor auf Objekte zeigen zu müssen. Die Komplexität<br />

des Interfaces sollte möglichst einfach gehalten sein, weil die Aufmerksamkeit des Anwenders<br />

auf seiner eigentlichen Aufgabe liegt und nicht bei der Bedienung des Computers.<br />

Daher sollte die Anzahl der wählbaren Items auf ca. 7 reduziert werden. Eine rotierende Auswahl<br />

erleichtert die Bedienung, dazu muss das Zeigegerät nur zwei Richtungen unterstützen.<br />

[15]<br />

Um den Anwender zu entlasten, soll sich ein Wearable kontextsensitiv verhalten und aus „eigenen<br />

Antrieb“ tätig werden können. Hier sind Fragen der K.I. betroffen. Ein „Agent“ der<br />

tatsächlich ein „Verständnis“ für die Tätigkeit seines Anwenders aufbringt, ist z.Z. technisch<br />

nicht realisierbar. Möglich ist hingegen die Realisierung von Teilaspekten, zum Beispiel<br />

„Orts-Sensivität “ mit Hilfe eines GPS-Empfängers. Wenn beispielsweise der Anwender die<br />

Kaufhalle betritt könnte ihm eine Einkaufsliste angezeigt werden.


163 Olaf Geschonke<br />

8 Design-Beispiel<br />

Bei der Wartung von Fahrzeugen weist die Umgebung extreme Bedingungen bzgl. Schmutz,<br />

Licht und Temperatur auf. Daher muss ein Wearable für Wartungszwecke sehr robust gebaut<br />

sein. Der Techniker muss die Bewegungsfreiheit besitzen um unter, am und im Fahrzeug arbeiten<br />

zu können. Dabei muss er die Hände die meiste Zeit über frei haben.[14]<br />

Der VuMan3[16][17][14] wurde speziell zur Inspektion und Wartung von Fahrzeugen entwickelt.<br />

Die Anforderungen bezgl. Mobilität und Freihändigkeit führten zu einem Design, dass<br />

die Eingabe von Texten nicht gut unterstützt. Das Gerät wird zum Abarbeiten von Umfangreichen<br />

Checklisten eingesetzt. Wie schon erwähnt muss das Interface des Gerätes einfach<br />

gehalten, und speziell auf den Anwendungsfall zugeschnitten sein, um die Aufmerksamkeit<br />

des Technikers nicht von seiner eigentlichen Aufgabe abzulenken. Über ein HUD-Display<br />

kann der Techniker den einzelnen Punkten der Liste einen Status zuweisen, den er aus einer<br />

Liste auswählt. Die Auswahl erfolgt über eine große Drehwählscheibe und 3 große Tasten,<br />

die auch mit Arbeitshandschuhen gut zu bedienen ist. Das Gerät ist kompakt gebaut<br />

(12,7x15,9x5,1cm / 794g) und wird am Gürtel getragen. Das HMD wird über Kabel angeschlossen.<br />

Abbildung 14: VuMan 3 [B17]


164 Design-Aspekte von Wearable Computern<br />

Quellen<br />

[1] S. Mann, Wearable Computing FAQ, Online: http://wearcam.org/wearcompfaq.html,<br />

Stand April 2003<br />

[2] Karvonen, Parkkinen: A Short Note on the Social Consequences of Wearables,<br />

Online: http://www.cs.hut.fi/~karvonen/scii2001_karvonen_parkkinen.pdf, Stand Juni<br />

2003<br />

[3] Dyer, Eisbach, Ark: At what cost pervasive, IBM Systems Journal, Vol 38 No4,<br />

Online: http://www.research.ibm.com/journal/sj/384/dryer.html, Stand Juni 2003<br />

[4] Toney, Mulley, Thomas, Wayne: Minimal Social Weight User Interactions for<br />

Wearable Computers in Business Suits,<br />

Online: www.tinmith.net/papers/toney-iswc-2002.pdf, Stand Juni 2003<br />

[5] Barfield, Mann, Baird, Gemperle, Kasabach, Stivoric, Bauer, Martin, Cho:<br />

Computational Clothing and Accessories<br />

[6] Post,Orth,Russo,Gershenfeld: Design and fabrication of textile based computing, IBM<br />

SYSTEMS JOURNAL, Vol 39,<br />

Online: www.research.ibm.com/journal/sj/393/part3/post.pdf, Stand April 2003<br />

[7] Jürgen Rink, Volltanken bitte – Brennstoffzellen für Notebooks, Handys und PDAs,<br />

c’t Ausgabe 10/03 , Seiten 94-101<br />

[8] Thad Starner:Human Powerd Wearable Computing, Online: http://wwwwhite.media.mit.edu/vismod/publications/techdir/TR-328.ps.Z,<br />

Stand April 2003<br />

[9] Webseite Transmeta, online:<br />

http://www.transmeta.com/technology/specifications/index.html, Stand April 2003<br />

[10] Webseite Via-PC, http://www.via-pc.com/product/VIAIIPC.HTM, Stand April 2003<br />

[11] Webseite Xybernaut, http://www.xybernaut.de/produkte/ger/d_ixma5.html, Stand<br />

April 2003<br />

[12] Robert Jacob: Eye Tracking in Advanced Interface Design,<br />

Online: http://www.cs.tufts.edu/~jacob/papers/barfield.html, Stand April 2003<br />

[13] entnommen Holger Börschinger: Virtuelle Kommunikation,<br />

Online: http://www2.inf.fh-rhein-sieg.de/mi/lv/vr/ws98/stud/virtkomm/vr.htm, Stand<br />

April 2003<br />

[14] Bass, Siewiorek, Bauer, Casciola, Kasabach, Martin, Siegel, Smailagic, Stivoric:<br />

Constructing Wearable Computer for Maintenance Applications<br />

[15] Schmidt, Gellersen, Beigl, Thate: Developing User Interfaces for Wearable Computers<br />

– Don´t Stop to Point and Click<br />

[16] Bass, Kasabach, Martin, Siewiorek, Smailagic, Stivoric: The Design of a Wearable<br />

Computer,<br />

Online: http://www.acm.org/sigchi/chi97/proceedings/paper/ljb1.htm, Stand April<br />

2003<br />

[17] Smailagic, Siewiorek, Martin, Stivoric: Very Rapid Prototyping of Wearable<br />

Computers: A Case Study of VuMan 3 Custom versus Off-the-Shelf Design<br />

Methodologies, Online: www.cs.cmu.edu/afs/cs.cmu.edu/project/<br />

vuman/www/publications/veryrapid.pdf, Stand April 2003


165 Olaf Geschonke<br />

Bildnachweis<br />

[B1]<br />

[B2]<br />

[B3]<br />

[B4]<br />

[B5]<br />

[B6]<br />

[B7]<br />

[B8]<br />

[B9]<br />

[B10]<br />

[B11]<br />

[B12]<br />

[B13]<br />

[B14]<br />

[B15]<br />

entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_053.htm,<br />

Stand April 2003<br />

entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_054.htm,<br />

Stand April 2003<br />

entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_055.htm,<br />

Stand April 2003<br />

entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_058.htm,<br />

Stand April 2003<br />

entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_060.htm,<br />

Stand April 2003<br />

entnommen Diplomarbeit Klaus Grether, Online: http://www.uniweimar.de/~grether/diplom/vortrag/html/vor_062.htm,<br />

Stand April 2003<br />

entnommen Alexander Gnodtke: Stromversorgung ubiquitärer Systeme, online:<br />

http://snake.cs.tu-berlin.de:8081/~tom/ubiq-2002/documents/Gnodtke-praes.pdf, (z.Z.<br />

nicht verfügbar)<br />

entnommen Vortrag Krömker, Dörner: Virtual Reality und Augmented Reality, Seite<br />

23, Online:<br />

http://www.agc.fhg.de/uniGoethe/lehre/ss02/unterlagen/vrmr_03_virtual_reality_prinz<br />

ipien.pdf, Stand April 2003<br />

entnommen Vortrag Krömker, Dörner: Virtual Reality und Augmented Reality, Seite<br />

23, Online:<br />

http://www.agc.fhg.de/uniGoethe/lehre/ss02/unterlagen/vrmr_03_virtual_reality_prinz<br />

ipien.pdf, Stand April 2003<br />

entnommen Vortrag Krömker, Dörner: Virtual Reality und Augmented Reality, Seite<br />

24, Online:<br />

http://www.agc.fhg.de/uniGoethe/lehre/ss02/unterlagen/vrmr_03_virtual_reality_prinz<br />

ipien.pdf, Stand April 2003<br />

entnommen Webseite MIT: Building a head mount for the Private Eye, Online:<br />

http://www.media.mit.edu/wearables/lizzy/lizzy/pe.html, Stand April 2003<br />

entnommen Website Phone scoop: Frog Design / Motorola Offspring Wearables<br />

Concept, online: http://www.phonescoop.com/articles/moto_wearables/, Stand April<br />

2003<br />

entnommen Vortrag Krömker, Dörner: Virtual Reality und Augmented Reality, Seite<br />

35, Online:<br />

http://www.agc.fhg.de/uniGoethe/lehre/ss02/unterlagen/vrmr_03_virtual_reality_prinz<br />

ipien.pdf, Stand April 2003<br />

entnommen Webseite S. Lobers: Wearable Computing in der Arbeitswelt<br />

insbesondere im Bauwesen, online: http://www.uniweimar.de/~lobers/Wearable/Wearable_Computing.html,<br />

Stand April 2003<br />

entnommen Webseite Handykey Corporation, online:<br />

http://www.handykey.com/site/twiddler2.html, Stand April 2003


166 Design-Aspekte von Wearable Computern<br />

[B16]<br />

[B17]<br />

entnommen Webseite Keytools, online:<br />

http://www.keytools.com/images/extra/cykey.htm, Stand April 2003<br />

entnommen Webseite, http://www.ices.cmu.edu/design/VuMan.html, Stand April<br />

2003


Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />

Johann Gröbmair<br />

Pitzarweg 22<br />

83624 Otterfing<br />

jonny.groebmair@tiscalinet.de<br />

Zusammenfassung: In Augmented Reality (AR) Systemen werden reale Objekte in<br />

virtuelle Umgebungen eingebettet. Dazu müssen Position, Richtung und oftmals auch<br />

Geschwindigkeit und Beschleunigung der Objekte bekannt sein. Diese Ausarbeitung<br />

befasst sich mit den Methoden zur Messung dieser Grössen. Physikalisch lässt sich das<br />

Problem nach [Rol] in die Bereiche Zeit- Frequenzmessung, räumliche Abtastung,<br />

Massenträgheitsverfahren, mechanische Verbindungen und Feldstärkebestimmung,<br />

einteilen. Auch Ansätze verschiedene Verfahren zu kombinieren finden in dem Abschnitt<br />

Hybrid-Systeme Berücksichtigung. Mithilfe dieser Messverfahren, lassen sich Richtung,<br />

Beschleunigung oder die Geschwindigkeit, meist indirekt bestimmen. Oftmals ist auch<br />

eine teilweise sehr aufwändige Verarbeitung der Messdaten notwendig, die von<br />

leistungsstarken Rechenanlagen bewerkstelligt wird, um die Abtastraten hoch halten zu<br />

können. Neben der Vorstellung der physikalischen Grundlagen, soll exemplarisch an<br />

ausgewählten Beispielen aufgezeigt werden, was davon technisch realisiert ist.<br />

1 Zeit-und Frequenzmessung<br />

1.1 Time-of-Flight Systeme<br />

Will man neben der Position auch die Orientierung messen so benötigt man Systeme mit<br />

sechs Freiheitsgraden (6 DOF). Für die Position sind lediglich drei notwendig, diese<br />

Messungen beziehen sich jedoch nur auf einen ausgezeichneten Punkt des Zielobjektes. Legt<br />

man jedoch auf dem Zielobjekt drei Punkte fest, die natürlich nicht auf einer Geraden liegen<br />

dürfen, so lässt sich durch die Positionsbestimmung dieser definierten Punkte auch die<br />

Orientierung errechnen. Dies ist nichts anderes als eine Kombination von Positionsmessungen<br />

mit anschliessender Auswertung.<br />

Eine erste Möglichkeit die Orientierung von Objekten zu messen, beruht auf der Ermittlung<br />

der Ausbreitungszeit von Ultraschallwellen. Dazu notwendig ist, neben drei Schallemittoren<br />

auf dem zu messenden Objekt, eine Referenzanordnung mit drei Ultraschallempfängern. Die<br />

geometrische Anordnung der Emitter/ Empfänger zueinander muss dabei bekannt sein. Die<br />

Emitter senden nun zu genau festgelegten Zeitpunkten (üblicherweise durch Triggerung)<br />

nacheinander ein Schallsignal, das von den drei Empfängern detektiert wird und so indirekt<br />

durch die Messung der Ausbreitungszeit die Entfernung errechnet werden kann, da die<br />

Ausbreitungsgeschwindigkeit der Schallwellen bekannt ist. So lässt sich über die bekannte<br />

Ortslage der Empfänger auf dem Referenzkörper die genaue Position der Ultrawellensender<br />

auf dem zu bestimmenden Zielobjekt ermitteln. Da nun die goemetrische Anordnung der drei<br />

Sender zueinander ebenfalls bekannt ist, lässt sich daraus die genaue Orientierung dieses<br />

Objektes errechnen. Für die Triggerung existieren zwei Ansätze. Eine Möglichkeit ist das<br />

ganze System zu verkabeln und elektronisch die Sender/Empfänger anzuregen. Will man<br />

ohne Kabel auskommen, so kann man sowohl Referenz als auch Ziel mit Photodioden ausstatten,<br />

die über Leucht- oder auch Laserdioden zum Auslösen der Messung veranlasst<br />

werden.


168 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />

Bild 1: Geometrische Anordnung von Ultraschall-Sendern, -Empfänger<br />

Bild 1 zeigt diese Anordnung und lässt erkennen dass die Orientierung durch Triangulation<br />

berechnet werden kann. Der Algorithmus ist leicht zu implementieren. Das Verfahren erreicht<br />

eine Genauigkeit von etwa 0,1 Grad. Die Reichweite ist auf ca. 4m begrenzt, zudem muss<br />

sich das Zielobjekt in einem Winkelbereich von etwa 45° in Bezug zur Referenz befinden.<br />

Nachteilig an dem System ist die Abhängigkeit der Schallgeschwindigkeit von Temperatur,<br />

Luftdruck und –feuchtigkeit. Auch ist die Sample-Rate durch die relativ niedrige Ausbreitungsgeschwindigkeit<br />

der Schallwellen gering. Zudem müssen Maßnahmen getroffen werden<br />

dass die Messungen nicht durch Umgebungsgeräusche gestört werden. Die Einsatzgebiete<br />

dagegen sind vielfältig. Im Militärbereich werden immense Anstrengungen unternommen um<br />

über die Position des Pilotenhelmes die Bordwaffen von Kampfflugzeugen und –Hubschraubern<br />

in die Ziele zu lenken. Jedoch auch bei der Anwendung von Datenhandschuhen<br />

und –Anzügen wird diese Technologie angewandt. Hierbei ist der Aufwand der Software-<br />

Implementierung jedoch, infolge des Zusammenwirken von vielen Sensoren, erheblich.<br />

Die Firma Logitech bietet, wie in [Log] beschrieben, ein solches Tracking-System zu einem<br />

Preis von 1200 USD an.<br />

Bild 2: Tracking-System von Logitech<br />

Es handelt sich um ein 6 DOF-System, bestimmt also sowohl die Position als auch die Orientierung.<br />

Als Objekt ist der menschliche Kopf gedacht, die Sensoren sind in einem HMD<br />

(Head mounted Display) angebracht. Die Abtastrate ist mit 50 Messungen/s angegeben, der<br />

Messbereich mit 5 Fuss und das System funktioniert in einem Winkelkegel von 100°.<br />

Eine andere Messmethode arbeitet mit der nahezu gleichen Anordnung, misst aber nicht die<br />

Ausbreitungszeit der Wellen, sondern deren Phasenverschiebung. Im Gegensatz zur vorangegangenen<br />

Methode werden hier nicht Einzelimpulse gesendet, sondern jeder Sender strahlt ein<br />

Dauersignal ab, jedoch mit unterschiedlicher Frequenz. Hierbei können natürlich nur Relativbewegungen<br />

detektiert werden, die absolute Position und Orientierung muss vorab bekannt


169 Johann Gröbmair<br />

sein. Das Verfahren ist wesentlich unempfindlicher gegen die Parameter der Luftkonsistenz<br />

und erlaubt höhere Update-Raten. Dadurch erhöht sich die Messgenauigkeit etwa um Faktor<br />

5. Die maximale Bewegung eines jeden Sensors zwischen zwei Messungen darf jedoch die<br />

Wellenlänge der Ultraschallsignale nicht überschreiten, da sonst die Messungen nicht mehr<br />

eindeutig wären. Bei Ultraschall beträgt die Wellenlänge typischerweise etwa 8 mm.<br />

1.2 Optisches Gyroskop<br />

Mit einem optischen Gyroskop lässt sich die Winkelgeschwindigkeit eines Gegenstandes ermitteln.<br />

Zu unterscheiden ist dabei zwischen dem FOG (Fiber Optik Gyroskop) und dem RLG<br />

(Ring Laser Gyroskop). Die Funktionsweise des FOG wird anhand von Bild 3 erläutert.<br />

Bild 3: Fiber Optik Gyroskop<br />

Ein Laserstrahl wird zunächst, wie in [Mey] erläutert, von dem ersten halbdurchlässigen<br />

Spiegel gesplittet. Die beiden aufgeteilten Lichtwellen wandern in entgegengesetzter<br />

Richtung durch die Anordnung, die noch aus drei weiteren, völlig reflektierenden Spiegeln<br />

besteht. Am Ausgang wird die Inteferenz der beiden Lichtwellen betrachtet. Ist das Gyroskop<br />

nicht in Bewegung so beträgt die Phasendifferez der beiden Wellen genau pi, sie löschen sich<br />

also gegenseitig aus. Wird nun das Gyroskop im Uhrzeigersinn gedreht, so legt die Welle<br />

gegen den Uhrzeigersinn einen kürzeren Weg zurück als die andere. Dies kann am Ausgang<br />

durch Inteferenzringe sichtbar gemacht werden. Durch die Anzahl der Ringe lässt sich somit<br />

auf die Winkelgeschwindigkeit und einmal integriert auf die Orientierung schliessen. Werden<br />

nun drei Gyroskope orthogonal angeordnet, so ist die komplette Orientierung eines Objektes<br />

im Raum bestimmbar.<br />

Beim RLG werden die Lichtwellen durch ein stimulierendes Medium geschickt. Beim Drehen<br />

des Gyroskops wird die Frequenz der einen Welle leicht erniedrigt, die der anderen geringfügig<br />

erhöht. Bei der Überlagerung der beiden Laserstrahlen entsteht eine Welle mit der<br />

Differenzfrequenz, die proportional zur Winkelgeschwindigkeit ist.<br />

Gyroskope haben eine hohe Sample-Rate und sind weitgehend unempfindlich bezüglich äusserer<br />

Einflüsse. Auch die Winkelgenauigkeit von 0,1° zeichnet dieses Messverfahren aus.<br />

Gyroskope werden meist zusammen mit anderen Messverfahren angeboten. Ein praktisches<br />

Beispiel folgt mit dem Motion Pack in einem späteren Kapitel (Hybrid-Verfahren).<br />

1.3 Doppler-Verfahren<br />

Ein vor allem in der Radartechnik eingesetztes Verfahren zur Bestimmung der Geschwindigkeit<br />

von Luftfahrzeugen oder Raketen nutzt den Doppler-Effekt aus. Wird eine Schall- oder<br />

elektromagnetische Welle von einem sich auf die Quelle zu- oder wegbewegenden Ziel reflektiert,<br />

so ist die Frequenz der zurückgeworfenen Welle höher bzw. niedriger. Die Frequenzerhöhung,<br />

-erniedrigung ist direkt proportional zur Geschwingigkeit des erfassten Zielob-


170 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />

jektes. Unter anderem, wird diese Technik auch bei Geschwindigkeitskontrollen im<br />

Strassenverkehr eingesetzt.<br />

2 Räumliche Abtastung<br />

Die räumliche Abtastung lässt sich grundsätzlich in die beiden Bereiche Outside-In und<br />

Inside-Out unterscheiden. Der wesentliche Unterschied dieser beiden Prinzipien ist die Lokalisation<br />

der Sensoren. Bei ersterem befinden sie sich auf der Referenz, bei letzterem auf dem<br />

zu messenden Objekt.<br />

2.1 Outside-In<br />

Die Outside-In Methode benutzt in der Regel eine oder auch mehrere CCD Video-Kameras.<br />

Mithilfe dieser wird die Umgebung auf 2D Bilder abgebildet und anschließend mittels<br />

spezieller Algorithmen ausgewertet. Beim Multiskop-Verfahren muss die Lage der Kameras<br />

zueinander bekannt sein um mittels Triangulation die Lage und Orientierung des zu<br />

bestimmenden Objekts errechnen zu können. Um sowohl die Position als auch die Ausrichtung<br />

des Objektes zu bestimmen werden mindestens drei Kameras benötigt. Zu vergleichen<br />

ist diese Methode mit dem menschlichem Sehsystem, bei dem zwei Augen für eine räumliche<br />

Wahrnehmung sorgen. Ein praktisches Beispiel für dieses Verfahren ist der OPTOTRAK<br />

3020 von der Firma Northern Digital.<br />

Bild 4: OPTOTRAK 3020<br />

Ein anderes Verfahren wird als pattern recognition nach [Gen] bezeichnet. Hier wird mit nur<br />

einer Kamera gearbeitet, jedoch muss die geometrische Struktur des Messobjekts bekannt<br />

sein. Folgende Abbildung soll das Prinzip illustrieren.<br />

Bild 5: Pattern recognition<br />

Als Beispielobjekt soll ein Würfel mit bekannter Seitenlänge dienen. Betrachtet man die<br />

sicht-baren Flächen und berücksichtigt die Größenverhältnisse zueinander, so lässt sich die<br />

Orien-tierung der geometrischen Figur errechnen. Berücksichtigt man darüber hinaus noch


171 Johann Gröbmair<br />

die abso-lute Größe der Kameraaufnahme, kann die Entfernung und zusammen mit der<br />

Position auf der 2D-Aufnahme, die genaue Position im Raum bestimmt werden. Dieses<br />

Beispiel zeigt den wohl einfachsten aller Fälle. Tatsächlich existieren Algorithmen, die mit<br />

diesem Prinzip die Ausrichtung eines menschlichen Körpern mit all seinen Gliedmassen in<br />

akzeptabler Weise zu detektieren vermögen. Die sehr komplizierte dazu notwendige<br />

Algorithmik wird teilweise von speziell dafür entwickelten Hardwarekomponenten<br />

unterstützt, um die Berechnungszeiten deutlich reduzieren zu können. Auch mit neuronalen<br />

Netzen wird an diesen sehr aufwändigen Applikationen entwickelt.<br />

Eine interessante Variation dieses Verfahrens bedient sich eines nützlichen Hilfsmittels. Dazu<br />

wird ein optisches Gitter auf das zu bestimmende Objekt projiziert. Diese Projektion kann auf<br />

zwei verschiedene Arten erfolgen. Eine erste Möglichkeit ist die Erzeugung eines optischen<br />

Gitters durch Interferenz von mindestens zwei Laserstrahlen. Das hierdurch erzeugte Gitter ist<br />

sehr regelmässig und die Auflösung kann bis zur halben Wellenlänge des Laserlichtes<br />

reichen. Nachteilig wirkt sich jedoch der kleine Scan-Bereich dieser Methode aus. Der<br />

Abtastbereich lässt sich, allerdings durch Verschlechterung der Auflösung, dadurch<br />

vergrössern, wenn anstatt des Laserlichtes herkömmliches Licht an einem Gitter gebeugt<br />

wird. Die optische Struktur entsteht durch die Inteferenzringe, die natürlich hier auch nicht<br />

mehr die Regelmässigkeit der Lasermethode aufweisen. Beiden Verfahren gemeinsam ist<br />

jedoch, dass durch diese Rasterung die Abtastung durch die Videokameras ganz wesentlich<br />

unterstützt wird, da das Zielobjekt elegant in viele unterscheidbare Teilbereiche eingeteilt<br />

wird.<br />

2.2 Inside-Out<br />

Bei diesem Ansatz befinden sich die Sensoren, wie bereits o.a. auf dem zu messenden Zielobjekt.<br />

Auch dieser Bereich lässt sich grundsätzlich wieder in zwei Teilgebiete unterteilen,<br />

nämlich der videometrische Ansatz und die Methode bei der die Winkel eines sweeping beam<br />

gemessen werden. Ein Vorteil dieser Methoden ist die um ein Vielfaches höhere Genauigkeit,<br />

die durch folgenden Sachverhalt bedingt ist: Eine sich bewegende Kamera verursacht, selbst<br />

bei kleinen Winkelauslenkungen, eine viel grössere Veränderung in den aufgenommenen Bildern<br />

als ein relativ weit entferntes Zielobjekt bei einer Positions-oder Richtungsänderung.<br />

Bei der Videometrik-Methode sind die Sensoren i. d. R. Videokameras, die auf dem Zielobjekt,<br />

z.B. auf dem Helm den eine Person trägt, starr justiert sind. Es existieren jedoch auch<br />

Ansätze, die mit Photodioden und einem raffiniert ausgelegten Linsensystem bestückt sind.<br />

Als Referenz dient die Umgebung, die dem System bekannt sein muss. Idealerweise ist diese<br />

mit einem sich wiederholendem Muster, wie z.B. Fliesen ausgestattet. Die Ausstattung der<br />

Umgebung mit in regelmässigem Muster angebrachten blinkenden LED’s ist auch eine<br />

Möglichkeit, dem System die Postions-und Orientierungsmessung zu ermöglichen, die bei der<br />

Vermessung mittels Photodioden eingesetzt wird. Jede Kamera nimmt nun zu jedem<br />

Zeitpunkt ein Bild auf, das je nach Position und Ausrichtung einen bestimmten Bereich der<br />

Umgebung beinhaltet.


172 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />

Bild 6: Abtastung anhand eines Musters<br />

Bild 5 veranschaulicht die Wirkungsweise dieser Methodik. Ganz erheblich ist hier wieder<br />

der zu betreibende Aufwand, die aufgenommenen Bilder auszuwerten und daraus die Position<br />

und Orientierung zu gewinnen. Werden anstelle der Kameras Photodioden verwendet, so<br />

müssen in der Umgebung regelmäßig blinkende Leucht- oder Laserdioden angebracht sein.<br />

Mithilfe intelligenter Spiegelanordnungen lassen sich sehr genau auflösende 6D Tracker<br />

realsieren. HiBall von 3rdTech, wie es in [HiB] beschrieben ist, stellt ein Beispiel dafür dar.<br />

Der Sensor ist mit jeweils 6 Photodioden und Linsen ausgestattet. Durch die Vielzahl, der an<br />

der Decke mittels der LED-Leisten angebrachten Leuchtdioden, lässt das System<br />

Messgenauigkeiten bis zu 0,2 mm bzw. 0,01° für die Orientierung zu. Die Abtastrate ist dabei<br />

mit 2000 Hz sehr hoch. Das grosse Problem ist natürlich die aufwendige, und teure<br />

Auskleidung der Umgebung mit den LED-Leisten. Auf der anderen Seite kann der<br />

Messbereich auf bis zu 150 qm ausgedehnt werden.<br />

Bild 7: HiBall von 3rdTech a: Sensor<br />

b: LED-Leisten<br />

Ein anderes Verfahren wird als beam sweeping bezeichnet. Die Referenz ist ein Körper auf<br />

dem Lichtstrahlen (meist Laserlicht) mit konstanter Winkelgeschwindigkeit rotiert werden.<br />

Auf dem Zielobjekt befinden sich meist mehrere Empfänger (z.B. Photodioden) um das Licht,<br />

wenn es sich darüberbewegt, zu erfassen. Dabei werden die genauen Zeitpunkte gemessen, an<br />

denen die Lichtstrahlen die Empfänger passieren. Da das Rotationsverhalten des oder auch<br />

der Referenzkörper bekannt ist, lassen sich aus den Zeitpunkten die exakten Winkel ermitteln,<br />

die die Lichtquellen gerade überstreichen. Mit entsprechend komplexen Anordnungen (6 Freiheitsgrade)<br />

lassen sich auch hier Position und Orientierung durch Triangulation mittels der indirekt<br />

gemessenen Winkel bestimmen.<br />

Eine andere Möglichkeit besteht darin, nicht Laserlicht sondern eine Kamera rotieren zu<br />

lassen, und die nacheinander aufgenommenen Bilder auszuwerten. Dadurch entfallen die<br />

Empfänger auf der Referenz. Hier ist natürlich der sehr hohe (Software-) Aufwand zu berücksichtigen,<br />

der mit der Bilderauswertung einhergeht.


173 Johann Gröbmair<br />

3 Massenträgheit<br />

Bei diesen Verfahren wird die Eigenschaft der Masse oder eines Moments sich einer<br />

Bewegung verursachenden Kraft zu widersetzen, ausgenutzt. In diesem Zusammenhang wird<br />

dies auf zwei unterschiedliche Arten praktiziert. Zum einem misst ein mechanisches<br />

Gyroskop die Abweichung der Orientierung. Auf eine andere Art kann direkt eine lineare<br />

Beschleunigung gemessen werden.<br />

3.1 Mechanisches Gyroskop<br />

Diese Anordnung ist wohl besser unter dem Namen Kreiselkompass bekannt, wie er vor allem<br />

in Schiffen und Flugzeugen Verwendung findet. Der Kern des Gyroskops ist eine sich sehr<br />

schnell (20000 U/min) um eine feste Achse drehende Scheibe, die dadurch ein sehr starkes<br />

Drehmoment erzeugt. Ändert nun das Objekt, auf dem das Gyroskop fest montiert ist, seine<br />

Orientierung aus dieser Achse heraus, so versucht das Drehmoment seine ursprüngliche Lage<br />

wieder herzustellen. Dies äußert sich als eine Kraft, die mittels Encoder gemessen werden<br />

kann. Es sind jedoch mindesten zwei Gyros notwendig (üblicherweise benutzt man drei) um<br />

eine räumliche Orientierung vermessen zu können. Die Bestimmung einer Orientierungänderung<br />

um die Rotationsachse selbst ist ja nicht möglich, da das Drehmoment dadurch nicht<br />

beeinflusst wird. Ein großer Vorteil dieses Prinzips ist, dass es keine äußere Referenz<br />

benötigt. So kann z.B. eine 3D-Maus konstruiert werden, die keine Auflagefläche benötigt.<br />

Die Fa. Gyration stellt in ihrer Gyropoint Produktfamilie derartiges her.<br />

3.2 Beschleunigungsmessung<br />

Die Messung der Beschleunigung mittels des Trägheitsprinzips beruht auf dem 2. Gesetz von<br />

Isaac Newton, F = m * a. Dabei wird die Kraft gemessen, die auf eine bekannte Masse wirkt.<br />

So kann direkt die Beschleunigung errechnet werden. Zur Bestimmung dieses Kraft eignen<br />

sich die beiden in folgender Abbildung dargestellten Methoden.<br />

Kondensatorplatten<br />

Piezokristall<br />

Dielektrikum<br />

Massekörper<br />

Bild 8a: Kapazitätsmessung<br />

8b: mit Piezokristallen<br />

Bei der in Bild 7a gezeigten Abbildung ist an der bekannten Masse ein Dielekrikumstreifen<br />

angefügt. Wird nun der Körper, an dem die Anordnung befestigt ist, beschleunigt so wird die


174 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />

Masse mit dem Dielektrikum in Richtung der Beschleunigung verschoben. Durch die Federn<br />

an beiden Enden entspricht die Auslenkung exakt der Größe der diese Verschiebung verursachenden<br />

Beschleunigung. Die Lageveränderung des Dielektrikumstreifens zwischen den Kondensatorplatten<br />

verursacht eine Veränderung der Kapazität. Die aktuelle Kapazität des Kondensators<br />

ist demnach ein Maß für die Beschleunigung.<br />

Die zweite Möglichkeit, Beschleunigung zu messen, ist in Bild 7b dargestellt. Zur Messung<br />

der Kraft werden kugelförmige Piezokristalle verwendet. Drückt etwas auf diese Kristalle so<br />

entsteht entsprechend der verformenden Kraft eine elektrische Spannung. Diese steht, bedingt<br />

durch die Massenträgheit, wieder in direkter Proportionalität mit der Beschleunigung.<br />

4 Mechanische Verbindungen<br />

Diese Art der Positions- und Orientierungsbestimmung findet, bedingt durch sein relativ hohes<br />

Gewicht, hauptsächlich im Einsatz von Industrierobotern Verwendung. Ausgehend von<br />

einem Referenzpunkt ist das Zielobjekt (bei Robotern meist ein Werkzeug) durch einen oder<br />

auch mehreren Armen verbunden. Die Verbindungen zwischen den Armen besteht aus Dreh-<br />

Kugel- oder Schubgelenken. Diese sind entsprechend mit Winkel – oder Längensensoren ausgestattet.<br />

Diese Sensoren erlauben, zusammen mit den geometrischen Abmessungen der<br />

Arme, die genaue Errechnung von Position und Orientierung des Zielobjekts. Durch die Multiplikation<br />

von Transformationsmatrizen lässt sich dies mit Computerhilfe relativ leicht implementieren.<br />

Jedoch existieren bereits Entwicklungen, mechanische Systeme als Eingabetools für virtuelle<br />

Objekte zu verwenden. Das Phantom 1,5/6DOF von der Firma Sensable Technologies [Sen]<br />

ist ein Beispiel dafür. Es wird direkt an den PC angeschlossen und kann so Position und<br />

Orientierung direkt übernehmen.<br />

Bild 9: Phantom 1,5/6DOF<br />

Die Auflösung ist mit 0,05 mm/ 0,2° sehr gut, der Preis liegt bei diesem noch nicht lange auf<br />

dem Markt befindlichem Tool bei stolzen 27.500 Euro.<br />

5 Feldmessung<br />

5.1 Elektro-Magnetisches Feld<br />

Die hier beschriebene Methode ist die Messung der magnetischen Feldstärke. Als Feldquelle<br />

dient eine Spule, welche sich an einem bekannten Referenzpunkt befindet. Im Empfänger, der<br />

wieder auf dem zu vermessenden Zielobjekt justiert ist, sind drei Spulen angebracht, jeweils<br />

zueinander orthogonal verdreht. Durch das erregende elektro-magnetische Feld wird in diesen<br />

eine Spannung induziert. Aus dem Verhältnis der induzierten Spannungen der drei


175 Johann Gröbmair<br />

Empfänger-Spulen kann die Orientierung ermittelt werden, da nur die orthogonale<br />

Komponente des Feldes eine Induktionsspannung hervorruft. Die Amplituden sind ein Maß<br />

für die Entfernung des Objektes von der Erregerspule. Zur Feldanregung werden zwei<br />

Ansätze verwendet. Zum einem kann die Spule von einem sinusförmigen Wechselstrom<br />

gespeist werden. Ein Nachteil ist dabei zu bedenken. Durch diese Anregung entstehen auf<br />

einem metallischen Zielobjekt Wirbelströme, die wiederum ein elektro-magnetisches Feld<br />

erzeugen. Eine zweite Möglichkeit besteht darin die Spule mit einem gepulsten Gleichsignal<br />

zu versorgen. Auch hier entstehen durch den Einschaltvorgang Wirbelströme, die jedoch<br />

schnell abklingen. Wird nun die von den Empfängerspulen induzierte Spannung zum<br />

letztmöglichen Zeitpunkt, also unmittelbar vor dem nächsten Gleichstromimpuls gemessen,<br />

so ist diese Störquelle weitgehend eliminiert. Permanente Störquellen wie ferromagnetische<br />

Stoffe oder auch Computer-Monitore sollten sich nicht im Bereich dieser Messungen<br />

befinden, da auch sie Felder erzeugen, die die Messungen verfälschen würden.<br />

Die Reichweite ist bei dieser Technologie auf etwa 5m begrenzt, bezüglich der Winkel gibt es<br />

keine Grenzen. Die Genauigkeit dieser Messverfahren liegt im Zehntel-Millimeter bzw. im<br />

Zehntel-Grad Bereich.<br />

Ein praktisches Beispiel dieses Messverfahrens bietet die Firma Ascension [Asc] mit einem<br />

Produkt an, das den Namen Flock of Bird trägt.<br />

Bild 10: Flock of Birds<br />

Dieser Tracker arbeitet mit der gepulsten DC-Methode und hat eine Reichweite von 1,2 m.<br />

Seine Positions- Winkelgenauigkeit ist mit 1,8mm/ 0,5° angegeben.<br />

5.2 Magnetisches Erdfeld<br />

Eine andere Möglichkeit zur Orientierungsmessung ist die Nutzung des magnetischen Erdfeldes.<br />

Bewegt man eine Spule in diesem Feld (nicht parallel zu den Feldlinien) so ändert sich<br />

durch die magnetischen Flussänderung ihre Induktivität. Um diese, durch das verhältnismäßig<br />

schwache Erdmagnetfeld, kleine Induktionsänderung auch messen zu können, integriert man<br />

die Spule in einem LCR-Schwingkreis. Die durch die Verdrehung resultierende Änderung der<br />

Spuleninduktivität macht sich in einer Verschiebung der Resonanzfrequenz des Schwingkreises<br />

bemerkbar. Mit drei orthogonal angeordneten Sensoren lässt sich dann die Orientierung<br />

eines Objektes bestimmen. Ein Handicap sind Inhomogenitäten, die im Magnetgürtel der Erde<br />

auftreten, so dass Kompensationsmassnahmen unternommen werden müssen um die mögliche<br />

Genauigkeit von etwa einem Grad zu erreichen. Ein grosser Vorteil ist dass keine Referenz<br />

für die Orientierungsmessung notwendig ist. Als Beispiel kann hier das CXM 539 der Firma<br />

Crossbow angeführt werden. Die erreichbare Messgenauigkeit wird mit < 0,5° angegeben.


176 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />

Bild 11: Crossbow CXM 539<br />

5.3 Erd-Gravitationsfeld<br />

Die Orientierung kann auch unter Ausnutzung der Erdgravitationsfeldes bestimmt werden,<br />

jedoch nur zwei Freiheitsgrade. Eine Messung der Auslenkung um die senkrechte Achse auf<br />

die Erdoberfläche ist dabei nicht möglich. Grundsätzlich bedient sich dieses Verfahren des<br />

Prinzipes der allseits bekannten Wasserwaage. Es wird die Höhe eines Flüssigkeitspegels bestimmt,<br />

woraus direkt auf die Neigung des Objektes geschlossen wird. Diese Höhe kann nun<br />

auf zweierlei Arten gemessen werden.<br />

Die erste Möglichkeit ist eine dielektrische Flüssigkeit in ein U-förmiges metallisches Rohr<br />

einzubringen. Dieses Rohr stellt einen Kondensator dar, dessen Kapazität abhängig ist vom<br />

Flüssigkeitspegel der Flüssigkeit. So kann durch Ermittlung dieser Kapazität auf den Neigungswinkel<br />

geschlossen werden. Versetzt man zwei derartige Anordnungen um 90°, so kann<br />

die Orientierung bezüglich der Erdachse orthogonalen Ebene bestimmt werden.<br />

Die andere Möglichkeit den Füllpegel einer Flüssigkeit zu messen ist optischer Natur. Hier<br />

befindet sich eine sehr dunkle, undurchsichtige Flüssigkeit in einem durchsichtigen (Glas-)<br />

Rohr. In diesem Rohr ist eine Vielzahl von photoempfindlichen Bauelementen (z.B. Phototransistoren)<br />

eingebracht. Die ganze Anordnung wird nun beleuchtet. Da nur die Transistoren,<br />

die nicht in die dunkle Flüssigkeit eingetaucht sind, erregt werden, lässt sich aufgrund dieser<br />

Anzahl wieder die Füllhöhe ermitteln.<br />

Ein grosser Nachteil ist bei diesen Verfahren die Detektionsgeschwindigkeit, da diese von der<br />

Viskosität der Fluide abhängt und so keine hohen Sample-Raten zulässt. Die Firma<br />

MicroStrain, Inc. bietet ein solches Gerät zum Preis von 425 USD an. Es ist in der Lage<br />

Winkelauslenkungen für zwei Achsen mit einer Auflösung von 0,01° zu vermessen.<br />

Bild 12: Microstrain FAS


177 Johann Gröbmair<br />

6 Hybridformen<br />

Einige der bisher vorgestellten Verfahren beinhalten bestimmte, teilweise schwerwiegende<br />

Einschränkungen. Eine Messung der Phasenlage liefert nur relative Resultate, Messungen des<br />

Gravitations- oder Magnetfeldes keine 3 Freiheitsgrade für die Orientierung. Aus diesem<br />

Grund werden oft mehrere Verfahren kombiniert eingesetzt um die gesamten erwünschten<br />

Angaben zu erhalten. Auch eine Erweiterung von eingeschränkten Messumgebungen lässt<br />

sich mit einer Kombination von zwei, oder auch mehreren Verfahren, bewerkstelligen.<br />

Die Firma Systron-Donner bietet mit dem Motion Pack [Mot] ein Gerät an, das durch<br />

Kombination zweier Messprinzipien in der Lage ist, Position und Ausrichtung zu bestimmen.<br />

Bild 13: Motion Pack<br />

Motion Pack besteht aus drei Beschleunigungsmessern sowie drei Gyroskopen zur<br />

Bestimmung der Winkelgeschwindigkeit. Über die normierte RS-232 Schnittstelle sind die<br />

Daten sowohl digital als auch analog für jede Achse verfügbar. Daraus kann durch entsprechende<br />

Software die Position und Orientierung laufend errechnet werden. Das Gerät ist klein,<br />

robust und mit 900 Gramm ausgesprochen leicht.<br />

Eine weitere Möglichkeit, Verfahren zu kombinieren, ist eine Erweiterung der eingangs beschriebenen<br />

Time of Flight Methode mittels Ultraschallwellen. Ein Nachteil dieser Methode<br />

ist der kleine Winkelbereich, in dem die Messungen durchgeführt werden können. Stattet man<br />

die Referenz mit einem Quaterniärdiodenarray aus, und lagert sie beweglich, so dass sie sich<br />

mit einem Kugelgelenk drehen kann, so kann dieser Nachteil vermieden werden. Eine<br />

Laserdiode auf dem Zielobjekt wird vom Diodenarray erfasst. Diese erzeugt, abhängig wie<br />

zentral der Laser das Array trifft, eine elektrische Spannung, ist also ein Maß für die ungefähre<br />

Lage des Zieles. Mittels Elektromotoren wird nun die Referenz, mit den Ultraschallemittoren,<br />

in die richtige Lage gedreht. Nun kann über die bereits beschriebene Zeitmessung<br />

der Schallwellen in Kombination mit den Winkelsensoren des Kugelgelenks, die Orientierung<br />

in einem weit grösserem Winkelbereich bestimmt werden.<br />

7 Schlusswort und Ausblick<br />

Die Entwicklung in diesem Bereich ist voll Im Gange. Eine Richtung hat das Ziel die Genauigkeit<br />

weiter zu verbessern. Speziell im Nanobereich, vor allem in der Medizintechnik, hat<br />

man sich zur Aufgabe gemacht die physikalische Beschränkung, die Heisenberg’sche Unschärferalation,<br />

möglichst anzunähern. Ein anderer Entwicklungsschwerpunkt liegt im Echtzeitverhalten.<br />

Damit ist gemeint, die Sampleraten so hoch zu halten, dass das menschliche<br />

Auge zwei aufeinander folgende Bilder nicht als Einzelbilder zu erkennen vermag, also eine<br />

durchgehende Bewegung sieht. Diese Bemühungen haben das Ziel, die Verarbeitungsgeschwindigkeit<br />

zu reduzieren. Diese wird begrenzt durch Wellenausbreitungsgeschwindigkei-


178 Richtungs- Geschwindigkeits- und Beschleunigungsmessung<br />

ten, elektronische Verarbeitung aber auch Antwortzeiten von Programmen, die zum einen<br />

durch Implementierungsstrategie, aber auch mit schnellerer Hardware verbessert werden soll.<br />

Um dem menschlichen Betrachter Durchgängigkeit vorzutäuschen werden z.Zt. Kalman-<br />

Filter eingesetzt. Diese erzeugen, nicht durch Messungen ermittelte Zwischenbilder, die über<br />

die Veränderungen der letzten Bewegungen als wahrscheinlich nächstes „vorhergesehen“<br />

werden. Zudem ist die Tatsache, dass die räumlichen Umgebungen, in denen Objekte<br />

bestimmt werden können, oft doch sehr beschränkt sind, Gegenstand weitergehender Untersuchungen.<br />

Wie man sieht ist diese verhältnismäßig junge Technologie in vielerlei Hinsicht<br />

noch nicht weit über die Kinderstube hinaus, jedoch lässt die Zukunft auf interessante und<br />

spannende Ergebnisse hoffen.<br />

Quellen<br />

[Rol]<br />

Jannick P. Rolland; Larry D. Davis; Yohan Baillot;<br />

A Survey of Tracking Technology for Virtual Environments<br />

[Log] Logitech Tracker<br />

www.vrealities.com/logitech.html<br />

[Mey] J. R. Meyer-Arendt; (1995)<br />

Introduction to Classical and Modern Optics<br />

[Gen] D. B. Gennery; (1993)<br />

Visual Tracking of known three diamensional objects<br />

[HiB] Homepage Fa. 3rd Tech (2003)<br />

www.3rdtech.com/HiBall.htm<br />

[Sen]<br />

[Asc]<br />

[Mot]<br />

Sensable Technologies Inc. Product Brochure<br />

www.sensable.com/products/datafiles/Phantom_Ghost<br />

Ascension Technology Corporation, Produktbeschreibung<br />

www.ascension-tech.com/products/flockofbirds.php<br />

Systron-Donner Motion Pack<br />

www.systron.com/prodinfo/MotPk.html<br />

Bildquellen<br />

Bild 1,3,6 : Jannick P. Rolland; Larry D. Davis; Yohan Baillot;<br />

A Survey of Tracking Technology for Virtual Environments<br />

Bild 2 : Logitech Tracker<br />

www.vrealities.com/logitech.html<br />

Bild 4 : Northern Digital OPTOTRAK 3020<br />

www.ndigital.com<br />

Bild 7 : 3rd Tech (2003)<br />

www.3rdtech.com/HiBall.htm


179 Johann Gröbmair<br />

Bild 9 : Sensable Technologies Inc. Product Brochure<br />

www.sensable.com/products/datafiles/Phantom_Ghost<br />

Bild 10 : Ascension Technology Corporation, Produktbeschreibung<br />

www.ascension-tech.com/products/flockofbirds.php<br />

Bild 11 : Crossbow CXM 539<br />

www.xbow.com<br />

Bild 12 : Microstrain FAS<br />

www.microstrain.com/ecb/cat20_1.htm<br />

Bild 13 : Systron-Donner Motion Pack<br />

www.systron.com/prodinfo/MotPk.html


Display Technologien<br />

Verwendung in Augmented-Reality Systemen<br />

Dirk Schröder<br />

Kleiststraße 1<br />

35091 Cölbe<br />

dirk@hallo-schroeder.de<br />

Zusammenfassung: Ein wichtiger Bestandteil eines Augmented-Reality Systems ist das<br />

Display. Neben den Durchsicht- und Video-Durchsicht-Displays existieren noch eine<br />

Reihe von weiteren Ansätzen, die sich teilweise aber noch im experimentellen Stadium<br />

befinden. Entscheidend für die Verwendung solcher Displays in Augmented-Reality<br />

Szenarien ist aber immer die Akzeptanz durch den Anwender.<br />

1 Augmented-Reality Systeme<br />

1.1 Definition von Augmented-Reality System<br />

Ein Augmented-Reality System reichert die reale Welt um zusätzliche virtuelle Objekte an.<br />

Die virtuellen Objekte existieren gleichberechtigt neben den realen Objekten mit dem Ziel,<br />

dass der Unterschied zwischen beiden nicht mehr wahrnehmbar ist Nach Azuma besitzt ein<br />

Augmented-Reality System folgende Eigenschaften [ABB+01]:<br />

• Kombination von realen und virtuellen Objekten<br />

• Interaktion in „real-time“<br />

• reale und virtuelle Objekte beeinflussen sich gegenseitig<br />

Abbildung 27: Visualisierung eines virtuellen Kniegelenks<br />

Damit ist Augmented-Reality nicht nur auf die visuelle Wahrnehmung beschränkt, sondern ist<br />

auf alle menschlichen Sinne, einschließlich Hören, Tasten, Riechen ausgedehnt. Nach<br />

Milgram existiert zwischen den Extremen der gänzlich realen und der komplett virtuellen<br />

Welt ein Kontinuum, der gemischten Realität [MK94]. Augmented-Reality ist hier die erste<br />

Stufe in Richtung virtueller Realität.


182 Display Technologien<br />

Mixed Reality<br />

reale<br />

Welt<br />

Augmented<br />

Reality<br />

Augmented<br />

Virtuality<br />

virtuelle<br />

Welt<br />

Abbildung 28: Mixed Reality Kontinuum<br />

Es ist anzumerken, dass an Augmented-Reality Systeme höhere Anforderungen gestellt werden,<br />

als an Virtual-Reality Systeme [MP01], da der Anwender bei Virtual-Reality Systemen<br />

in eine in sich geschlossene Welt eintaucht, die mit der realen Welt nicht mehr in Wechselwirkung<br />

steht. Bei einem Augmented-Reality Systeme sollen aber die Objekte aus der realen<br />

Welt im Idealfall so mit den virtuellen kombiniert, dass der Anwender selbst bei Bewegung<br />

keinen Unterschied mehr zwischen künstlichen und realen Objekten wahrnimmt. Das erordert<br />

eine exakte Bestimmung der Position und Ausrichtung der realen Objekte, da sich auch<br />

kleinste Differenzen sofort störend bemerkbar machen [Ja01].<br />

1.2 Genereller Aufbau von Augmented-Reality System<br />

Augmented-Reality System setzen sich im Wesentlichen aus den folgenden Komponenten<br />

zusammen:<br />

• Tracker<br />

• Bildgenerator<br />

• Erfassung<br />

• Darstellung<br />

Für die korrekte Überlagerung der realen und virtuellen Objekte ist eine genaue Positionsbestimmung<br />

eine entscheidende Voraussetzung. Neben der Position muss aber auch die Blickrichtung<br />

genau bestimmt werden. Hierzu werden Tracker-Systeme eingesetzt. Bei den<br />

Tracker-Systemen existiert eine Vielfalt verschiedener Systeme: Elektromagnetik, Optik,<br />

Wegaufnehmer, Sonar, Beschleunigungs- und Gyrosensoren [Pa02]. Es gibt auch Ansätze, die<br />

mehrer Systeme kombinieren. So wird beim Hybrid Tracking optische Mustererkennung mit<br />

Magnetischem Tracking kombiniert [SHC+96].<br />

Der Bildgenerator berechnet aus den Positionsdaten die darzustellenden virtuellen Objekte<br />

und kombiniert sie geeignet mit den realen Objekten. Falls es sich um ein geschlossenes<br />

System ohne Blick auf die reale Welt handelt, werden die erfassten realen Objekte ebenfalls<br />

in das Bild integriert.<br />

Die Darstellung visualisiert die von Bildgenerator erzeugten optischen Informationen. Dabei<br />

kommen neben LCD- und TFT-Monitoren auch noch Röhrenmonitore zum Einsatz. Ein<br />

geeignetes optisches System bildet die erzeugten Bilder auf das menschliche Auge ab.<br />

1.3 Displays in Augmented-Reality Systemen<br />

In Augmented-Reality Systemen werden bevorzugt Durchsicht- und Video-Durchsicht-Displays<br />

zur Darstellung verwendet. Beide Systeme werden im englischen Sprachraum unter<br />

dem Begriff Head-Mounted Display (kurz HMD) subsumiert.<br />

2 Durchsicht-Display<br />

Die Entwicklung der ersten Durchsicht-Displays (englisch optical see-trough Head-mounted<br />

Display kurz OST-HMD) begann in den 60er Jahren. Ivan Sutherland stellte 1965 die ersten<br />

funktionstüchtigen Durchsicht-Displays vor [RF01]. Die meisten in Augmented-Reality<br />

Systemen eingesetzten Displays sind Durchsicht-Displays.


183 Dirk Schröder<br />

Die Komponenten des Durchsicht-Displays sind bis auf den Bildgenerator am Kopf des<br />

Anwenders befestigt (Bild aus [Ku02]). Der Anwender schaut durch einen halbtransparenten<br />

Spiegel, der nur wenige Zentimeter vor dem Auge sitzt, weitestgehend ungestört auf die reale<br />

Welt. Aus den Positionsdaten werden die zusätzlichen virtuellen Objekte berechnet, die dann<br />

im halbtransparenten Spiegel mit dem Bild der realen Welt überlagert werden.<br />

Abbildung 29: Durchsicht-Display [Az97]<br />

Durch den halbtransparenten Spiegel wird allerdings, wie bei einer Sonnenbrille, die Intensität<br />

des einfallenden Lichtes geschwächt. Dieses Problem kann man durch Einsatz von<br />

monochromen Displays und einer dielektrischen Beschichtung des Spiegels, die nur die<br />

Wellenlänge des Displays reflektiert, lösen.<br />

Zurzeit erhältliche Durchsicht-Displays haben folgend Schwächen: geringe Helligkeit, kleines<br />

Sichtfeld, geringer Kontrastbereich um reale Objekte komplett auszublenden, relativ schwer,<br />

zu groß und noch sehr teuer [ABB+01]. Ein großer Sicherheitsvorteil der Durchsicht-Displays<br />

im Vergleich zu den Video-Durchsicht-Displays ist jedoch der direkte Blick auf die reale<br />

Welt und die unbeeinträchtigte Auflösung der realen Objekte.<br />

3 Video-Durchsicht-Display<br />

Beim Video-Durchsicht-Display (englisch video see-trough Head-mounted Display kurz<br />

VST-HDM) hat der Anwender keine Sicht mehr auf die reale Welt. Er ist komplett isoliert.<br />

Stattdessen wird die reale Welt mit zwei Videokameras für jedes Auge einzeln aufgenommen.<br />

Abbildung 30: Video-Durchsicht-Display


184 Display Technologien<br />

Wie beim Durchsicht-Display werden aus den Positionsdaten des Trackers die virtuellen<br />

Objekte berechnet. Anschließend werden die Bildinformationen der virtuellen Objekte mit<br />

den Kameraaufnahmen der realen Welt elektronisch kombiniert. Die so erweiterten Stereobilder<br />

werden von zwei Monitoren erzeugt und mit einem geeigneten optischen System auf<br />

die Netzhaut abgebildet.<br />

Bei der Kombination der realen und virtuellen Bilder wird in der Regel chroma-keying<br />

verwendet. Dazu wird der Hintergrund des virtuellen Bildes in einer Farbe gefärbt, die im<br />

Bild der realen Welt nicht oder nur sehr selten vorkommt. Über diese Farbe wird nun das Bild<br />

der realen Welt gelegt.<br />

Video-Durchsicht-Displays werden vor allem in der Virtual-Reality intensiv genutzt. Aufgrund<br />

der geringen Pixelzahl der heute erhältlichen Miniatur LCD Panels besitzen Video-<br />

Durchsicht-Display eine schlechte Auflösung.<br />

4 Weitere Displaytypen für Augmented-Reality Systeme<br />

4.1 Retina Display<br />

Ein sehr interessantes Display-Prinzip ist das Retina Display (englisch: Virtual Retinal<br />

Display VRD). Das Prinzip des Virtual Retina Displays wurde 1991 von HIT Lab entwickelt<br />

[Hi03]. Kommerzielle verfügbare Displays werden heute von der Firma Microvision Inc.<br />

hergestellt [Micro].<br />

Das Retina-Display zeichnet die Bildinformation direkt auf die Nervenzellen der Netzhaut im<br />

menschlichen Auge. Das Bild wir Zeile für Zeile (ähnlich einer herkömmlichen Bildschirmröhre)<br />

direkt auf die Netzhaut projiziert. Als Lichtquelle kommt eine kompakte und unempfindliche<br />

Laserdiode zum Einsatz, deren Lichtstärke durch den Strom fein und hochfrequent<br />

geregelt werden kann. Für die horizontale und vertikale Ablenkung kommen 1,5 mm<br />

große Mikrospiegel zum Einsatz - das so genannte Mikro-Elektro-Mechanisches System<br />

(MEMS). Eine Optik bildet die Bildinformation schließlich auf die Netzhaut ab.<br />

Abbildung 31: Retina Display<br />

Vorteile dieser Technik sind das geringe Gewicht des Displays, das sehr große Sichtfeld (bis<br />

zu 120°), der sehr hohe Kontrast, helle Darstellung der virtuellen Objekte, gut Auflösung<br />

(800x600 Pixel), geringe Stromaufnahme und die Möglichkeit das Display bei entsprechendem<br />

Design schnell und einfach aus dem Sichtfeld nach oben zu klappen. Zurzeit sind Retina-<br />

Displays nur in monochromer Darstellung zu erhalten (typischerweise in roter Farbe).<br />

Es ergeben sich eine Reihe von interessanten Anwendungen: Unter anderen ist diese Technik<br />

für Helikopterpiloten interessant, für die der Instrumentenflug aufgrund der starken Vibrationen<br />

außerordentlich schwierig ist. Das Retina-Display kann die Flugdaten und für militärische<br />

Zwecke auch den Waffenstatus und die Zieldaten direkt ins Blickfeld projizieren.<br />

Jenseits der Augmented-Reality hat das Retina-Display aber eine weitere große Bedeutung, da


185 Dirk Schröder<br />

sie Menschen, die aufgrund von Erkrankung der Linsen oder Hornhäute erblindet sind aber<br />

noch intakte Sehnerven besitzen, wieder das Sehen ermöglichen könnte.<br />

4.2 Image Overlay Systeme<br />

Ein Image Overlay System entspricht technisch einem Durchsicht-Display. Der Unterschied<br />

liegt allerdings in der Größe und Lage des halbdurchlässigen Spiegels. Bei Image Overlay<br />

Systemen befindet sich der halbdurchlässige Spiegel nicht vor dem Auge sonder nahe am<br />

betrachteten Objekt. Der Spiegel hat eine Ausdehnung von bis zu 100 cm. Diese Anordnung<br />

findet oft Anwendung in der Medizin, da statt der schweren HMD nur noch Shutter-Brillen<br />

für die Stereodarstellung zu tragen sind.<br />

4.3 Head-Up Displays<br />

Eine weitere Variante von Durchsicht-Display sind Head-Up Displays. Hier fungiert die<br />

Windschutzscheibe eines Autos oder Flugzeugs als halbdurchlässiger Spiegel, der die<br />

virtuellen Objekte ins Auge des Anwenders reflektiert.<br />

4.4 Mikroskop<br />

Die grundlegende Technik von Durchsicht-Display kann auch bei Mikroskopsystemen zum<br />

Einsatz kommen. Dazu muss lediglich ein halbdurchlässiger Spiegel an geeigneter Stelle in<br />

den Strahlengang eingebracht werden. Allerdings ist es hier günstiger hoch auflösende monochrome<br />

Displays, als farbige Displays einer mit geringer Auflösung, zur Darstellung der<br />

virtuellen Objekte zu verwenden [RF01].<br />

4.5 Monitor-Systeme<br />

Bei monitorbasierten Augmented-Reality System handelt es sich um eine Variante des Video-<br />

Durchsicht-Displays. Eine Videokamera nimmt die Bilder der realen Welt auf, die dann mit<br />

den virtuellen Objekten angereichert werden. Die kombinierte Bildinformation wird dann auf<br />

einem Monitor dargestellt.<br />

Abbildung 32: Monitor-System<br />

Um mit einem Monitor-System dreidimensionale Bilder darstellen zu können, werden neben<br />

zwei Kameras auch 3D-Brillen benötigt [No02]. 3D-Brillen trennen die Bildinformation für<br />

das rechte und das linke Auge auf. Dabei kommen folgende Variationen zum Einsatz:


186 Display Technologien<br />

• Anaglyphenbrille: Die Trennung erfolgt mittels verschiedener Farbfilter<br />

• Polarisationsbrille: Die Trennung erfolgt durch Polarisationsfilter. Diese Technologie<br />

kann nur mit Projektoren verwendet werden.<br />

• Shutter-Brille: Hier erfolgt die Trennung aktiv. Das Display zeigt die Bilder für das rechte<br />

und linke Auge abwechselnd an. Die Shutter-Brille ist mit dem Display synchronisiert und<br />

verdeckt jeweils das andere Auge [Ru99].<br />

Augmented-Reality System, die Handhelds, Palmtops oder Tablett PC zur Anzeige verwenden,<br />

gehören zur Gruppe der Monitor-Systeme. Anwendungsgebiete für diese speziellen<br />

Displaytypen werden im Abschnitt 6.11 erläutert.<br />

4.6 Projektion<br />

Bei der Projektion kann die reale Welt als Bildschirm verwendet. Hierbei gibt es aber eine<br />

Reihe von Problemen:<br />

• Für die Ausleuchtung der Schattenbereiche sind mehrer Projektoren notwendig<br />

• Überdeckung realer Objekte durch virtuelle ist nur schwer zu erreichen<br />

• Bei der Projektion muss der Oberflächenverlauf der realen Objekte berücksichtigt werden.<br />

Dazu muss das System entsprechend kalibriert werden (z.B. an einen Patientenphantom)<br />

Projektionen mit mehr als nur einem Anwender erfordern für jeden Anwender separate<br />

Projektoren. Bei der Projektion kann auch von Kopf des Beobachters ein Stereo-Bildpaar auf<br />

die realen Objekte projiziert. Die Objekte sind mit Mikroretroreflektoren beschichtet, die die<br />

Projektionsstrahlen wieder direkt auf den Anwender zurück reflektieren. Solange die verschiedenen<br />

Beobachter sich nicht in derselben Sichtgeraden auf das reale Objekt befinden,<br />

stören sich auf diese Weise ihre Projektion gegenseitig nicht [ABB+01].<br />

Projektionen werden in der Virtual Reality sehr häufig eingesetzt (z.B. ImmersaDesk, Cave).<br />

5 Probleme bei Durchsicht- und Video-Durchsicht Displays<br />

Die heute angebotenen Systeme sind noch nicht perfekt. Einige befinden sich sogar noch im<br />

Entwicklungsstadium. Die Benutzbarkeit heutiger Systeme hängt von technologischen<br />

Problemen und von menschlichen Faktoren einschließlich der optischen Wahrnehmung ab,<br />

die im Folgenden erläutert werden.<br />

5.1 Technologische Probleme<br />

Die Verschmelzung der Bildinformationen der realen Welt mit den künstlich erzeugten<br />

Objekten ist eine besondere Herausforderung, da das menschliche Auge bereits kleinste<br />

Ungenauigkeiten in der Position der zusätzlichen virtuellen Objekte vor dem realen Hintergrund<br />

störend bemerkt.<br />

5.1.1 Systemträgheit<br />

Eines der Hauptprobleme bei Augmented-Reality Systemen ist die Trägheit des Systems.<br />

Diese Trägheit äußert sich in der verzögerten Darstellung der zusätzlichen Bildinformation.<br />

Die Trägheit entsteht durch die Informationsverarbeitung bei Bildaufnahme, Positionsbestimmung,<br />

Bildberechnung und der Ausgabe des Bildes auf dem Display.<br />

Bereits eine Verzögerung von nur 60 bis 180 ms, wie sie für kommerzielle Systeme üblich ist,<br />

führt bei schnellen Bewegungen des Anwenders bereits zu eine „schwimmen“ der künstlichen<br />

Objekte vor dem realen Hintergrund.<br />

Dieser Nachteil ist für Video-Durchsicht-Displays nur bedingt gültig, da das Bild der realen<br />

Welt mit derselben Verzögerung dargestellt werden kann, wie die berechneten Objekte. Somit


187 Dirk Schröder<br />

ist zumindest die optische Information stimmig, obwohl es aufgrund der Verzögerung bei der<br />

Interaktion mit Realwelt-Objekten immer noch zu Störungen kommen kann.<br />

Für die Verarbeitung der Bildinformation braucht der Mensch ungefähr 100 ms. Um eine<br />

„flüssige“ Darstellung der künstlichen zu ermöglich sind als Bildwiederholungsraten von<br />

größer oder gleich 10 erzeugten Szenen pro Sekunde notwendig.<br />

Damit der Unterschied zwischen virtuellen und realen Objekten weitestgehend unbemerkt<br />

bleibt, ist auf eine photorealistische Darstellung der virtuellen Objekte zu achten. Diese<br />

Anforderung führt bei ausgedehnten Objekten aber zu einer Erhöhung der Rechenzeit für die<br />

Darstellung der virtuellen Objekte.<br />

5.1.2 Sichtfeld<br />

Unter dem Begriff Sichtfeld versteht man einen horizontalen und vertikalen Winkelbereich<br />

der optisch erfasst werden kann. Man unterscheidet zwischen einem zentralen Sichtfeld und<br />

einem peripheren Sichtfeld. Im zentralen Sichtfeld kann das Display virtuelle Objekte der<br />

realen Welt überlagern. Im peripheren Sichtfeld ist nur die reale Welt sichtbar. Bei Video-<br />

Durchsicht-Displays stimmen das zentrale und das periphere Sichtfeld überein. Bei<br />

Durchsicht-Displays ist das periphere Sichtfeld in der Regel deutlich größer als das Sichtfeld<br />

von Video-Durchsicht-Displays.<br />

Die Größe des zentralen Sichtfelds sollte der Aufgabe angepasst sein. Das heißt z.B. bei<br />

bewegten Objekten ist ein großes Sichtfeld unabdingbar. Dahingegen reicht bei kleinen<br />

nahezu unbewegten virtuellen Objekten ein kleines zentrales Sichtfeld aus.<br />

Techniken um große Sichtfelder zu erreichen sind das Kacheln und die Projektion. Beim<br />

Kacheln wird das Display wie ein Insektenauge aus vielen einzelnen Displays aufgebaut.<br />

Problematisch sind aber die Überlagerungsbereiche der einzelnen Displays.<br />

5.1.3 Auflösung und Abbildungsfehler<br />

Hinsichtlich Auflösung und Abbildungsfehler sind Durchsicht-Displays am günstigsten. In<br />

den Strahlengang ragt lediglich eine plan parallel Platte die als halbdurchlässiger Spiegel<br />

beschichtet ist. Dadurch wird zwar die Intensität des einfallenden Lichtes stark reduziert. Der<br />

zusätzlich erzeugte optische Fehler liegt aber bei unter einem Prozent.<br />

Beim Video-Durchsicht-Display hingegen wird das Bild der Real-Welt zuerst von einer<br />

Video-Kamera aufgenommen und dann auf einem Display dargestellt. Die typische<br />

Auflösung der verwendeten Miniaturbausteine beträgt zurzeit 640 x 480 Pixel. Die dabei<br />

tatsächlich erreichte Auflösung hängt aber stark vom Sichtfeld und von der Vergrößerung des<br />

optischen Gesamtsystems ab. Systeme mit großem Sichtfeld (≥ 50°) haben aufgrund der<br />

bauformbedingten großen optischen Aberration eine schlechte Abbildungsqualität. Hinzu<br />

kommt, dass sich die Displayauflösung bei der hohen Vergrößerung durch deutlich sichtbare<br />

Pixel bemerkbar macht. Aber auch bei kleinen Sichtfeldern (10-20°) ist die Auflösung noch<br />

deutlich schlechter als die des menschlichen Auges ohne Hilfsmittel. Ein Display mit einer<br />

mittleren Auflösung von 512 Pixeln pro Zeile hat z.B. bei einem kleinen Sichtfeld von 25°<br />

eine Auflösung von rund 0,05 °/Pixel oder 2,5 Bogenminuten pro Pixel. Das menschliche<br />

Auge hat aber dagegen ein Auflösungsvermögen von 0,5 Bogenminuten. Jeder einzelne Pixel<br />

wird also noch deutlich vom Anwender bemerkt.<br />

5.1.4 Positionsbestimmung<br />

Jeder Fehler in der Positionsbestimmung des Nutzers in Bezug auf die reale Welt führt zu<br />

Fehlern in der Darstellung. Da das optische System des Menschen sehr sensitiv ist können die<br />

resultierende Fehler in der Darstellung der virtuellen Objekte im Extremfall dazuführen, dass<br />

das System nicht mehr zu benutzen ist. Zu bemerken ist, dass natürlich auch die<br />

Positionsbestimmung durch das Rauschen limitiert ist. Dadurch sind selbst für einen<br />

stillstehenden Anwender die virtuellen Objekte ständig in Bewegung.


188 Display Technologien<br />

5.1.5 Offene Technologische Probleme<br />

Heutige Displays haben trotz des hohen Preises noch viele Nachteile: schlecht Auflösung,<br />

geringes Sichtfeld, schlecht Ergonomie und ein hohes Gewicht. In einigen Bereich wie der<br />

Bilderzeugung hat es schon gewaltige Fortschritte gegeben. So werden inzwischen nicht mehr<br />

wie in der Anfangszeit monochrome Miniaturröhrenmonitore sonder farbige Miniaturflachbildschirme<br />

zur Bilderzeugung eingesetzt.<br />

5.2 Menschliche Faktoren und optische Wahrnehmung<br />

Auch wenn technisch perfekte Displays vorliegen würden, wird die Nutzbarkeit aufgrund von<br />

menschlichen Faktoren eingeschränkt bleiben. Diese Faktoren sind sowohl psychologischer<br />

als auch physiologischer Art und begrenzen die Akzeptanz und die Nutzbarkeit des Systems.<br />

5.2.1 Akzeptanz und Sicherheit<br />

Akzeptanz und Sicherheit sind psychologische menschliche Faktoren, die die Anwendbarkeit<br />

von Augmented-Reality Systemen beschränken. Akzeptanz kann durch psychologische<br />

Hemmschwellen begrenzt werden: So würden zurzeit wohl nur wenige Leute bereit sein, mit<br />

einem Display auf dem Kopf z.B. durch die Stadt zu bummeln zu gehen. Besonders die<br />

geschlossenen Video-Durchsicht-Displays dürften bei „unbehelmten“ Gesprächspartner zu<br />

Irritationen führen.<br />

Der Sicherheitsgedanke ist ebenfalls entscheiden. So gibt der Nutzer eines Video-Durchsicht-<br />

Displays den optischen Kontakt zur Außenwelt komplett auf. Bei sicherheitskritischen Anwendungen<br />

wie z.B. in der Medizin sind daher Durchsicht-Displays vorzuziehen, da hier im<br />

Fehlerfall ohne Verzögerung direkt in der realen Welt lediglich ohne die zusätzlichen<br />

virtuellen Objekte weitergearbeitet werden kann.<br />

5.2.2 Wahrnehmung der Tiefeninformation<br />

Die Wahrnehmung der Tiefeninformation ist ein sehr komplexer Prozess. Die menschliche<br />

Wahrnehmung bedient sich dabei einer Reihe von zusätzlichen Informationen:<br />

• Verdeckung von Objekten<br />

• Helligkeit der einzelnen Objekte<br />

• Abbildungsschärfe eines Objekts<br />

• Größenvergleich zwischen ähnlichen Objekten<br />

• Größenvergleich der Texturen auf den Objekten<br />

• Perspektivische Information durch die beiden Stereobilder<br />

• Verschiebung der Objekte bei Bewegung des Beobachters<br />

Hier beweisen Graphiken des niederländischen Künstlers M.C. Escher (z.B. Konkav und<br />

Konvex oder Wasserfall aus [Es89]) wie leicht sich die Wahrnehmung der Tiefeninformation<br />

durch unstimmige Details täuschen lässt.<br />

Um die virtuellen Objekte in einer bestimmten Tiefe in der realen Welt korrekt erscheinen zu<br />

lassen, benötigt man zu allererst verlässliche Tiefeninformation der realen Objekte. Hierbei<br />

kann es bereits zu ersten Fehlern kommen. Auf dieser Tiefeninformation setzt dann ein<br />

Berechnungsmodell auf, das die virtuellen Stereobildpaare berechnet. Diese werden dann im<br />

Display den Objekten der realen Welt überlagert. Sowohl das Berechnungsmodell als auch<br />

die Überlagerung auf dem Display kann fehlerbehaftet sein und die Tiefenwahrnehmung<br />

beeinträchtigen.<br />

Besonders problematisch ist es, die berechnete Verdeckung von realen und virtuellen<br />

Objekten im Display darzustellen. Hier sind die Video-Durchsicht-Displays im Vorteil da sie<br />

die verdeckten Objekte der realen Welt einfach ausblenden können. Durchsicht-Displays<br />

können die verdeckten realen Objekte in der Regel lediglich durch hohe Leuchtdichten der


189 Dirk Schröder<br />

virtuellen Objekte näherungsweise überlagern. Erste Prototypen können aber durch ein<br />

zusätzliches LCD-Display bestimmte Bildbereiche der realen Welt ausblenden.<br />

Alle virtuellen Objekte werden unabhängig von ihrer räumlichen Tiefe in einer Ebene scharf<br />

abgebildet. Das steht im Widerspruch zu den Seherfahrungen bei realen Objekten, die nur im<br />

Bereich der Tiefenschärfe gleichzeitig scharf abgebildet werden können. Diese Eigenschaft<br />

kann zu Störungen bei der Erfassung der räumlichen Tiefe führen.<br />

5.2.3 Anpassung<br />

Viele Video-Durchsicht-Displays haben einen Parallaxenfehler, das heißt dass die Sichtlinie<br />

der Kamera nicht identisch mit der Sichtlinie des Auges ist. Der Fehler entsteht dadurch, dass<br />

die Kameras in der Regel überhalb der Augen montiert sind. Dieser Unterschied, der sich<br />

gerade bei Kopfbewegungen stark äußerte wird nach kurzer Zeit in vielen Fällen aber nahezu<br />

kompensiert. Die menschliche Wahrnehmung hat sich dem mangelhaften System angepasst.<br />

Interessanter Weise traten aber nach Absetzen des Displays erneut Anpassungsschwierigkeiten<br />

auf. Diese äußerten sich in Schwierigkeiten die räumliche Tiefe korrekt einzuschätzen,<br />

bis hin zu starkem Schwindel. Solche Nachwirkungen sind natürliche für einige Personengruppen<br />

wie z.B. Chirurgen nicht akzeptabel. Die Dauer der Nachwirkung verkleinert sich<br />

mit abnehmendem Abstand zwischen Auge und Kamera.<br />

5.2.4 Tiefenschärfe<br />

Die Tiefenschärfe gibt an in welchem Bereich um den Fokus Objekte noch scharf durch die<br />

Netzhaut wiedergeben werden. Die Tiefenschärfe steigt mit kleiner werdendem Pupillendurchmesser.<br />

Die Tiefenschärfe bei nahen Objekten ist kleiner als für solche die weiter vom<br />

Beobachter entfernt sind.<br />

Bei Video-Durchsicht-Display müssen die Kameras also auf eine mittlere Arbeitsdistanz<br />

eingestellt werden und eine geeignete Tiefenschärfe zu bieten.<br />

Bei der Nutzung eines Durchsicht-Displays ergibt sich dieselbe Tiefenschärfe wie mit dem<br />

Auge ohne Hilfsmittel, nur das eine größere Pupillenöffnung wegen der Lichtabschwächung<br />

durch den halbdurchlässigen Spiegel angenommen werden muss. Somit ergibt sich eine leicht<br />

verminderte Tiefenschärfe, die sich allerdings erst bei der Arbeit an nahen Objekten auswirkt.<br />

Geringe Abweichungen der Tiefenschärfe im Bereich von ±0.25 Dioptrien werden vom<br />

Nutzer unbemerkt korrigiert.<br />

5.2.5 Qualitative Aspekte<br />

Die Überlegungen zur Tiefenschärfe gelten auch für die Projektionsoptik im Display. Die<br />

Abbildungsebene der virtuellen Objekte sollte bei Durchsicht-Displays im Bereich der Tiefenschärfe<br />

um den Fokus der realen Objekte liegen, auf die der Nutzer gerade blickt. Aufgrund<br />

technischer Limitationen kann diese Bedingung aber nicht für alle Arbeitsdistanzen<br />

aufrechterhalten werden, so dass die virtuellen und realen Objekte nicht immer gleichzeitig<br />

scharf gesehen werden können. Die meisten heute angebotenen Displays besitzen noch keine<br />

Autofokusfähigkeit, sondern müssen auf einen bestimmten Arbeitsabstand eingestellt werden.<br />

Bei Video-Durchsicht-Display werden die realen Objekte bedingt durch die Aufnahme mit<br />

der Weitwinkel-Miniaturkamera verändert. Das betrifft den Kontrast, die Farben, die Texturen<br />

und die Detailauflösung. Einige Anwendungen wie z.B. im medizinischen Bereich können<br />

solche Änderung am Erscheinungsbild der realen Objekte nur begrenzt tolerieren.<br />

6 Anwendungen von Displays in Augmented-Reality Systemen<br />

6.1 Militär<br />

Im militärischen Bereich ist der Einsatz von Head-Mounted-Displays sehr verbreitet und<br />

treibt die Entwicklung immer zuverlässiger und hochwertiger Systeme stetig voran. Dort


190 Display Technologien<br />

werden diese Displays von Flugzeug- und Hubschrauberpiloten zum Training, in der<br />

Navigation und im Luftkampf eingesetzt. Aber auch die Bodentruppen setzten zunehmend<br />

Augmented-Reality System ein. Ziel des Einsatzes von Augmented-Reality Systemen im<br />

militärischen Umfeld ist die Minimierung von Kosten und Risiken.<br />

6.2 Medizin<br />

In der Medizin spielt die Bildgebung eine entscheidende Rolle für die effiziente und richtige<br />

Behandlung des Patienten. Seit der Entdeckung der Röntgenstrahlen durch Wilhelm Röntgen<br />

im Jahre 1895, haben sich im medizinischen Bereich vielfältige Bildgebungsverfahren (CT,<br />

MRT, Ultraschall) etabliert. Augmented-Reality Systeme nutzen die Daten dieser Verfahren<br />

und stellen diese als zusätzliche Information zur Verfügung:<br />

• Überlagerung von CT-Bilder mit dem Blick auf den Kopf des Patienten in einem Durchsicht-Display<br />

(University of North Carolina at Chapel Hill). Der entstehende „Röntgenblick“<br />

erlaubt dem Chirurgen die Optimierung des Operationsplans, da das komplexe Verhältnis<br />

zwischen Knochen und Weichteilen deutlich besser beurteilt werden kann [RF01].<br />

Abbildung 33: Brustbiopsie mit Visualisierung eines Tumors<br />

• Bei der ultraschallgestützten Brustbiopsie wird das Ultraschallbild des Brustgewebes mit<br />

dem virtuellen Bild der Biopsienadel überlagert. Ziel ist es den potentiellen Brusttumor<br />

schnell und sicher zu lokalisieren (Abbildung 33).<br />

• Ebenfalls an der University of North Carolina at Chapel Hill wird die Visualisierung der<br />

Bewegung der Knochen im Kniegelenk entwickelt. Dazu wird die Lage des Knies mit<br />

Infrarotkameras und -sensoren gemessen. Mit einem mathematischen Modell des Kniegelenks<br />

wird die Bewegung der Knochen im Kniegelenk berechnet. Die virtuellen<br />

Knochen werden visualisiert und in einem Durchsicht-Display mit dem Blick auf das<br />

Kniegelenk überlagert (Abbildung 27).<br />

• In der United Medical and Dental School of Guy’s and Saint Thomas’s Hospital in<br />

England werden präoperativen MRT- und CT-Bildern mit dem Blick durch ein Stereo-<br />

Operations-Mikroskop überlagert. Ziel des Projekts ist es dem Chirurgen die unterhalb des<br />

Gewebes liegenden Strukturen zu visualisieren.<br />

• Operationsplanung und -durchführung mit dem ARION System in der Leberchirurgie<br />

unter der Verwendung verschiedner Displaytypen [SVH+02].<br />

• University of Blaise Pascal in Clermont Ferrand: Ein Image-Overlay-System wird bei<br />

chirurgischen Scoliosis Eingriffen (Wirbelsäulenverkrümmung) eingesetzt. Einzelnen<br />

Rückenwirbel werden mit einer Genauigkeit von 0,01 mm erfasst.<br />

6.3 Fertigung<br />

Der Einsatz von Augmented-Reality Systemen in der Fertigung zielt dahin das Risiko für die<br />

Arbeiter sowie die Fehlerwahrscheinlichkeit zu verringern. Die hohen Anforderungen an<br />

Präzision und Genauigkeit im Millimeterbereich wie bei der Medizin sind hier nicht zwingend<br />

notwendig. Anwendungsgebiete sind z.B.


191 Dirk Schröder<br />

• Elektrische Verkablung innerhalb von Flugzeugen: Kabelstränge mit vielen einzelnen<br />

Adern können ohne zusätzliche schriftliche Dokumentation verdrahtet werden. Durch<br />

Umstellung der Software sind zudem schnelle Änderungen in der Verkablung möglich.<br />

• Wartungsarbeiten an Laserdruckern (KARMA-Projekt): Während der Wartung werden<br />

die einzelnen Schritte auf dem Display erläutert. Die Position der beweglichen Teile des<br />

Druckers wird mit Ultraschallsensoren überwacht.<br />

6.4 Tourismus<br />

Die vielfältigen Visualisierungsmöglichkeiten<br />

der Augmented-Reality können im<br />

Tourismus ideal genutzt werden. Antike<br />

Bauwerke können so z.B. virtuell im realen<br />

Gelände wieder auferstehen.<br />

6.5 Lehre und Forschung<br />

Die statischen Darstellungen in Lehrbüchern sind für viele dynamische Vorgänge suboptimal.<br />

Als Alternative zu PC gestützten Multimedia Lernprogrammen, bietet sich der EnhancedDesk<br />

an [Ge00]. Hier wird neben dem Lehrbuch eine dynamische Darstellung projiziert. Der Leser<br />

kann mit den eigenen Händen ohne weitere Hilfsmittel intuitiv mit den künstlichen Objekten<br />

interagieren. So können z.B. in einem Physiklehrbuch Pendel zum Schwingen gebracht<br />

werden, um das dynamische Verhalten zu studieren.<br />

6.6 Benutzereingaben<br />

Sind für ein Augmented-Reality System während der Nutzung Eingaben nötig, so bietet es<br />

sich an, die zusätzlichen Möglichkeiten durch virtuelle Objekte zu nutzen. Im Studierstube<br />

Projekt der technischen Wiener Universität wurde demonstriert wie sich eine Benutzerschnittstelle<br />

bestehend aus einem Datenhandschuh und einem berührungsempfindlichen<br />

Display dynamischen den aktuellen Anforderungen anpassen kann [VKL+02].<br />

6.7 Geodatensysteme<br />

Ein Anwendungsgebiet für Augmented-Reality Systeme sind die<br />

Visualisierung von Geoinformationen, die als virtuelle Objekte die<br />

Objekte der realen Welt überlagern. So könne z.B. unterirdische<br />

Versorgungsleitungen, Grundstücksgrenzen oder Mineralienvorkommen<br />

beim Blick auf die reale Welt eingeblendet werden. Diese<br />

Informationen helfen dem Nutzer die vorliegende Situation, besser<br />

einschätzen zu können.<br />

6.8 Automobilsektor<br />

Augmented-Reality ist für den Automobilsektor in vielerlei Hinsicht<br />

interessant. Der Einsatz solcher Techniken beginnt beim Entwurf, setzt<br />

sich beim Fertigungsprozess fort und endet bei Sicherheitstechniken<br />

während der Fahrt. Bei Crashtests im Rahmen des ARVIKA Projekts<br />

können Augmented-Reality die berechnete Verformung der realen<br />

Verformung überlagern, so dass der Entwicklungsingenieur die Differenzen<br />

schnell erkennen kann [ARVIKA03] So können zum Beispiel während der Fahrt bei<br />

Nebel oder in der Nacht zusätzliche Informationen zu Gefahrenquellen auf die Windschutzscheibe<br />

projiziert werden (Head-Up-Display). Auch bei der Wartung von Automobilen<br />

können in Zukunft Augmented-Reality Techniken als Unterstützung genutzt werden [TZ00].


192 Display Technologien<br />

6.9 Architektur<br />

Auch in der Architektur ergeben sich viele Anwendungsmöglichkeiten, so kann das Aussehen<br />

einer neuen Einrichtung oder Änderung an Räumen und Bauwerken ohne Eingriffe an der<br />

realen Welt schnell und kostengünstig bewertet werden.<br />

6.10 Sport<br />

Auch im Fernsehen wird Augmented-Reality in einfacher Form bereits intensiv genutzt. So<br />

werden z.B. bei Fußballübertragungen die Abstände zum Tor oder zur Freistossmauer<br />

zusätzlich eingeblendet. Beim Skispringen wird die kritische Marke rot hervorgehoben. Und<br />

bei Schwimmwettbewerben wird die Position, die die Schwimmerin erreichen muss, um einen<br />

Rekord zu schwimmen dynamisch angezeigt.<br />

6.11 Augmented-Reality mit Handhelds<br />

Handheld Computer können aufgrund ihrer kleinen Bauform vielfältig in Augmented-Reality<br />

Szenarien verwendet werden. Interessante Anwendungen sind ortsbasierte Informationen zu<br />

Kunstgegenständen in einem Museum. Im Krankenhaus ist die Einführung der digitalen<br />

Krankenakte denkbar, die beim Betreten des Raumes gleich die Daten des richtigen Patienten<br />

anzeigt. Auch Navigationsanwendungen, die dem Anwender seine aktuelle Position im<br />

Stadtplan auf dem Display anzeigen, sind heute bereits machbar und werden in Verbreitung<br />

mit der UMTS Technik tägliche Realität werden [SMT02].<br />

Wird der Handheld mit einer Kamera kombiniert, kann man ihn wie ein Fenster oder eine<br />

Vergrößerungsglas benutzen, das die realen Objekte mit den überlagerten virtuellen zeigt.<br />

Abbildung 34: Landeanflug mit Retina-Display<br />

Eine interessante Anwendung im Bereich der privaten Fliegerei ist das Normad Personal<br />

Flight System. Hier wird das Retina-Display der Firma Microvision Inc. mit einem Handheld<br />

vom Typ Compaq iPAQ ® gekoppelt, der unter dem Betriebssystem Windows CE auf der<br />

Plattform Pocket PC 2002 läuft. Die Flugdaten wie z.B. Geschwindigkeit, künstlicher Horizont,<br />

GPS Position und Uhrzeit werden über eine genormte Schnittstelle zwischen Flugzeug<br />

und Handheld ausgetauscht, der diese Daten dann aufbereitet und dem Retina-Display zur<br />

Projektion zur Verfügung stellt (Abbildung 34)<br />

Das Bundesministerium für Bildung und Forschung fördert von 2001-2004 ein Projekt für<br />

Augmented-Reality mit einem mobilen digitalen Assistenten [ARPDA03]. Ziel des AR-PDA<br />

Projektes ist es die Augmented-Reality Technologie für Endanwender im täglichen Umfeld<br />

zur Verfügung zu stellen. Der Anwender visiert mit der am Handheld befestigten Kamera ein<br />

reales Objekt. Die Bilder werden über Video-Streams via UMTS an einen Server geleitet, der<br />

die Bilder analysiert, um virtuelle Objekte anreichert und zum Handheld zurück sendet<br />

[Fr02] [GKRS03]. Als Anwendungsfelder sind zunächst folgende Szenarien geplant: Haushalt<br />

(z.B. Assistenz bei der Programmierung eines Videorekorders), Einkauf (Visualisierung von<br />

Erklärungen zu Hausgeräten) sowie Reparatur (Hotline Kontakt und Hinweise für den<br />

Kundendienst vor Ort) [FGGK01].


193 Dirk Schröder<br />

7 Produktübersicht<br />

Im Folgenden soll eine grobe Übersicht über die am Markt erhältlichen Augmented-Reality<br />

System gegeben werden. Diese Übersicht erhebt keinen Anspruch auf Vollständigkeit,<br />

sondern zeigt für die verschiedenen Systeme einige Beispiele der erhältlichen Produkte.<br />

Weiterführende Produktinformationen finden Sie z.B. in [EST] und [S3D].<br />

7.1 Head-Mounted Displays<br />

n-Vision Datavisor SeeThrough<br />

Durchsicht-Display<br />

640 x 480<br />

78° x 52° Sichtfeld (horizontal x vertikal)<br />

1590 g<br />

7995 € (Preis vor Steuer)<br />

Kaiser Electro Optics Pro View XL50 STm<br />

Durchsicht-Display<br />

1024 x 768 monochrom grün<br />

27° x 48° Sichtfeld<br />

24 % Transmission<br />

794 g<br />

50.000 €<br />

MicroOptical SV-3 Instrument Viewer<br />

Durchsicht-Display (kein 3D)<br />

640 x 480 Farbe<br />

16° x 19° Sichtfeld<br />

35 g<br />

1250 €<br />

8 Stunden maximale Arbeitsdauer<br />

Kaiser Electro Optics Pro View SO35 Monocular<br />

Video-Durchsicht-Display (kein 3D)<br />

800x600 Farbe<br />

32° x 24° Sichtfeld<br />

348 g<br />

Militärische Kampfausrüstung beständig gegen:<br />

Feuchtigkeit, Wasser, Salz und Vibration<br />

10500 €<br />

Kaiser Electro Optics Pro View XL35<br />

Video-Durchsicht-Display<br />

1024x768 Farbe<br />

21° x 28° Sichtfeld<br />

992 g<br />

19500 €


194 Display Technologien<br />

7.2 Retina-Display<br />

Microvision Normad ND 1000<br />

Retina Display (kein 3D)<br />

800 x 600 monochrom rot<br />

32 Graustufen<br />

23° x 17° Sichtfeld<br />

765 g<br />

7495 €<br />

7.3 Monitor-System<br />

Virtual Research Window VR<br />

Monitor System (kein 3D)<br />

1600 x 1200 Farbe<br />

Touchscreen und Montierung zum Tracking<br />

15000 €<br />

7.4 Projektion<br />

Fakespace Systems CAVE<br />

Projektionssystem für VR<br />

1280 x 1024 Farbe<br />

3 m x 3,6 m Projektionsfläche<br />

Shutter-Brillen<br />

1200 kg<br />

> 100.000 €


195 Dirk Schröder<br />

Referenzen<br />

[ABB+01] Azuma R., Baillot Y., Behringer R., Feiner S., Julier S., MacIntyre B. (2001):<br />

Recent Advances in Augmented Reality<br />

IEEE Computer Graphics and Applications 21, 6 (Nov/Dec 2001), 34-47<br />

[Az97] Ronald A. (1997):<br />

A Survey of Augmented Reality<br />

Presence: Teleoperators and Virtual Environments 6, 4 (August 1997), 355 - 385<br />

[ARPDA03] Fründ, J. (2003):<br />

Ein digitaler mobiler Assistent für VR/AR-Inhalte<br />

www.ar-pda.de<br />

[ARVIKA03] Projekt des BMBF zur Untersuchung der Mensch-Technik-Ineraktion<br />

Projektkoordinator Siemens AG, Nürnberg (2003):<br />

ARVIKA - Augmented Reality für Entwicklung, Produktion und Service<br />

www.arvika.de/www/index.htm<br />

[De02] Denby B. (2002):<br />

Augmented Reality for Subsurface Visualisation<br />

Seminar und Workshop University of Nottingham 17.06.2002 AIMS<br />

www.nottingham.ac.uk/aims/ar-seminar/imain.htm<br />

[Es89] Escher M. C. (1989):<br />

Graphiken und Zeichnungen,<br />

Taco Verlaggesellschaft und Agentur mbH Berlin<br />

[EST] EST, Engineering Systems Technologie, Kaiserslautern, Deutschland<br />

Marktübersicht Augmented-Reality und Virtual-Reality Systeme<br />

www.est-kl.com<br />

[FGGK01] Fründ J., Geiger Ch., Grafe M., Kleinjohann B. (2001):<br />

The Augmented Reality Personal Digital Assistant<br />

Proceeding of Int. Conf. on Mixed Reality, Yokohama, Japan<br />

[Fr02] Fründ J. (2002):<br />

Verbundprojekt AR-PDA<br />

wwwhni.uni-paderborn.de/vr/ar-pda/index.php3<br />

[Ge00] Gerold A. (2000):<br />

Augmented Reality<br />

Ausarbeitung zum Seminar "Aktuelle Themen zu Benutzungsschnittstellen" SS 2000<br />

Bei Prof. Dr. Gerd Szwillus Universität Paderborn<br />

www.uni-paderborn.de/cs/ag-szwillus/lehre/ss00/seminar/Ausarbeitungen/Gerold/<br />

[GKRS03] Geiger Ch., Kleinnjohann B., Reimann Ch., Stichling D. (2003):<br />

Mobile AR4ALL<br />

2nd IEEE and ACM International Symposium on Augmented Reality (ISAR'01)<br />

New York, October 29 - 30, 2001, p. 181<br />

www1.cs.columbia.edu/graphics/courses/mobwear/resources/geiger-isar01.pdf<br />

[Hi03] HIT Lab (2003):<br />

Virtual Retinal Display (VRD) Group<br />

www.hitl.washington.edu/projects/vrd/<br />

[Ja01] Vallino J. (2001):<br />

Introduction to Augmented Reality<br />

Department of Software Engineering Rochester<br />

www.se.rit.edu/~jrv/research/ar/introduction.html


196 Display Technologien<br />

[Ku02] Kunz A. (2002):<br />

Einsatz der Augmented Reality zur Unterstützung von e-Commerce und e-Business<br />

Eidgenössisch Technische Hochschule Zürich (ETH) Gastvorlesung in St. Gallen zum<br />

Thema „Augmente Reality“<br />

www.ikb.mavt.ethz.ch/NewPortal/Lehre/Weiterbildung/Vortraege/<br />

kunz2002-06-05_09.42.55.810/augmented_slides.pdf<br />

[Micro] Microvision Incorporation:<br />

Produkthomepage der Firma Microvision<br />

www.mvis.com<br />

[MK94] Milgram, P. and F. Kishino (1994):<br />

A Taxonomy of Mixed Reality Visual Displays<br />

IEICE Trans, on Information and Sstems Vol. E77-D(12): 1321-1329<br />

[MP01] Möske M., Preuss P. (2001):<br />

Spatial-Aware Ubiquitous Computing<br />

VIROR-Teleseminar WS 2001/2002 Universität Mannheim<br />

Praktische Informatik IV Prof. Dr. W. Effelsberg<br />

tele.informatik.uni-freiburg.de/Teaching/ws01/UbiComp/spatial1.pdf<br />

[No02] Vinko Novak (2002):<br />

Virtual and Augmented Reality<br />

www.mmk.ei.tum.de/~alt/ebof/vlss02/kref_ebof02_Virtual_Reality.pdf<br />

[Pa02] Paetzel M. (2002):<br />

Trackingsysteme<br />

Seminarausarbeitung an FH Karlsruhe bei Prof. Dr. Norbert Link Juni 2002<br />

www.fbi-lkt.fh-karlsruhe.de/~lino0001/skripte/Seminararbeiten/Martin%20<br />

Paetzel%20-%20Trackingsysteme/Trackingsysteme.doc<br />

[RF01] Rolland J. P.; Fuchs H. (2001):<br />

Optical versus Video See-Trough Head-Mounted Displays,<br />

Aus Fundamentals of Wearable Computers and Augmented Reality,<br />

Lawrence Erlbaum Associates, Inc. Publishers, 2001, 113-156<br />

[Ru99] Rügge I. (1999):<br />

Alternativen zum Desktop: Virtual, Augmented und Real Reality<br />

Frauenarbeit und Informatik, 19/1999, S.17-22.<br />

www.informatik.uni-bremen.de/~ruegge/PDF-Dateien/GI-R19-99-RR.pdf<br />

[SMT02] Steuer J., Meincke M., Tondl P. (2002):<br />

Hightech-Mobilfunk<br />

c’t 2002, Heft 8, Seite 222-227<br />

[STC+96] State A., Hirota G., Chen D. T., Garrett W. F., Livingston M.A. (1996):<br />

Superior Augmented-Reality Registration by Integrating Landmark Tracking and<br />

Magnetic Tracking<br />

Proceedings of SIGGRAPH 96 (New Orleans, LA, August 4-9, 1996). In Computer<br />

Graphics Proceedings, Annual Conference Series 1996, ACM SIGGRAPH, 429-438<br />

[S3D] Produktseite für 3D-Anwendungen und Virtual Reality<br />

www.stereo3d.com<br />

[SVH+02] Suthau T., Vetter M., Hassenpflug p., Meinzer H.-P., Hellwich O. (2002):<br />

Konzeption zum Einsatz von Augmented Reality in der Leberchirurgie<br />

E. Seyfert (Hrsg.), Publikationen der Deutschen Gesellschaft für Photogrammetrie und<br />

Fernerkundung, Band 11, 22. Wissenschaftlich-Technische Jahrestagung der DGPF<br />

24.-26. November 2002, Neubrandenburg, S.427-438


197 Dirk Schröder<br />

[TZ00] Technologie-Zentrum Informatik Universität Bremen (FB 3) (2000):<br />

TZi aktuell<br />

1.Ausgabe 2000 www.tzi.de/aktuell<br />

[VKL+02] Veigl S., Kaltenbach A., Ledermann F., Reitmayr G., Schmalstieg D. (2002):<br />

Two-Handed Direct Interaction with ARToolKit<br />

Proceedings of the IEEE First International Workshop on ARToolKit, 2002<br />

www.ims.tuwien.ac.at/media/documents/publications/PinchGloveFinal.pdf


Wearcomp, Personal Imaging und Mediated Reality<br />

Grundlagen, Konzepte und Visionen<br />

Klaus Liedel<br />

Am Ölper Berge 4<br />

38114 Braunschweig<br />

klaus_liedel@yahoo.com<br />

Zusammenfassung: Bei WearComp handelt es sich um eine Spezialisierung und<br />

Erweiterung des Begriffes der „ergänzten Wirklichkeit“ (augmented reality). Prof. Dr.<br />

Steve Mann an der Universität in Toronto beschäftigt sich seit etwa 20 Jahren damit die<br />

Realität des Individuums nicht nur mit nützlichen Details zu ergänzen, sondern durch die<br />

Möglichkeiten der modernen Elektronik und Informationsverarbeitung neu zu gestallten,<br />

zu filtern und alleine als Realität darzubieten, zumindest soweit dies möglich ist<br />

(eingeschränkt ist dies etwa im Bereich der Schwerkraft, die nicht herausgefiltert werden<br />

kann, zumindest momentan noch nicht).<br />

1 Einleitung<br />

Steve Mann hatte bereits als Student am MIT (Massachusetts Institute of Technology) damit begonnen<br />

die verschiedenen Möglichkeiten der Informationselektronik und der damit verbundenen<br />

Wissenschaftsbereiche im täglichen Leben auszuloten. So gilt er als Mitbegründer des MIT Wearable<br />

Computing Projects. Prof. Mann beschreibt seine Erfindung WearComp (als Kürzel zur Beschreibung<br />

des Begriffes des „wearable Computers ") als Werkzeug für "vermittelte Wirklichkeit". WearComp<br />

entstand im Kontext der fotographischen Werkzeuge als zutreffende Verlängerungen des Verstandes<br />

und des Körpers und soll nach Steve Mann eine philosophische Grundlage für die Selbstbestimmung<br />

und Erweiterung des Individuums darstellen. Andererseits aber auch zur Konzentration des Einzelnen<br />

auf das als zeitlich und räumlich wesentlich dienen.<br />

Bei den Recherchen z.B. im Internet findet man zwar unter den Begriffen wearable oder tragbare<br />

Computer eine schier endlose Liste von Seiten doch sind diese vor allem damit befasst, dass es sich<br />

um tragbare Rechner jeder Ausführung handelt. Ohne die speziellen Zusatzeigenschaften, die nach den<br />

Definitionen von Prof. Mann einen WearComp ausmachen. Diese werden noch im weiteren<br />

ausgeführt.<br />

Die gängigen Ausprägungen des unter dem Begriff des tragbaren Computers zusammengefassten<br />

gehen von Notebooks über Palmtops bis zu spezielleren Ausprägungen, wie etwa in Kleidungsstücke<br />

integrierte Computer, oder anderen Instrumenten der erweiterten (augmented) und vermittelten<br />

(mediated) Realität.<br />

Ich möchte mich in meinen Ausführungen alleine auf den Bereich der Mediated Reality beschränken<br />

da nach der Durchsicht der Themenbereiche dieser Seminarreihe bereits andere Teilnehmer die<br />

Bereiche der Augmented Reality zusammenfassen werden.<br />

Ein wearable Computer nach der Definition von Prof. Mann ist ein Computer, der den persönlichen<br />

Raum des Benutzers zusammenfasst und dies gesteuert vom Benutzer. Der Computer ist permanent<br />

funktionsfähig und interaktionsbereit. Vornehmlich, ist es ein Werkzeug, das ein ständiger Begleiter<br />

des Benutzers ist, der Benutzer kann ständig Befehle übergeben und diese werden vom System


200 Wearcomp, Personal Imaging und Mediated Reality<br />

abgearbeitet. Der Benutzer ist räumlich nicht fixiert ja die Portabilität des gesamten Systems ist<br />

zwingend erforderlich und einer der auffallendsten Aspekte.<br />

Weiter stellt der WearComp mehr dar als einen transportablen Computer herkömmlicher Art (z. B.<br />

Notebook oder Palmtop). Das Computersystem ist aber auch mehr als nur eine Erweiterung der Geräte<br />

des Alltags wie etwa ein Handy oder Kombinationen in der Funktionalität wie etwa Brillen mit<br />

Hörgerät oder Armbanduhren mit Taschenrechner und Telefon. Der WearComp hat die volle<br />

Funktionalität eines Computersystems, aber zusätzlich ist er auch fest mit dem Träger verbunden (in<br />

den Veröffentlichung zu diesem Thema allerdings nur rein oberflächlich, also ohne Implantationen<br />

von Teilen z.B. unter die Haut).<br />

Als Computer ist der WearComp programmierbar, nach Prof. Mann soll er so wie der eigene<br />

Schreibtisch nach den individuellen Vorzügen veränderbar und modifizierbar sein. Er gleicht<br />

sozusagen einem mitarbeitenden Kleidungsstück bzw. einer Vorinstanz, die die eintreffenden<br />

Informationen nach vorgegebenen Maßstäben filtert und entsprechend auch modifiziert. Und als<br />

lernende Einheit, die somit nach dem Beginn des Tragens durch den jeweiligen Benutzer sich diesem<br />

anpasst und im Anschluss, nicht nur aufgrund der evtl. vorhandenen Unterschiede in der<br />

Physiognomie, auf den einzelnen Träger zugeschnitten ist.<br />

Im einzelnen werden die Eigenschaften des WearComp wie folgt beschrieben [MAN01].<br />

1.1. Konstanz<br />

Der WearComp ist permanent vorhanden, dies ist keine Option sondern die Anwesenheit und der<br />

Betrieb ist ein Fakt, ähnlich evtl. der Armbanduhr oder für einen Teil der Bevölkerung das Handy und<br />

die damit einhergehend existiert eine ständige Erreichbarkeit. Der Computer ist permanent<br />

empfangsbereit und interagiert mit dem Träger von dem er ständig Informationen aufnimmt. Weiter<br />

registriert der Computer aber auch die Außenwelt von der er ebenfalls Informationen aufnimmt, diese<br />

gibt er ggf. modifiziert an den Träger weiter oder speichert sie zur späteren Benutzung zwischen.<br />

(siehe Bild 1.1 im Anhang).<br />

Dies bedeutet dann allerdings auch eine gewisse Gewöhnung des Trägers an den Computer bzw. seine<br />

Möglichkeiten. Es handelt sich also nicht nur um eine zeitliche Option sondern gerade das Wesentlich<br />

an einem WearComp ist die ständige Verfügbarkeit und Anwesenheit, ähnlich eines Kleidungsstückes<br />

oder noch mehr als ein solches, denn diese werden gewechselt, der WearComp, nach dieser<br />

Darstellung nicht oder zumindest müsste dann das Wissen und die Fähigkeiten oder das Erlernt an das<br />

nächste Individuum weitergegeben werden. Über diese Notwendigkeiten wurde allerdings nichts<br />

explizites verlautbart.<br />

Die Konstanz des WearComps bedeutet natürlich auch, dass dieser keine Abstürze oder<br />

Endlosschleifen hat sondern absolut stabil und fehlerfrei läuft.<br />

1.2. Informationsvermittlung<br />

Steve Mann beschreibt als eine der Hauptaufgabe des WearComp nicht das Rechnen im weiteren<br />

Sinne, nach seiner Ansicht ist eine der wesentlichsten Aspekte die Befreiung des Trägers von<br />

Aufgaben, die dieser sonst zu erledigen hätte. Der Computer soll ihm übertragene Aufgaben<br />

weitgehend selbständig erledigen und sich nur falls erforderlich beim Träger melden. Er soll den<br />

Benutzer von Aufgaben befreien und diesem dann andererseits allerdings zur Erledigung der restlichen<br />

Aufgaben noch mit Zusatzinformationen behilflich sein (siehe Bild 1.2 im Anhang).<br />

Dies impliziert dann allerdings die Frage der Konformität der Ausführungen des WearComp mit den<br />

Wünschen des Trägers. Es müsste folglich eine Art des Erlernens des Willens des Trägers erfolgen, da<br />

es sonst ja zu einer Situation wie in kritischeren Science Fiktion Romanen käme, dass die Individuen<br />

durch eine wie auch immer geartete Obrigkeit gesteuert und in ihrer Individualität beschränkt werden.<br />

Ob zum Wohle aller oder weniger sei hier nicht entschieden.<br />

Eine weitere Frage ist die permanente Erneuerung des Wissens der Maschine über den Träger<br />

derselben. Dies einerseits da der Träger seine Entscheidungen und Vorlieben durchaus auch ändern<br />

könnte, andererseits sind so manche Entscheidungen ja z.B. auch von ganz banalen Dingen wie der


201 Klaus Liedel<br />

Tageszeit abhängig, z. B. Nahrungszufuhr und deren Vorbereitungen wie etwa Verabredungen zum<br />

Mittagessen oder ähnliches.<br />

1.3. Separation<br />

Nach Steve Mann sollte der WearComp dem Träger auch eine partielle bzw. totale Abschottung zur<br />

Umwelt ermöglichen, dies einerseits zur Konzentration auf die wesentlichen Aufgaben bzw. um<br />

Störungen zu vermeiden und andererseits auch um eine Privatsphäre zu garantieren, etwa durch die<br />

Verhinderung des direkten Augenkontaktes.<br />

Um Störungen des Trägers zu verhindern soll der WearComp die eingehenden Informationen<br />

verarbeiten und gefiltert nur die für den Träger entscheidenden weiterleiten, dies soll nach Möglichkeit<br />

zeitnah, also ohne wesentliche Verzögerung, geschehen. Es soll also die Möglichkeit gegeben werden<br />

dem Träger einen gegen die Außenwelt abgeschirmten und nicht zu beeinflussenden Innenraum zu<br />

gestallten, der nach den individuellen Wünschen und Bedürfnissen gestaltet und entsprechend den<br />

zeitlichen Bedürfnissen modifiziert werden kann. So wäre der Träger etwa gegen werbende<br />

Maßnahmen aller Art unempfänglich, außer natürlich falls er diese zu empfangen wünscht (siehe Bild<br />

1.3 im Anhang).<br />

Diese Ausprägung der Maschine würde in der endgültigen Form auch die komplette Verhüllung des<br />

Trägers einschließen. Steve Mann gibt als wichtiges Beispiel der Trennung die Verhinderung des<br />

Augenkontaktes bzw. den Schutz der Augen des Trägers vor der Einsichtnahme an. Letztendlich ist<br />

die Augenreaktion aber nur eine Reaktionsweise auf eingehende Informationen des Einzelnen, weitere<br />

wären Bewegungen, die Körperhaltung oder auch die Haut als Organ. Ein Beispiel hierfür sind die bei<br />

einem Lügendetektor abgefragten Hauteigenschaften, die man ja auch teilweise im<br />

zwischenmenschlichen Kontakt erkennen kann. Dies würde dann der Individualität des Einzelnen<br />

entgegenstehen. So arbeiten ja auch viele psychologische Erkenntnismethoden mit den individuellen<br />

Ausprägungsformen, Kleiderfarben, Ausdrucksweisen oder –formen. Diese sind individuell, aber<br />

letztendlich auch verräterisch im Sinne der Möglichkeit Rückschlüsse auf den Einzelnen anzustellen.<br />

1.4. Die sechs Attribute der Signalwege eines WearComp<br />

Es gibt nach Steve Mann sechs wesentliche Eigenschaften der Signalwege, die den WearComp<br />

auszeichnen, sie kennzeichnen sich durch eine gewisse Synergie von Mensch und Maschine aus,<br />

allerdings unter Führung des Menschen. Diese Attribute der Flusswege des wearable Computers<br />

werden wie folgt, vom Standpunkt des Nutzers aus beschrieben:<br />

1.4.1 Fehlende Ausschließlichkeit<br />

Soll heißen dass die Aufmerksamkeit des Benutzers durch den Rechner nicht restriktiv von der<br />

äußeren Welt abgetrennt wird, wie etwa in einem virtuellen Computerspiel oder dergleichen. Der<br />

Nutzer erhält durch die Maschine die Möglichkeit sich auf andere Angelegenheiten zu konzentrieren.<br />

Idealer Weise soll der Nutzer durch den Gebrauch des WearComp eine Verbesserung der sensorischen<br />

Fähigkeiten erhalten. Er kann die sensorischen Fähigkeiten bewusst in jeglicher Richtung beeinflussen<br />

(vergrößern, vermindern oder auf spezielle Bereiche konzentrieren).<br />

Der Computer bietet in diesem Sinne also die Möglichkeiten den eigenen Wünschen entsprechend die<br />

Fähigkeiten speziell zu trainieren und entsprechend, soweit möglich, zu verbessern. So dass der Träger<br />

auch die Möglichkeit hat evtl. unterschiedliche Sichtweiten oder Ansichten einer Situation alleine<br />

dadurch zu erhalten indem er den WearComp zur Filterung unterschiedlicher Eingangsinformationen<br />

veranlasst, wie etwa alleine akustische Signale oder die optischen unter Berücksichtigung der<br />

Wärmestrahlung oder anderer Details. Oder natürlich auch im Bedarfsfalle die maximale<br />

Informationsbreite über einen Gegenstand des Interesses zu erhalten, inklusive möglicher<br />

Zusatzinformationen, etwa über das Internet oder andere Kommunikationswege.<br />

1.4.2. Unbeschränktheit des Trägers<br />

Der Benutzer unterliegt während der Nutzung keinerlei zusätzlicher Beschränkungen. Er kann sich<br />

seine Tätigkeit und auch Aufenthaltsort weiterhin frei wählen, auch die Art und Weise der Tätigkeiten<br />

unterliegt keiner zusätzlichen Auflage.


202 Wearcomp, Personal Imaging und Mediated Reality<br />

Der Träger ist räumlich und auch zeitlich nicht gebunden, um dies zu erreichen bedarf es der<br />

ausreichenden Versorgung des WearComp mit Energie, d.h. er benötigt letztendlich eine schier<br />

endlose Energiereserve oder die Möglichkeit überall neue Energiequellen anzuzapfen und für sich<br />

nutzbar zu machen.<br />

Weiter bedeutet diese Unbeschränktheit aber auch, dass der WearComp sehr leicht sein muss und auch<br />

sonst so gestaltet ist, dass er für den Träger keine Einschränkung z.B. der Bewegungsfähigkeit oder<br />

der individuellen Leistungsmöglichkeiten darstellt, am besten so als wäre der WearComp für den<br />

Träger physisch überhaupt nicht vorhanden, oder er stellt einen so essenziellen Teil des eigenen<br />

Lebens dar, dass man diesen eher bei der Abwesenheit vermissen würde, wie etwa die eigene<br />

Kleidung.<br />

1.4.3. Beobachtbarkeit<br />

Der Nutzer erhält die Möglichkeit der uneingeschränkten Kontrolle über den Rechner und seine<br />

Aktionen. Er kann das gesamte Spektrum der Aktionen des Computers jederzeit beobachten. Die<br />

Ausgabe bzw. die Darstellung nach außen ist innerhalb der systembedingten Beschränkungen vom<br />

Träger wahrnehmbar (z.B. ist der Schirm nicht direkt von außen ohne eine Übermittlung des Rechners<br />

einsehbar).<br />

Somit ist es dem Träger ständig möglich in die Aktionen des Rechners Einsicht zu nehmen, dies spielt<br />

auch für den nächsten Punkt eine entscheidende Rolle. Diese Einsichtnahme gilt laut Prof. Mann<br />

zunächst einmal für die Aktionen des WearComp nach außen, es müsste allerdings bei der<br />

beschriebenen allumfassenden Beobachtungsmöglichkeit auch für die internen Vorgänge des<br />

WearComp gelten, so etwa die Abspeicherung der Umgebung bzw. der Aktionen des Trägers. Dies<br />

natürlich auch deshalb da der WearComp in diesem Fall ein Instrument der möglichen Kontrolle des<br />

Trägers darstellen würde, etwa abrufen der gespeicherten Aktionen des Trägers von außen.<br />

1.4.4. Kontrollierbarkeit<br />

Der Computer unterliegt der ständigen Kontrolle und Beeinflussbarkeit durch den Benutzer. Man kann<br />

die Steuerung je nach Wunsch jederzeit an sich nehmen. Auch die automatisierten Prozessen können<br />

jederzeit manuell übernommen werden, um etwa Steuerschleife zu durchbrechen und Teil der Schleife<br />

anders zu konfigurieren. Dies könnte beispielsweise durch eine Halttaste geschehen, die den Computer<br />

in seiner Tätigkeit sofort unterbricht.<br />

Die Kontrollierbarkeit schließt natürlich, wie oben bereits angedeutet die Beobachtbarkeit der<br />

Aktionen des WearComp voraus. Auch in diesem Punkte muss eigentlich davon ausgegangen werden,<br />

dass der Träger auch die Speicherung der Daten mit kontrolliert, sonst wäre der WearComp nicht ein<br />

ausschließlich vom Träger kontrolliertes Instrument, sondern hätte letztendlich auch ein<br />

Kontrolloption des Trägers, die wohl dann auch in irgendeiner Art und Weise von außen genutzt<br />

werden dürfte.<br />

Falls eine Datenspeicherung vorgenommen wird, was teilweise zur Erfüllung der Vorbedingungen<br />

notwendig erscheint, so ist auch die Einsichtnahme und Zerstörung dieser Daten der Einflussnahme<br />

durch den Träger zu unterstellen. Da ja eben auch hierin ein Individualitätsverlust und eine Form der<br />

Überwachung von außen stattfinden könnte, was ja dem Konzept des WearComp von Steve Mann<br />

widersprechen würde..<br />

1.4.5. Konzentration auf die Umgebung<br />

Die Verbesserung der Aufnahmemöglichkeiten und –fähigkeiten schafft beim Nutzer ein neues und<br />

tieferes Bewusstsein für seine Umgebung. Er nimmt seine Umgebung intensiver war, da die<br />

unwesentlichen Aspekt ausgefiltert werden und er durch die Modifikation andere Daten zusätzlich mit<br />

als Informationen erhält (z.B. Umweltdaten wie Luftdruck oder Luftfeuchtigkeit, aber auch<br />

verbesserte visuelle Informationen etwa nachts).<br />

Der Träger kann sich somit auf die für ihn nötigen oder interessanten Details konzentrieren und der<br />

Rechner erledigt für ihn den langweiligen oder auch unangenehmen Rest. Die Entscheidung über die<br />

Objekte der Konzentration(en) obliegen hier, wie auch sonst, dem Träger des WearComps. Hierzu<br />

sind die oben beschriebenen Eigenschaften von entscheidender Bedeutung.


203 Klaus Liedel<br />

Dies bedeutet allerdings auch eine höhere Verantwortung des Einzelnen über die neuen Möglichkeit.<br />

So etwa auch diese Möglichkeiten zu nutzen und sich entsprechend weiter zu entwickeln bzw. die<br />

Umgebung entsprechend zu beeinflussen und nicht nur die Informationen egoistisch zum eigenen<br />

Nutzen zu gebrauchen.<br />

Dies bedeutet dann allerdings in der Gesamtheit auch eine Charakterstärke des Trägers, die ihm der<br />

Rechner wohl nicht, auch in fernerer Zukunft nicht, vermitteln kann. Sondern dies stellt eine<br />

notwendige Voraussetzung des Nutzers dar.<br />

1.4.6. Kommunikationsfähigkeit<br />

Der WearComp verfügt über erweiterte Möglichkeiten der Kommunikation mit anderen. Einerseits zur<br />

Kommunikation über die Distanz, etwa vergleichbar einem Mobiltelefon, andererseits aber auch durch<br />

Verstärkung der Stimme wie ein Megaphon. Aber auch eine ganz andere Form der Expressivität auf<br />

künstlerischem Niveau werden hier durch Prof. Mann beschrieben.<br />

Es ist hier einerseits natürlich die gesamte Palette der derzeit bereits möglichen Formen der<br />

Kommunikation via z.B. Telefon und Internet zu nennen. Andererseits aber auch noch weitere<br />

Maßnahmen, wie etwa der Verbindung dieser Möglichkeiten über Konferenzschaltungen mit<br />

zusätzlichen Videoanbindungen oder eben auch der Onlineunterstützung bei der<br />

Entscheidungsfindung bzw. bei Ausführung von Aktionen. Dies zwar vor allem im beruflichen<br />

Bereich, allerdings sind den Möglichkeiten dann natürlich auch auf dem privaten Sektor keine<br />

Einschränkungen gesetzt.<br />

Der Träger könnte natürlich manche Aufgaben zeitweise auch an andere, räumlich evtl. getrennte,<br />

Personen übertragen, die via Telemetrie über die Möglichkeiten des WearComp verfügen könnten.<br />

Hier dann auch immer unter Einhaltung der vorgenannten Eigenschaften, dass der Träger immer auch<br />

Träger der obersten Entscheidungen über den WearComp ist und alle seine Aktionen, auch die<br />

fremdgesteuerten, beobachten und beeinflussen kann.<br />

Es sind dann verschiedene Szenarien denkbar, einerseits natürlich die nicht ganz korrekte Nutzung der<br />

Fähigkeiten anderer, wie etwa bei individuellen Leistungsnachweisen, falls diese dann überhaupt noch<br />

notwendig sein sollten, andererseits aber auch die mögliche unerlaubte Einflussnahme durch andere.<br />

Auch wenn dies theoretisch durch den Träger kontrolliert wird ist es diesem dennoch sicherlich nicht<br />

möglich alle diese doch sehr vielen Kanäle gleichzeitig zu kontrollieren.<br />

Auch in diesem Teilbereich wäre es allerdings denkbar, dass der Rechner gewisse Hilfsmittel zur<br />

Verfügung stellt um die Einflussnahme von außen zu kontrollieren, z.B. über eine Freigabe<br />

entsprechender Bereiche durch den Träger. Oder natürlich auch durch die Protokollierung der<br />

Tätigkeiten.<br />

2 Technische Realisierung<br />

Die Realisation der oben genannten Anforderungen gestalltet sich natürlich unterschiedlich schwierig.<br />

Die größten Probleme sind hier einerseits in der ständigen Verfügbarkeit und der zeitnahen<br />

Aufarbeitung der Signale von Innen (Benutzer) und Außen (Umgebung) zu sehen. Und weiter eben<br />

auch in der Abschirmung des Benutzers vor direktem Einfluss der Außenwelt, die man vielleicht auch<br />

als Lecks der Abschirmung bezeichnen könnte.<br />

Zur Realisierung wird zunächst die visuelle Seite der vermittelten Realität näher untersucht, es wird<br />

ein spezielles Glas vorgeschlagen sog. „Lightspace – Analysator“, das in der Lage sein sollte alle auf<br />

es gerichtete Strahlung zu absorbieren und quantitativ zu analysieren. Es ist ein Glas, das vollkommen<br />

lichtundurchlässig ist, das allerdings alle ankommenden Photonen analysiert und das Ergebnis in<br />

numerischer Form weiterleitet. Der Lightspace - Analysator muss nicht unbedingt flach sein, es sind<br />

auch durchaus andere Formen, etwa gekrümmt wie ein Brillenglas denkbar (siehe Bild 2.1 im<br />

Anhang).<br />

Weiter wäre eine Form der Generierung von Bildern in umgekehrter Form wie die Analyse durch den<br />

Lightspace – Analysator nötig. Dieser wird als „Synthesizer – Lightspace“ bezeichnet. Es hätte die


204 Wearcomp, Personal Imaging und Mediated Reality<br />

Aufgabe aus einem Eingangsstrom von Zahlen entsprechende Lichtquanten zu generieren (siehe Bild<br />

2.2 im Anhang).<br />

Nimmt man nun den Ausgang des Analysators und verbindet diesen mit dem Eingang des<br />

Synthesizers so hat man eine elektronische Transparenz geschaffen. Das Ziel soll allerdings ein sehr<br />

dünnes Gebilde sein, das einem die Möglichkeit gib den Analysator und den Synthesizer eng<br />

aneinander liegend zu bauen und so die elektronische Transparenz so wie den natürlichen Durchtritt<br />

durch z.B. eine Brille zu gestallten. Und als weiters, sozusagen finales, Element müsste dann in die<br />

Bitströme der oben beschriebene WearComp mit integriert werden, so dass die wahrgenommene<br />

Realität nicht eine direkt übertragene sondern vermittelte d.h. gefiltert und modifizierte wäre (Siehe<br />

Bild 2.3 im Anhang).<br />

In der bisherigen Praxis wurden die Realisierungen allerdings in Ermangelung von Lightspace durch<br />

andere Konstrukte durchgeführt. Hier dienten vor allem Kameras zur Lichtaufnahme und kleine<br />

Bildschirme zur Übermittlung an den Benutzer. Die Darstellungen in Bild 3.1 im Anhang geben einen<br />

kleinen Überblick über die Form und die Dimensionen, auch im Verlauf der Zeit. Die Darstellungen<br />

zeigen Steve Mann mit den diversen Apparaturen, die er zur Verwirklichung des WearComp –<br />

Gedankens realisierte [MAN 03].<br />

Wie wohl allgemein bekannt und oben erwähnt existiert diese von Steve Mann genannte Material<br />

Lightspace noch nicht. Theoretisch ist es allerdings nicht nur eine Frage der die Strahlung auf- und<br />

ausgebenden Materialien, sondern auch die Rechnerleistung und Verarbeitungsgeschwindigkeiten sind<br />

eine wichtige Frage. Schließlich sind einige der Aufgaben der WearComps als zeitkritisch anzusehen.<br />

Dies in dem Sinne dass der Träger die Eindrücke als der Realität entsprechend empfinden soll.<br />

Schließlich sehen die Postulate vor, dass der Träger durch den WearComp unterstützt und nicht<br />

eingeschränkt wird, dies schließt es dann allerdings ein von der Maschine nicht behindert zu werden<br />

sondern einen zusätzlichen Komfort zu genießen, den man nicht erst einüben muss.<br />

Hierzu können einerseits die Erfahrungen in der Generierung von Flugsimulatoren oder auch die in der<br />

Medizin bereits in der Erprobung befindlichen Modellierungen der Operationen und<br />

Trainingseinheiten dienen. In diesem Zudammenhang möchte ich Prof. Gabor Székely vom Inst. für<br />

Bildverarbeitung der ETH Zürich zitieren, der im Zusammenhang mit der Darstellung dieser<br />

Möglichkeiten in der Medizin [SZÉ 03] darauf hinwies dass die Simulation dann als realistisch<br />

angesehen wird wenn die Realisierung der Änderungen des virtuellen Modells innerhalb von 50 ms<br />

erfolgt. Bei Reaktionszeiten die darüber liegen werden die Modelle als nicht realistisch empfunden.<br />

Eine weitere Annäherung könnte auch in der Analyse der Bildwiederholfrequenzen in Kino- oder<br />

Fernsehübertragungen dienen. Diese Bilder werden mit einer Wiederholungsrate von 24 bzw. 25<br />

Bildern/ Sek. dargeboten, wie ein jeder selbst feststellen kann entsteht dadurch ein harmonischer<br />

Eindruck, der den Aufbau aus Einzelbildern verdeckt. Die oben genannten Wiederholraten bewirken<br />

eine bildliche Darstellung alle 40 ms. Somit sind diese Reaktionszeiten von entsprechenden Systemen,<br />

von der Detektion bis zum Aussenden der entsprechend modifizierten Information zu fordern, wenn<br />

der Eindruck realitätsnah sein soll.<br />

Denkbar sind aber auch Einsätze zur Erhöhung der Präzision, wie etwa bei Operationen. Hier könnte<br />

durch die Visualisierung der zusätzlichen Informationen eine präzisere und schonendere Technik<br />

angewendet werden. Weiter wäre es möglich die Komplexität der Darstellung während der Operation<br />

zu erhöhen, sowie eine statische Informationssituation dynamischer zu gestallten indem man während<br />

der Operation anfallende Informationen mit integriert[WAN 02] (siehe hierzu Bilder 3.2 bis 3.4 im<br />

Anhang).<br />

3 Weiterer Ausblick<br />

WearComp hat bei vorliegen der Eigenschaft wie sie Steve Mann angibt das Potential, die ganze Welt<br />

virtuell als auch real abzubilden. Weiter besitzt eine solche Maschine auch das Potential, eine<br />

geänderte Vorstellung der Sichtweise auf die Wirklichkeit zu verursachen. Solch eine Computer -<br />

vermittelte Realität kann nicht nur die Proportionen ändern sondern wäre auch in der Lage unsere<br />

Vorstellung und Sichtweise der Wirklichkeit zu beeinflussen und auf längere Sicht auch zu ändern.


205 Klaus Liedel<br />

Auch bei ganz alltäglichen Tätigkeiten könnten WearComps nützliche <strong>Dienste</strong> leisten z.B. könnte man<br />

sich beim Fahren besser konzentrieren, da man einfach alle nicht direkt mit der Steuerung des Wagens<br />

in Zusammenhang stehende Einflüsse abschalten könnte, dies wird von Steve Mann auch in einem<br />

Selbstexperiment beschrieben [MAN 01].<br />

Es wäre allerdings auch andererseits nicht zwingend nötig, dass man sich in dieser Zeit aus allem<br />

anderen heraushalten würde bzw. müsste, einerseits könnte der WearComp die sonstigen<br />

Kommunikationen speichern, so dass es einem möglich wäre diese später nachzuvollziehen, wie etwa<br />

die Beantwortung von E-Mails. Andererseits wäre es durchaus auch denkbar, dass der WearComp im<br />

Sinne des Trägers antwortet bzw. reagiert und nur dann eine Notiz hinterlegt um dem Träger die<br />

Aktionen anzuzeigen.<br />

Außerdem könnte der WearComp dazu beitragen, dass wir uns auch in hektischer Umgebung<br />

entspannen könnten und uns im Anschluss auf evtl. Aufgaben wieder besser zu konzentrieren<br />

vermögen. Als eine Art von Lernen könnte der Rechner etwa die Herzfrequenz registrieren und daraus<br />

ableiten wie sich der Träger am besten entspannt und dies dann auch in den Ruhezeiten mit in ein<br />

Entspannungsprogramm integrieren.<br />

Es sind allerdings auch gänzlich andere Aspekte denkbar, so wäre es leicht möglich ein Alibi zu<br />

bestätigen oder zu widerlegen. Es könnte sein, dass man bei Überlastung einfach jemanden anderen<br />

darum bittet doch Aufgaben, die auf einen einströmen zu übernehmen oder man selektiert die<br />

eintreffenden Informationen der Art, dass man nur die aktuell unaufschiebbaren Arbeiten erledigt und<br />

den Rest speichert, um ihn im Anschluss oder bei Gelegenheit zu erledigen. Dies kann einerseits<br />

gesteuert durch den Träger erfolgen, aber auch automatisch durch die Fehlerüberprüfung des Systems,<br />

etwa wenn der Träger eine gewissen Anzahl von Fehlern begeht, oder wenn die Reaktionszeiten zu<br />

lange werden.<br />

Es gäbe allerdings auch völlig neue Marketing Möglichkeiten, der Computer als WearComp wäre<br />

vergleichbar mit einer elektronischen Prothese und als solche vielleicht auch nur begrenzt verzichtbar.<br />

Hieraus würden sich Ansätze für einen sehr großen Markt ergeben. Der Einzelne hätte die Möglichkeit<br />

sich seine Umgebung in großen Bereichen individuell zu gestallten, losgelöst von Realitäten. Dies<br />

gäbe einem die Möglichkeit einer gänzlich neuen Art der Selbstbestimmung.<br />

Ein anderes Gebiet, das ebenfalls von dieser Entwicklung profitieren könnte, wäre der künstlerische<br />

Bereich. Die Zusammenstellung gänzlich neuer Formen der Kollagen oder auch die Konferenz und die<br />

Modifikation der Kunstwerke als Gruppenereignis. Auch hierzu hat Steve Mann bereits mehrere<br />

Beispiele geliefert. Es würden sich mehrere Aspekte der WearComps ergänzen, einerseits die<br />

Speicherung, dann aber auch die Möglichkeiten der Weitergabe an andere und natürlich auch die<br />

Vereinigung von Realität und Fiktion in einer Darstellung. In diesem Zusammenhang spielte dann eine<br />

evtl. vorhandene zeitliche Verzögerung keine Rolle, der WearComp dient in dieser Art der<br />

Anwendung nicht zur online Generierung einer virtuellen Realität auf der Grundlage der Wirklichkeit<br />

sondern zur künstlerischen Bereicherung der vorhandenen Welt, als Form der Imagination und<br />

Unterstützung der Tätigkeit von Künstlern. Evtl. ist dann auch der Begriff des Künstlers neu zu fassen,<br />

da es dann einem jeden Träger eines WearComps möglich ist diesen auch in dem Sinne zu nutzen.<br />

4 Zusammenfassung und Kritik<br />

Einerseits ist die Idee des WearComp als transportabler, ubiquitär vorhandener und ständig<br />

einsetzbarer Computer eine Option, die mannigfaltige Möglichkeiten bietet. Und eine völlig neue<br />

Form der Gestaltung des eigenen Lebensraumes und der eigenen zeitlichen Einteilungen ermöglicht.<br />

Andererseits ist allerdings auch immer zu bedenken, dass der Mensch als soziales Wesen evtl. den<br />

„natürlichen“ Umgang und Kontakt zu anderen Menschen zur Aufrechterhaltung seiner psychischen<br />

Gesundheit benötigt und ohne diese auf längere Sicht gänzlich neue und unerwartete Erkrankungen<br />

und Deviationen auftreten könnten, die ohne diese Separation nicht vorhanden wären.<br />

Eine weitere Überlegung ist natürlich auch, ob es dieser individuellen Computer bedarf um etwa den<br />

Straßenverkehr sicherer zu machen oder ob es hierzu nicht auch günstigere und weniger spezielle<br />

Methoden der Umsetzung gibt. Und natürlich stellt auch die Überwachung der dadurch gesammelten<br />

Daten eine weiter Problematik dar, die auf juristischem Gebiet ein weites Feld eröffnen dürfte, sind


206 Wearcomp, Personal Imaging und Mediated Reality<br />

die gesammelten Daten z.B. Eigentum des Besitzers des WearComp oder des Eigentümers oder gar<br />

Besitz der Allgemeinheit, müssen sie vielleicht innerhalb kürzester Zeit gelöscht werden, oder dürfen<br />

sie nicht gelöscht werden um sich etwa noch nach Tagen ausweisen zu können und bei Befragungen<br />

der Ordnungsbehörden die entsprechenden Angaben untermauern zu können.<br />

Weiter ist natürlich auch noch zu überlegen ob man dann auch bereits den Heranwachsenden oder<br />

Kindern die Möglichkeiten der tragbaren Computer ermöglicht oder sie zunächst ohne aufwachsen<br />

lässt. Bei dem Gebrauch von WearComps in der Erziehung und Ausbildung würden sich auch dabei<br />

völlig neue Möglichkeiten der individuellen Gestaltung der Erziehung und Unterrichtung ergeben, die<br />

von heutigem Stand in ihrer Gesamtheit vielleicht noch nicht einmal ganz überdacht werden können.<br />

Insgesamt betrachtet schafft der WearComp natürlich viele neue Möglichkeiten und eröffnet<br />

gestalterische Optionen, die ohne diesen nicht möglich wären. Es sind allerdings auch diesem Konzept<br />

natürliche Grenzen gesetzt, so ist es wohl eher fraglich ob er alle physikalischen Einflüsse der Umwelt<br />

abschalten kann, wie etwa die klimatischen Einflüsse oder die Schwerkraft. Beim Klima bestehen da<br />

noch evtl. Möglichkeiten, die allerdings in Form einer transportablen Klimaanlage einen sehr großen<br />

Aufwand erfordern, bei der Schwerkraft sind derzeit noch nicht einmal theoretische Ansätze<br />

vorhanden, die hier möglich sein könnten. Allerdings ist dies vielleicht auch nicht unbedingt für alle<br />

Einsatzbereiche notwendig.<br />

Auch im Bereich der Kommunikation sind durch die Naturgesetze in Zusammenhang mit den<br />

geforderten Eigenschaften des WearComp, und in Kombination mit dem oben genannten nötigen<br />

Reaktionszeiten des Gesamtsystems, die Formen des Informationsaustauschs eingeschränkt. Geht man<br />

z.B. von der Lichtgeschwindigkeit (300.000 km/s) als maximale Geschwindigkeit für den<br />

Datenaustausch aus, so liegt die in der nötigen Reaktionszeit zur Verfügung stehende Distanz, ohne<br />

Verarbeitungszeiten, bei 15.000 km.<br />

Dadurch ergeben sich Einschränkungen der möglichen Kommunikation, so befinden sich die<br />

geostationären Satelliten, die vor allem für die Kommunikation und Nachrichtübertragung genutzt<br />

werden, in einer Höhe von 36.000 km über der Erdoberfläche (aus www.fen-net.de/satellitentechnikonline/texte/orbit/orbit.htm)<br />

. Wie man dabei einfach erkennt, ist es ohne für den Benutzer erkennbar<br />

Verzögerung nicht möglich diese zum online Datenaustausch zu nutzen. Wie in der oben angegebenen<br />

Quelle ebenfalls erwähnt, existieren auch in anderen Umlaufbahnen Satelliten, doch auch diese sind<br />

teilweise zu hoch. Wie etwa die zur Satellitennavigation genutzten GPS-Satelliten, die sich in Höhen<br />

von 10.000 bis 20.000 km über der Erde befinden. Auch diese befinden sich somit zur online Nutzung<br />

für die WearComps in einer zu hohen Umlaufbahn. Die sonst noch vorhandenen Umlaufkörper im<br />

Orbit sind von ihrer Anzahl her nicht ausreichend vorhanden um einen sicheren bzw. ständigen<br />

Gebrauch zu gestatten. Fasst man dies zusammen, so müsste die Arbeit des Rechners, als eine Art von<br />

Terminal, aus der „näheren“ Umgebung also erdgebunden erfolgen.<br />

Referenzen<br />

[MAN 01] Mann S.(2001): Fundamental Issues in Mediated Reality, WearComp, and Camera-<br />

Based Augmented Reality. In Fundamentals of Wearable Computers and<br />

Augmendted Reality (2001), Lawrence Erlbaum Associates, Inc. Puglishers, 295 –<br />

328<br />

[MAN 03] Mann S. (2003): Referenzen des Internets unter www.wearcam.org<br />

[SZÉ 03] Székely G. (2003): Realistische Simulation chirurgischer Eingriffe, als Vortrag<br />

im Kolloquium der Informatik an der Technischen Universität Braunschweig,<br />

26.05.03.<br />

[WAN 02] Wanschitz F et al. (2002): Computer-enhanced stereoscopic vision in a headmounted<br />

display for oral implant surgery. In Clin. Oral Impl. Res. 13, 2002,<br />

610 – 616


207 Klaus Liedel<br />

Anhang /Abbildungen<br />

Bild 1.1: Permanente Interaktion als eine der Eigenschaften eines wearable Computers.<br />

übersetzt aus http://wearcam.org/wearcompdef/fig1asmall.gif<br />

Bild 1.2: Versorgung des Benutzers mit Zusatzinformationen als eine der zusätzlichen<br />

Eigenschaften eines wearable Computers.<br />

übersetzt aus http://wearcam.org/wearcompdef/fig1bsmall.gif


208 Wearcomp, Personal Imaging und Mediated Reality<br />

Bild 1.3: Isolation des Trägers von der Umwelt im Eingangs- wie Ausgangsstrom<br />

übersetzt aus http://wearcam.org/wearcompdef/fig1c.gif<br />

Bild 2.1: Lightspace – Analysator als ideales Material zur Verwirklichung von Apparaten der<br />

vermittelten Realität<br />

nach den Ausführungen von Steve Mann


209 Klaus Liedel<br />

Bild 2.2: Synthesizer - Lightspace als ideales Material zur Verwirklichung von Apparaten der<br />

vermittelten Realität<br />

nach den Ausführungen von Steve Mann


210 Wearcomp, Personal Imaging und Mediated Reality<br />

Bild 2.3: Lightspace – Glas in Verbindung mit einem WearComp<br />

nach den Ausführungen von Steve Mann<br />

Bild 3.1: Verschiedene Apparate zur Umsetzung des WearComp – Gedankens im zeitlichen<br />

Verlauf<br />

http://n1nlf-1.eecg.toronto.edu/personaltechnologies/fig3.gif


211 Klaus Liedel<br />

Bild 3.2: Apparatur zur intraoperativen Visualisierung bei der Implantation<br />

aus [WAN 02]<br />

Bild 3.3: Projektion der Apparatur aus Bild 3.2<br />

aus [WAN 02]<br />

Bild 3.4: Projektion der Apparatur aus Bild 3.2, wie in Bild 3.3 allerdings mit Bohrinstrument<br />

aus [WAN 02]


213 Index<br />

A<br />

Active Badge .....................................11, 50<br />

Active Bat................................................11<br />

Affine Darstellung.................................126<br />

Affine Räume ........................................127<br />

AfinesKoordinatensystem .....................128<br />

Angle of Arrival ......................................65<br />

Angriffsziele............................................84<br />

Apple Newton .........................................51<br />

Assisted GPS...........................................65<br />

ATKIS-Objektkatalog .............................31<br />

Augmented Reality................................137<br />

Authentizität............................86, 101, 103<br />

Autorisierung...........................86, 102, 103<br />

B<br />

Bedrohung ...............................................83<br />

Bedrohungsanalyse................................104<br />

Bedrohungssystematik ............................84<br />

Beherrschbarkeit......................87, 102, 104<br />

Beschleunigungsmessung......................173<br />

Bessel-Ellipsoid.......................................36<br />

Bewegungsprofil ...........................104, 108<br />

Brute Force – Angriff............................106<br />

Bundesdatenschutzgesetz ........................87<br />

C<br />

Cell of Origin ..........................................63<br />

Chipkarte .................................................91<br />

Chosen Plaintext – Angriff....................106<br />

Cipher Text Only – Angriff...................106<br />

Context Spaces ......................................118<br />

ContextCast ...........................................118<br />

Cyberguide ..............................................48<br />

D<br />

Datenhandschuh ....................................138<br />

Datenschutz .............................................87<br />

Denial of Service Angriff..............104, 106<br />

Differential GPS................................24, 65<br />

Digitales Landschaftsmodell...................33<br />

Display ..................................................159<br />

DNS.......................................................117<br />

Doppler-Verfahren ................................169<br />

Durchsicht-Display............................... 182<br />

E<br />

EGNOS................................................... 26<br />

Energieversorgung................................ 157<br />

Enhanced Observed Time Difference..... 64<br />

Erd-Gravitationsfeld ............................. 176<br />

e-SUIT .................................................. 155<br />

F<br />

Fahrzeugflotten ....................................... 66<br />

Force-Feedback-Display....................... 138<br />

Freiheitsgrad ......................................... 167<br />

Future Computing Environment............. 48<br />

G<br />

GALILEO ............................................... 26<br />

Gauß-Krüger-Koordinatensystem........... 35<br />

GeoCast Nachricht................................ 113<br />

Geodatenbank ......................................... 43<br />

Geographische Adressierung................ 111<br />

GeoHost ................................................ 113<br />

Geoinformationssystem ..............Siehe GIS<br />

GeoNode ............................................... 113<br />

GeoRouter............................................. 113<br />

GIS.......................................................... 31<br />

Fachschalen......................................... 42<br />

GLONASS.............................................. 26<br />

GPRS ...................................................... 62<br />

GPS............................. 21, 52, 64, 112, 141<br />

<strong>Dienste</strong> ................................................ 22<br />

PRN..................................................... 23<br />

Satelliten ............................................. 22<br />

Segmente............................................. 21<br />

GSM<br />

Cell-ID ................................................ 63<br />

Funkzelle............................................. 64<br />

GUIDE.................................................... 54<br />

Gyroskop<br />

mechanisch ....................................... 173<br />

optisch............................................... 169<br />

H<br />

Head-Mounted-Display ................ 138, 158<br />

Head-up-Display................................... 158


214 Index<br />

HEPS-SAPOS .........................................25<br />

HiBall Tracking System ..........................13<br />

I<br />

Identifikation ...........................86, 101, 103<br />

Infrarot.................................................8, 51<br />

Inmarsat...................................................61<br />

Integrität ..................................85, 101, 103<br />

K<br />

Known Plaintext – Angriff....................106<br />

Kontext....................................................47<br />

Koordinate.................................................5<br />

physikalische .......................................97<br />

semantische .........................................97<br />

Koordinatensystem<br />

affines ....................................................5<br />

kartesisches............................................5<br />

Koordinatentransformation .......................6<br />

Kreispeilung ..............................................7<br />

Kreuzpeilung .............................................6<br />

L<br />

Laser ..........................................................8<br />

laserBIRD................................................14<br />

Location Interoperability Forum .............62<br />

Location Measurement Unit....................64<br />

Location Server Infrastructure ....Siehe LSI<br />

LSI...........................................................97<br />

Assoziation..........................................98<br />

Client ...................................................97<br />

Domäne ...............................................98<br />

inbound mode....................................100<br />

LLS......................................................99<br />

Location Server ...................................97<br />

outbound mode..................................100<br />

Relation ...............................................98<br />

M<br />

Man in the middle Angriff ....................106<br />

Mediated Reality ...................................199<br />

Mikroskop .............................................185<br />

Mobile Location Center ..........................64<br />

Mobile Support Station .........................116<br />

MSAS......................................................26<br />

m-ToGuide ..............................................59<br />

Multicast IP ...........................................116<br />

N<br />

Nexus ...................................................... 73<br />

Augmented Area Modell .................... 75<br />

Augmented World Modell.................. 75<br />

AWML................................................ 79<br />

AWQL ................................................ 79<br />

Spatial Server Model .......................... 79<br />

Nicht-Abstreitbarkeit .............. 86, 102, 103<br />

Notrufdienste .......................................... 66<br />

O<br />

Open Mobile Alliance............................. 63<br />

P<br />

PARCTab................................................ 50<br />

Passive Peilung ......................................... 7<br />

pattern recognition................................ 170<br />

Polarkoordinate......................................... 5<br />

Präsenz.................................................. 122<br />

Projektionen ...................................... 127<br />

R<br />

Radio Camera System............................. 66<br />

Registrierungsfehler.............................. 130<br />

Replay-Attacke ..................................... 107<br />

Retina Display ...................................... 184<br />

Richtfunk .................................................. 8<br />

S<br />

SAPOS.................................................... 25<br />

Satellitennavigation ................................ 18<br />

Sicherheit ................................................ 83<br />

Signal Attenuation .................................. 65<br />

SMS ........................................................ 61<br />

Spot-On................................................... 12<br />

Spracherkennung .................................. 160<br />

Steve Mann ........................................... 199<br />

sweeping beam...................................... 171<br />

T<br />

Telemedizin .......................................... 141<br />

Tourist Guides ........................................ 47<br />

Triangulation......................................... 168<br />

TV-Fernbedienung.................................. 51


215 Index<br />

U<br />

Ultraschall .........................................9, 167<br />

V<br />

Verfügbarkeit ..........................86, 102, 103<br />

Verkehrsflussanalyse.............................107<br />

Verlässlichkeit.........................87, 102, 103<br />

Vertraulichkeit.........................85, 101, 102<br />

W<br />

WAP ....................................................... 61<br />

Wearable Computer ...................... 137, 153<br />

WearComp............................................ 199<br />

WGS84 ............................................. 17, 37<br />

WIPS....................................................... 12<br />

WLAN .................................................... 12<br />

Z<br />

Zugriffssteuerung.................... 86, 102, 103<br />

Zylinderkoordinate ................................... 5<br />

WAAS .....................................................25

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!