c // mag - Fachzeitschrift für Informationstechnologien, Geoinformationssysteme

watschounek

in eigener Sache

Geoinformatik ist ein Wachstumsmotor. Das hat auch die CeBIT erkannt. Und dafür 2007 im Ausstellungsbereich
Public Sector Parc einen Gemeinschaftsstand ‚Geoinformationswirtschaft‘ eingerichtet. Kaum anders die SYSTEMS,
dort lohnt sich ein Besuch auf dem rund 2.000 qm großen Stand des Anwendungszentrums.

Zur c//mag-Adresse im Web – eine ‚never ending story‘. Es kann der Friedlichste nicht in Ruhe leben, wenn ihn
der Nachbar nicht lässt. So wird das Gesetz zum Spielfeld für den geborenen Prozesshansel. Aus diesem Grund erreichen
Sie die Website des c//mag in der nächsten Zeit unter www.hw-medien.de. Auch die Mailadressen ändern sich
nach dem @ in @hw-medien.de. Auf der Website finden Sie jetzt übrigens unsere Leserumfrage. Wir möchten nämlich
schwarz auf weiß wissen, was Sie vom c//mag halten.

Zu etwas Erfreulichem: Mit der www.cdate-online.net stellen wir im September die Veranstaltungen auf eine
eigene Website. Schneller finden, was los ist – das war die Idee. SchickenSie uns Ihre aktuellen Termine unter
veranstaltungen@hw-medien.de.

Und noch eine gute Nachricht: Mit dieser Ausgabe ist das c//mag genau ein Jahr alt. Zeit, laufen zu lernen :)

c mag




















260122 090006

4


c mag




















260122 090006

4


in eigener Sache

003

Geoinformatik ist ein Wachstumsmotor. Das hat auch die

CeBIT erkannt. Und dafür 2007 im Ausstellungsbereich

Public Sector Parc einen Gemeinschaftsstand ‚Geoinformationswirtschaft‘

eingerichtet. Kaum anders die SYSTEMS,

dort lohnt sich ein Besuch auf dem rund 2.000 qm großen

Stand des Anwendungszentrums.

Zur c//mag-Adresse im Web – eine ‚never ending story‘.

Es kann der Friedlichste nicht in Ruhe leben, wenn ihn

der Nachbar nicht lässt. So wird das Gesetz zum Spielfeld

für den geborenen Prozesshansel. Aus diesem Grund erreichen

Sie die Website des c//mag in der nächsten Zeit unter

www.hw-medien.de. Auch die Mailadressen ändern sich

nach dem @ in @hw-medien.de. Auf der Website finden Sie

jetzt übrigens unsere Leserumfrage. Wir möchten nämlich

schwarz auf weiß wissen, was Sie vom c//mag halten.

Zu etwas Erfreulichem: Mit der www.cdate-online.net

stellen wir im September die Veranstaltungen auf eine

eigene Website. Schneller finden, was los ist – das war

die Idee. SchickenSie uns Ihre aktuellen Termine unter

veranstaltungen@hw-medien.de.

Und noch eine gute Nachricht: Mit dieser Ausgabe ist das

c//mag genau ein Jahr alt. Zeit, laufen zu lernen :)

Viel Spaß beim Lesen!

Uwe Hentschel, Volker Watschounek,


004

Register der erwähnten Unternehmen und Organisationen

1&1 80

Adlershof 76

Adobe 48

AGCO 28

Agrar- und Umweltwissenschaftl. Fakultät Universität Rostock 28

Amazon 17

AOK 31, 32

Bell Labs 51

Benmark 48

Bernecker+Rainer 72, 73

Bitform 71

BITKOM e.V. 59

BMW 50

Bundesamt für Migration und Flüchtlinge 78

Bundesministerium für Bildung und Forschung (BMBF) 79

Bundesnetzagentur 70

Burkhardt 79

Captiva 71

CeBIT 3, 58, 69

Cisco 70

Claas 28

d.velop 48

DaimlerChrysler 50, 57,58, 70

Deutsche Telekom 80

Deutsches Forschungszentrum für Künstl. Intelligenz (DFKI) 52, 53

DMS EXPO 46, 47, 49

DNUG 76

DSAG 77

ecom.IT 73

E-Garten.Net 68, 69

Elephant Seven 70

ELO Digital Office 48, 66

EMC Documentm 5, 71

EnBW Energie Baden-Württemberg 15

E-Plus 13

FileNet 5

Förderkreis IT- und Medienwirtschaft München (FIMW e.V.) 60

Forschungsinstitut für Rationalisierung (FIR) 79

Fraunhofer Institut für Autonome Intelligente Systeme 60

Ganske Verlagsgruppe 25

Garmin 11

Global Information Distribution 49

good news! 49

Google 16

GoPro 47

GoYellow 70

GS1 Germany76

GUS Group 60

Hewlett Packard 71

Hugendubel 37

humminbird 5

IBM 5, 47, 50, 51, 53, 70, 71, 76

IBM Global Business Services 47

IBM Software Group 47

IIR 76

Imperia 80

Infor 79

interactive media / virtual environment group 12

iPUBLISH 25

IXOS 5

John Deere 28

Koelnmesse 46, 47

Kommunaler Schadensausgleich (KSA) 74, 75

Legato 71

Louis Leitz KG 66

Management Forum Starnberg 76

Map24 17

MapQuest 17

Marketinghub 76

Massachusetts Institute of Technology (MIT) 60

Mediamarkt 37

mediamid 54, 55, 56

Metro 58

Microsoft 5, 50, 53, 64, 70

MobileObjects 33

O2 13, 32, 33, 34

Océ Document Technologies 63

Open Geospatial Consortium (OGC) 21, 35

Open Text 5, 48, 78

Opera Software 50

Oracle 64, 70, 76

Otto Junker 79

Pixelpark 70

Plasmon 71

PricewaterhouseCoopers 20, 37

proALPHA 79

Projektträger Forschungszentrum Karlsruhe (PTKA) 79

PSIPENTA 79

RedDot Solutions 48, 73

RSA Security 71

RST 70

SAP 60, 61, 64

SAPERION 48

Saturn 37

Sceye 10

Screen Digest 71

SDL Trados 73

SealedMedia 71

SER Solutions 74, 75, 78

Siemens 79

Springer + Jacoby 70

Stellent 48, 71

Sun 64

Symphony Technology Group 5

SYSTEMS 3, 69

TomTom 33

T-Systems 76

Varetis 70

Vereon 77

VOI e.V. 46, 47

Volkswagen 12, 50

W3C 53

Weltbild 37

windream 48

Wissenschaftliches Institut der AOK (WIdO) 31

WNS-Europe 33

Xplor e.V. 47

Yahoo! 17

Zoeller 76

ZyLAB 48


Slow train coming?

Es gibt Sachen, von denen können wir nie genug bekommen.

Gute Tipps vom Steuerberater. Ein-Gigabyte-USB-

Sticks. Kunden. Oder Web-Content-Management- und Dokumenten-Management-Systeme:

Gauss, Obtree, Livelink

for Web, RedDot, Magellan, LiveLink, IXOS, DocsOpen,

IDI, DOMEA ... die liegen jetzt alle bei Open Text in der

Lagerhalle. Wahrscheinlich verfolgt Open Text die Strategie,

alles aus einer Hand anzubieten. Weil die Betonung auf „alles“

liegt: Es wird alles gekauft, wo bei drei noch kein weißer

Ritter aufgetaucht ist.

Gut, der eine oder andere fragt sich, wie das damals mit

IXOS gelaufen ist, die Übernahme und vor allem die anschließende

„Integration“. Wo da jetzt im Einzelnen die

Synergien lagen. Liquide war Open Text von Anfang an.

Auch jetzt braucht das Unternehmen lediglich 200 Mio.

US-Dollar Kredit, um hummingbird zu kaufen. Peanuts.

Eine klare Akquisitionsstrategie, das können wir lernen, ist

möglicherweise erfolgreicher, als sich mit divergierenden

Produkt- oder Technologie-Linien auseinanderzusetzen.

Die Zeit und der Markt werden es schon richten.

Werfen wir einen Blick auf den Kaufpreis von hummingbird.

465 Mio. US-Dollar hat die Symphony Technology

Group geboten, jener Investor, der hummingbird schon in

??_FL

?_FL

Highlight

005

der Tasche hatte. 489 Mio. US-Dollar hat Opentext gezahlt.

Die Anteilseigner von hummingbird, die moniert hatten,

man habe kein besseres Angebot an Land gezogen, können

mit dem von Opentext nicht zufrieden sein. 24 Mio. sind

für den Shareholder kein echter Value. Es sei denn, es wird

gerade jetzt eine Hypothek auf das Haus fällig.

Was hat Open Text eigentlich gekauft? Kunden? Marktanteile?

Produkte? Source-Code? Letztes Jahr hatte Open Text

CEO Tom Jenkins sein vorerst letztes ECM-Buch vorgestellt:

„ECM Solutions: What You need to Know“. Das Buch ist Teil

einer Opentext-Buchreihe und Nachfolger des Titels „ECM

Technology: What You Need to know“. Vorschlag für den

nächsten Titel: „ECM Market: What You Need to Aquire“.

Kaum ist der Deal in trockenen Tüchern, verkündet IBM

Vollzug: FileNet gekauft. Aha. Da haben sicher einige Insider

hinter den Kulissen verschlüsselten Handyverkehr gehabt.

Klar, FileNet passt prima zu IBM. Jetzt hat Big Blue auch

eine volle Lagerhalle. Wie das alles zusammenpasst, wird

IBM uns in den nächsten Monaten erklären.

Bleiben noch einige Fragen offen: Wo bleibt Microsoft?

Wollten die nicht auch ECM machen? Und: Wer kauft jetzt

EMC Documentum?


006

1.000 Tage Leiwand Software

Gründe zum Feiern sollten nicht lange gesucht werden. 100 Tage mit dem

eigenen Unternehmen im Markt? Feiern. 500 Tage? Feiern. 1.000 Tage?

Jetzt erst recht. Und so gab es in Wien einen festlichen Empfang für die

Geschäftspartner und Freunde des Hauses. Lesen Sie weiter auf Seite 54.


verlagswelt.de ist ein benutzerfreundliches,

kostenfreies

Informationsportal für alle Personen,

die in der deutschen

Verlagsindustrie arbeiten, bzw.

für die Mitarbeiterinnen und

Mitarbeiter aus Unternehmen,

die für die Verlagsbranche

Dienstleistungen erbringen.

verlagswelt.de bietet einen nahezu

vollständigen Überblick

über die deutsche Verlagsindustrie.




verlagswelt.de bietet einen

umfassenden Überblick zu

derzeit rund 7.000 deutschen

Zeitungen und Zeitschriften.

Informationen zu den

herausgebenden Verlagen

sind genauso verfügbar wie

die Informationen zu Erscheinungsweisen,Einzelheftpreisen,

Abogebühren,

Anzeigenpreisen und den

aktuellen Druck- und Verbreitungsauflage








verlagswelt.de hilft bei der

Suche nach Beratern oder

Agenturen, die sich auf die

Verlagsbranche spezialisiert

haben. Eine umfassende

Datensammlung bietet Adressen,

Kontaktpersonen und

Hintergrundinformationen.

Eine wertvolle Kontaktbörse

für das Medienmanagement,

das praxisbezogenes Wissen

für die eigene Verlagstätigkeit

sucht.

Reser vier t

für die Welt

der Verlage






verlagswelt.de verfügt über

eine der umfangreichsten

Datenbanken zu Verlagsdienstleistern.

Gleich ob es

sich um Dienstleistungen im

Vertrieb, Redaktion oder Anzeigenverkauf

handelt, verlagswelt.de

hält die Informationen

bereit. Umfangreiche

Marktübersichten eröffnen

auch einen Blick in den Bereich

der gängigen Verlagssoftware-Anwendungen.


www.verlagswelt.de

cip corporate international publishing GmbH

St. Ulrich-Platz 4 | 85630 Grasbrunn |Tel. +49 89 43 70 79-10 | Fax +49 89 43 70 79-22


008

Geoinformationssysteme

Editorial

Firmenregister

Highlight

Panorama

Briefe an den IT-Leiter

Titel

Die Dimensionen der Karte

Informationen in Geoinformationssystemen

Von der Idee zum Geschäftsmodell

Location Based Services

IT statt Bauernkalender

Precision Farming

Karten für die Gesundheit

Geodaten im Gesundheitswesen

Interview Karola Bode, O2

Kommentar

Nie mehr verlaufen

Galerie

Sag mir, wo die Läden sind ...

Schwerpunkt

Anders lesen

Lesen am Bildschirm

Kukkstu in Köln

DMS EXPO 2006 in Köln

Die Maschine, die aufs Wort hört

Sprachsteuerung

1.000 Tage Leiwand Software

mediamid digital services GmbH

3

4

5

10-13

14-15

16-21

22-25

26-28

30-31

32-34

35

37-41

42-45

46-49

50-53

54-56


Alltag

Datenflut im Internet der Dinge

RFID und Datenspeicherung

Über den Tellerrand

Outsourcing von Dienstleistungen

die „Gewissensfrage“

Was meint eigentlich „Made in Germany“?

Die „Marke“ Deutschland

Drahtlos in München

WLAN im Englischen Garten

C//MAG NEWS

Individueller Informationszugriff

Case: Individualisierung von Websites

Elektronische Schadensbearbeitung

Case: Kommunaler Schadensausgleich

58-60

61-63

63

64-66

68-69

70-71

72-73

74-75

C//DATE VERANSTALTUNGEN

Nachgefragt

Forschung

in die Nesseln

Beobachter

Ausblick/ Impressum

Inserentenverzeichnis

IBM Deutschland GmbH

cip Verlag GmbH

TOMORROW FOCUS Technologies

ALBIS Zahlungsdienste GmbH & Co. KG

Open Text AG

RedDot Solutions AG

textpark

dfau Kommunikation

ELO Digital Office GmbH

Stellent GmbH

Koelnmesse GmbH

KROLL Verlag

Reed Exhibitions Deutschland GmbH

Kodak GmbH

Océ Deutschland GmbH

76-77

009

78

79

80

81

82

U2

7

9

13

21

29

34

36

45

49

57

62

67

U3

U4


010

Panorama

Scan Dusche

Das Knicken, Schneiden und Falzen hat ein Ende. Die elegante

Scan-Dusche – einfach genial. Scannen wird so leicht

wie fotografieren. Die ach so geliebten Methoden der Public

Relation: Vergangenheit. Artikel jeder Art werden einfach

unter den Sceye (Mutation aus ‚Scan‘ und ‚Eye‘) gelegt, frei

positioniert und abfotografiert. Die dazugelieferte Software

speichert das Bild im Verlauf. Über eine unklare, aber doch

irgendwie intuitive Benutzerführung findet jeder Erstbenutzer

den Verlauf hinter dem „Rechtspfeil“, der sich bei

„klick“ nach links öffnet. Logisch, nicht wahr. Dabei wird

die Scanansicht extrem verkleinert, das Scanobjekt unter

dem aktuellen Datum angezeigt. Werden mehrere Objekte

eingescannt, nimmt die Zahl der Thumbs zu und die Liste

wird länger.

Versteckte Funktionalitäten

Funktionen wie Kopieren, Ausscheiden oder in einen selektierten

Ordner Hinzufügen sind leicht versteckt und nur

über den Verlauf zugänglich. Klicke ich ein Objekt an, um

es final zu bearbeiten, öffnet zeigt sich das Scan-Ergebnis

in einem separaten Fenster: mit Menu! Feinjustierungen à

la Zoom sind nicht möglich. Warum auch, gescannte Objekte

müssen nachbearbeitet werden: ausschneiden, für die

geschulte Hand und das geschulte Auge ein Leichtes; Kontrast,

Helligkeit oder Objekt kippen und drehen. Die Helligkeitsjustierung

ist Gold wert. Dadurch wird das eine oder

andere Objekt erst brauchbar: Habe ich bei diesem Scanner

doch nicht wirklich die Möglichkeit das Tageslicht auszublenden.

Habe ich vielleicht den Hinweis „Dunkelkammer“

übersehen? Egal, die herkömmliche Methode, Sichten, Ausschneiden

und Einscannen mit Deckel zeigt deutlich bessere

Ergebnisse.

Der nächste Anlauf

Ich werfe aber nicht so schnell die Flinte ins Korn. Einmal

Helligkeit anpassen, sechsmal Kontrast nachschärfen – und

fertig ist der erste Scan. Jetzt nur noch speichern, auf die

Seite unseres Kunden schieben und ... Wo speichere ich

das Objekt bloß? Ein Menu gibt es nicht. Einfach schließen

- Fragezeichen. Ein wenig Mut gehört schon dazu, einfach

das „X“ oben rechts zu klicken. Wir wagen es. „Klick“. Die

Sicherheitsabfrage „Seite wurde verändert. Speichern?“ beruhigt

uns ungemein. Wir bestätigen mit „ja“ und kehren

zurück zum Verlauf, wo wir das nächste Objekt bearbeiten.

Klick, auswählen, ausschneiden, drehen, Helligkeit und

Kontrast nachbearbeiten, fertig. Und gleich nochmal. Versehentlich

stellen wir das Objekt nicht frei. Schneiden innen

aus. Strg+Z, gibt es nicht. Gehen wir also über das Menu

„undo“. Menu. Ach ja, das gab es ja auch nicht. Sind also

keine Arbeitsschritte rückgängig zu machen? Anscheinend.

Wir haben uns nicht getraut, beim Hersteller nachzufragen

und suchen noch heute. Denn die schnelle Art, sich zu helfen,

kann nicht wirklich die Lösung sein (schließen, nicht

speichern, neu aufrufen und richtig machen).

Problemlösungsverhalten

Zum Ende stoßen wir dann auf ein Problem der besonderen

Art. Was uns beim Aufbau so faszinierte, das Duschprinzip

des Scannens, entpuppt sich bei größeren Objekten

als Problem. Der Hersteller hat es leider versäumt, die Auswahlfläche

mit einem Zoom zu versehen. Wie bei gängigen

A4-Scannern muss sich jeder damit helfen, erst den unteren

Teil und dann den oberen Teil einzuscannen ... und entweder

gestückelt auf zwei Seiten dem Kunden weiterreichen ...

oder aber im Bildprogramm montieren. Wo lagen die Daten?

Welchen Namen haben die Objekte? „18-08-05“ 19-07-

46“... Die Suchfunktion von Windows hilft weiter... Anstelle

der Dateiendung setzen wir „*“ als Wildcard und starten die

Suche. Das Programm hat die Dateien als mit ThumbsPlus

darstellbare Bilddatei unter c:\programme\silvercreations\

sceye\20060708 abspeichert. Wir öffnen die Datei, erstellen

daraus ein PDF für unseren Kunden, geben ihm einen Namen

und freuen uns, eine wirkliche Arbeitshilfe gefunden

zu haben.


Auf alten Wegen

Laufen, wandern, radeln, schwimmen. Immer wissen, wo

ich bin. Egal wo ich gerade bin. Die Position, die zurückgelegte

Distanz, das Ziel vor Augen, die verbrauchten Kalorien

auf Abruf. In Zeiten, wo einem Besucher selbst in langen

Korridoren von großen Gebäuden mit einem Personal

Digital Assistant (PDA) Orientierungshilfen wie im Auto

angeboten werden, ein Kinderspiel. Nächster Gang rechts,

bitte.

Ich erinnere mich an frühere Zeiten. 1984. Für eine genaue

Distanzmessung habe ich damals einen Zollstock und ein

Fahrrad gebraucht. Die Standardrunde im Eller Forst – nicht

weit vom Unterbacher See – musste vermessen werden. Und

wegen des widrigen Geländes war es nicht möglich, alles mit

dem Auto abzufahren. Pragmatische Vorgehensweise. In der

Schule lernten wir eben u=2r*Pi. Bei einem 26“-Fahrrad

ergibt das einen Radumfang von ... Eine gelbe Socke diente

als Markierung und half uns beim Zählen: 5.995 Meter. Vorausgesetzt,

wir hatten uns nicht verzählt.

Anschließen, loslaufen – selber navigieren

Heute schnallen wir uns einen Brustgurt um, binden

uns eine Uhr ans Handgelenk und laufen los. Kleinere

Startschwierigkeiten lösen sich von selbst (Positionsbestimmung).

Und spätestens beim zweiten Lauf erledigt sich

das mit den Startschwierigkeiten. Angaben des Herstellers

zufolge ist das Gerät mit einem hochempfindlichen SiRFstarIII

GPS-Empfänger ausgestattet. Er sorge „für besten

Empfang auch unter dichtem Blätterdach im Wald oder in

dicht bebautem Stadtgebiet“, so Garmin. Im Test hatte der

Empfänger dann in der Agnesstraße, München, dann so

seine Probleme. Nach zehn Minuten fragt mich Forerunner:

„Befinden Sie sich in einem geschlossenen Raum?“ Ich antworte

„Nein“ und laufe los. Ohne Navigation.

Zweiter Start im Englischen Garten

011

Am Eingang des Englischen Gartens versuche ich es erneut.

Es funktioniert. Mit GPS-Technologie und einem

drahtlos verbundenen Pulsmesser erfasst das kleine Gerät

am Handgelenk Zeit, Geschwindigkeit, Pace, Strecke, Kurs,

Höhe und Puls – bei Voreinstellung berechnet er sogar

meinen Kalorienverbrauch. Alle Daten sind gleich über das

große Display der Uhr abzulesen. Die zurückgelegte Distanz

kartografiert am PC. Hier werden alle zurückgelegten Einheiten

dokumentiert und kumuliert – und wir sehen, doch

nur 34 Kilometer diese Woche. Letzte Woche waren es noch

52. Die letzten Wochen waren halt ziemlich heiß. Hundstage

quasi.

Und zweimal fiel der Forerunner wegen geringer Stromversorgung

aus. Zehn Stunden halte der Akku, so stand es

geschrieben. Zehn Stunden sind etwa 100 km. 34 plus 52

gleich ... naja. Ambitionierte Läufer sollten das Gerät mindestens

zweimal die Woche mit dem Netzteil verbinden.

Nur so werden sicher alle Trainingseinheiten aufgezeichnet.

Navigation hin oder her: Im November laufe ich in Florenz

meinen fünften Marathon.


012

Panorama

Das stuhlbasierte Interface

Manche Neuerungen erreichen einen erst verspätet, wie

der ChairIO. Leider war ich im April nicht auf dem Internationalen

Automobil-Salon in Genf. Wäre ich dort gewesen,

ich hätte mich am Stand von Volkwagen garantiert auf den

ChairIO gesetzt. Denn der ChairIO ist eine neuartige Computersteuerung

auf der Basis eines Stuhls. Oder, wie es in

einem PDF stand, ein „Chair-Based Interface“. Wunderfull,

wie so ein englischer Fachausdruck gleich ein wenig Glanz

in die Hütte zaubert. Profan gesprochen ist der ChairIO ein

Hocker, der wie ein Joystick funktioniert. Interessant. Im

Netz lese ich, dass der Stuhl bereits 2005 vorgestellt wurde

(imve.informatik.uni-hamburg.de/projects/chairIO). Entwickelt

von Prof. Dr. Ing. Steffi Beckhaus von der Universität Hamburg,

in der interactive media/virtual environment group

oder kurz im/ve. Dort forschen seit 2004 drei Wissenschaftler

im Bereich der „human-centered Human-Computer

Interaction, Computer Graphics, Virtual Environment

Systems and Technology, Interactive Storytelling, and Art“.

Herausgekommen ist der ChairIO.

Vom Büromöbel zum Device

Den Hocker übrigens, aus dem unter wissenschaftlicher

Mithilfe der ChairIO wurde, kennt jeder, der sich einmal

mit den verschiedenen Genres der Büromöbel befasst hat:

Es ist der Swopper vom Designer Henner Jahn. Ein breiter

Dreiviertel-Ring als Metallfuß, offen liegende Spiralfeder

und komischerweise auf Produktfotos immer rot gepolstert.

Gut für den Rücken. Nicht das Rot, der Hocker. Im Netz

lese ich, was der emeritierte Universitäts-Professor Dr. med.

Dr. h. c. Dings schreibt: „Der ‚swopper‘ [...] hält die Rumpfmuskulatur

mit dem zentralen Achsenorgan ‚in Schwung‘,

verhütet Fehlhaltungen sowie durch den ständigen Wechsel

von federnder Be- und Entlastung eine vorzeitige muskuläre

Ermüdung.“ Wohl gesprochen. Aber zurück zum ChairIO.

Normalerweise testen wir in dieser Rubrik ja immer die

Geräte. Einen ChairIO habe ich in der Kürze der Zeit leider

nicht organisieren können. Also stelle ich mir nun vor, wie

es wäre, eine ChairIO zu bedienen. Auch hier stimuliert die

englische Sprache mit ihrer filigranen Einfachheit mein

Vorstellungsvermögen als User: „To operate the ChairIO the

user sits on the device ...“. Ich setze mich also auf meinen

eigenen Hocker, der noch nicht im Museum of Modern Art

stehen durfte, und lese weiter. „... and, by shifting their body

weight, tilts it in any direction or rotates the seat. This physical

movement of the seat is mapped to viewpoint/direction

movement in the game environment.“ Spiel? Schade. Just

hatte ich mir vorgestellt, wie ich im Großraumbüro mit

verschränkten Armen auf dem Hocker sitzend eine Excel-

Tabelle ausfülle.

Digitaler Kasatschok

Der ChairIO wurde zusammen mit einer „hand-held light

gun“ präsentiert, um „First-Person-Shooters (FPS)“-Spiele

spielen zu können. Das Ganze war natürlich alles andere

als trivial, braucht es doch eine Menge Wissen über Virtual

Reality (VR), Augmented Reality und Programmierung,

die Architektur und Software des Interfaces umzusetzen.

Um den ChairIO an Linux- oder Windows-Anwendungen

anbinden zu können, wird das Virtual-Reality Peripheral

Network (VRPN) verwendet, eine Ansammlung von Klassen

innerhalb einer Bibliothek und einer Anzahl von Servern,

mit denen die Benutzeroberflächen von Spielen mit

ihren jeweiligen Eingabegeräten zusammenarbeiten. Vielleicht

wird eines Tages ja mehr daraus, als ein Ego-Shooter:

„The interface as a general input device within the operating

system is another avenue of interest, mainly concerned with

applying and evaluating the ChairIO in standard desktop

applications.“ Also doch Excel mit Hocker. Layouten ohne

Maus, kombiniert mit automatischer Spracherfassung. Auf

zum digitalen Kasatschok.


Von Mangenta geblendet

Sie standen schon mal vor der Entscheidung: Vodafone,

O2, E-Plus oder D1? Welcher Netzbetreiber ist für mich,

für mein Telefonverhalten, meine Reisen am besten? Im

Geschäftsleben kann es absolut wichtig sein, wo welches

Netz zu welchem Preis erreichbar ist. Und wie man selbst

erreichbar ist. Um so verwunderlicher ist es, dass Verkäufer

gerade hier in der Beratung Nachholbedarf haben.

Neulich in München

Im Ladenlokal eines großen deutschen Netzbetreibers

steht ein älterer Herr. Er erkundigt sich nach Vodafone

und der Reichweite des einst zu Mannesmann zählenden

Mobilfunkanbieters. Die Magentafarbe des Ladenlokals verrät:

leider im falschen Geschäft. Der Verkäufer legt sich ins

Zeug. Obwohl ihm der Kunde eingehend erklärt, dass er bei

sich daheim mit seinem D1-Handy keinen oder nur einen

sehr schlechten Empfang habe, ein Bekannter mit Vodafone

hingegen reibungslos telefoniere, hält der gut gekleidete

Mitarbeiter an seiner Strategie fest – fragender Blick und

Testergebnisse. Er verstehe das ganz und gar nicht, belegen

Untersuchungen doch, dass der Magenta-Konzern bei der

Netzabdeckung die Nase vorn habe: 98 Prozent. Das entspricht

fast ganz Deutschland. Zu dumm, dass sich die Abdeckung

nicht auf die Fläche, sondern auf die Bevölkerung

bezieht. Das sagt nicht wirklich etwas über die Verfügbarkeit

013

aus. Könnte aber ein Indiz dafür sein, warum Vodafone D1

am Wohnort des Kunden besser funktioniert. Leben hier

vielleicht gerade jene zwei Prozent der Bevölkerung, die

nicht rosa sehen?

Tests lügen nicht

Der Kunde ist beeindruckt: Testergebnisse können nicht

lügen. Kurzerhand entschließt er zum Abschluss eines neuen

Vertrages: einer Prepaid-Karte von D1. Und das, obwohl

seine alte Karte noch Guthaben haben müsste. Ein neues

Handy nimmt er aber nicht mit. Wohlwissend: „Mein Gerät

ist zwar nicht mehr das neueste. Doch die zwei, drei Stunden

Betriebsbereitschaft genügen mir.“ Stellt sich jetzt die Frage,

ob der Käufer mit seinem alten Netzbetreiber und seiner

neuem SIM-Karte glücklicher wird ...


014

Usability von IT-Systemen ist keine

„Sonderausstattung“

Werte Kolleginnen und Kollegen, haben Sie auch schon einen multifunktionalen

DVD-Recorder mit Festplatte und elektronischer

Programmzeitschrift? … Und, können Sie ihn bedienen? Oder besser

gefragt: Haben Sie jemals schon mehr gemacht, als eine Sendung

aufgenommen, angeschaut und dann wieder gelöscht?

Wir kaufen uns „elektronische Helferlein“, die eine Vielzahl von

Funktionen bereitstellen. Funktionen, von denen wir die meisten

entweder gar nicht kennen oder nicht brauchen. Woran liegt das?

Einerseits sicherlich daran, dass mobiles Telefonieren, ruckelfreier

mobiler Musikgenuss, digitale Fotos und schlüsselanhängergroße

Datenträger einfach praktisch sind! Doch offensichtlich

reicht uns das nicht aus. Die Geräte liefern neben den Nutzfunktionen

noch Mehrwert und führen die Eigenschaften verschiedener

Geräteklassen zusammen. Es gilt: mehr Funktionen -> besseres

Gerät. Übrigens auch im Office-Umfeld. Schauen Sie sich mal Ihr

Textverarbeitungs- oder Präsentationsprogramm an.

Dem gegenüber stehen die Anwendungssysteme, die wir unseren

Mitarbeitern im Unternehmen zur Verfügung stellen. Hier gilt

optimale Ausrichtung an den Benutzerfähigkeiten und Kenntnissen

im Sinne maximaler Effizienz und Effektivität! Jeder Mitarbeiter

bekommt exakt die Anwendungsfunktionalität und Information, die

er im jeweiligen prozessualen Kontext benötigt. Die ihm zur Verfügung

stehende Hard- und Software ist optimal aufeinander abgestimmt

… Stimmt das für die von Ihnen verantworteten IT-Systeme?

Ich glaube nicht!!

Was tun Sie, um sicherzustellen, dass bei der Entwicklung von

Anwendungssystemen nicht nur die funktionalen Aspekte eines Lastenhefts

umgesetzt werden, sondern dass in ausreichendem Maße

die „nicht-funktionalen“ Anforderungen der Benutzer berücksichtigt

werden? Wenn Sie gut sind, lassen Sie sich Ihre GUIs durch

Usability-Spezialisten entwickeln. Wenn Sie richtig gut sind,

bringen Sie Ihre Mitarbeiter dazu, die Benutzer und deren Arbeitssituation

zu verstehen. Leider ist weder das eine noch das

andere die Regel in den meisten Unternehmen!

Sie werden aufstöhnen und denken „Ja, ja, alles richtig, aber

wie soll ich bei den knappen Budgets meine Kunden davon überzeugen,

dass sie mehr Geld für schöne Oberflächen ausgeben sollen?“.

Gehen wir denn aber richtig mit dem Thema Usability um? Ist

Usability eine „Sonderausstattung“, die wir als Option bei der

Entwicklung von Anwendungssystemen „dazubestellen“ können?

Aus meiner Sicht müssen wir umdenken. Lassen Sie uns nicht weiter

„Flüsterpost“ spielen, indem Projektverantwortliche aus dem

Business die funktionalen Anforderungen in einem Lastenheft zusammenführen,

ein IT-Berater oder interner Dienstleister das

Pflichtenheft konkretisiert und das Projekt dann von Programmierern

umgesetzt wird. Bringen Sie Ihre Mitarbeiter, Berater und

Programmierer dazu, die zukünftigen Benutzer und deren Anforderungen

kennen zu lernen. Ein Abrechner vor dem SAP-HR-System

oder ein Call-Center-Agent ist eben kein Internet-Guru oder

weiß, wie man sich schnell ein Office-Makro für die Automatisierung

von Vorgängen zusammenklickt. Außerdem ist es ein Unterschied,

ob man als einfacher Benutzer am Terminal arbeitet oder

als Administrator am voll ausgestatteten Entwickler-PC sitzt!


Briefe an den IT-Leiter

Schicken Sie die Mitarbeiter einfach mal „raus ins Feld“! Dafür

brauchen Sie keine Schulungsmaßnahmen oder Entwicklungswerkzeuge.

Das sollte jedoch unter einem klar formulierten Motto stehen.

Sie können zusammentragen lassen, wie viele verschiedene

Benutzertypen das Anwendungssystem nutzen (z. B. Sekretariat,

Sachbearbeiter, Administrator). Oder wie viele verschiedene

Aufgaben ein Benutzer hat und wie viele Anwendungen er dabei

benutzt. Sie werden feststellen, dass nicht nur Ihre Mitarbeiter

einen Motivationsschub erfahren, sondern auch Ihre Kunden

erfreut sein werden, dass sich jemand für ihre Belange interessiert.

Das ist menschlich, und so werden auch einmal kleinere

Fehler und Unzulänglichkeiten verziehen. Der minimale Aufwand

dafür wird kompensiert durch die Vermeidung unnötiger Arbeiten

– so manche Entwicklung, die technisch interessant aber völlig

unnötig für den Benutzer war, konnte so schon vermieden werden.

Wenn Sie meinen „Das erscheint mir doch etwas zu unkonventionell,

unsere Hotline soll erst einmal eine Umfrage machen, wie

zufrieden die Mitarbeiter mit der IT sind, oder wir stellen einen

Fragebogen ins Intranet“ – vergessen Sie es! Untersuchungen

zeigen, dass derartige Aktionen, selbst wenn Sie schöne Incentives

anbieten, nichts bringen. 5 persönliche Gespräche zwischen

Entwicklung und Benutzern sind mehr wert als 20 Fragebögen.

Denken Sie lieber darüber nach, wie Sie bei der Einführung von

ITSM-Prozessen nach ITIL oder anderen Methoden den organisatorischen

Rahmen für die o. g. Interaktion schaffen können. Implementieren

Sie mit deren Einführung direkt (pragmatische) Methoden

und Instrumente, die Usability zum integralen Bestandteil

der Dienstleistungserbringung machen.

Die beschriebenen Aspekte entspringen nicht nur purer „Menschenfreundlichkeit“.

Die serviceorientierte IT-Welt adressiert ganz

konkret neue Möglichkeiten zur stärkeren Orientierung der Anwendungssysteme

an den Business-Prozessen durch prozessorientierte

Integration von Funktionalität und Information. „Die richtige

Information/Funktion zur richtigen Zeit am richtigen Ort.“ Mit

der gebotenen Flexibilität. Was ist das anderes als die an den

Benutzer-Aufgaben ausgerichtete Gestaltung von Anwendungssystemen

– egal ob als Portal oder klassische Applikation. Warum?

Letztlich, um durch Effizienz und Effektivität Geld zu sparen.

Also lassen Sie uns nicht analog zur „alten Welt“ ein Portal

neben dem nächsten aufbauen und den Benutzer wieder mit unterschiedlichen

Interaktionsparadigmen und fehlender Konsistenz

konfrontieren, sondern von vorneherein durch übergreifende Style-Guides,

generische Handlungsprinzipien und eine klare Geschäftsprozessorientierung

eine Erfolgsstory schreiben. IT als

„echter“ Enabler!

In diesem Sinne wünsche ich Ihnen (und uns) viel Erfolg bei der

Sensibilisierung der Mitarbeiter, so dass wir zukünftig nicht

mehr Aussagen wie „für Usability hatte ich keinen Auftrag“ und

„das kostet zu viel Geld“ hören, sondern die Orientierung an

differenzierten Benutzerbedürfnissen in den Geschäftsprozessen

zum Grundverständnis bei der Entwicklung von Anwendungssystemen

wird. Und, dass es gelingt zu verdeutlichen, dass man damit eher

Geld spart als Kosten verursacht!

Es schrieb Ihnen Dr. Achim Reuther, Leiter IT-Strategie, EnBW Energie Baden-Württemberg AG


16-21 Die Dimensionen der Karte

Informationen in Geoinformationssystemen

22-25 Von der Idee zum Geschäftsmodell

Location Based Services

26-28 IT statt Bauernkalender

Precision Farming

30-31 Karten für die Gesundheit

Geodaten im Gesundheitswesen

32-34 Interview Karola Bode, O2

35 Kommentar

Prof. Dr. Klaus Greve

Geographische Informationssysteme (GIS) galten lange

Zeit als Anwendungen für und von Spezialisten, weit entfernt

vom Mainstream der IT. In der Wahrnehmung der

Öffentlichkeit hat sich dies durch das Aufkommen von

Google Earth und anderen Planetenbrowsern grundsätzlich

geändert. Besonders interessant an dieser Entwicklung:

Nahezu alle großen Internet-Infrastrukturbetreiber setzen

auf die Geo-Karte. Sie fassen verstreute Stadtplan- und

Kartendienste in globalen Infrastrukturen zusammen und

integrieren Kartendienste und Navigationsunterstützung

mit weitergehenden Informationsdiensten:

(1) Größte Beachtung der Massenmedien fand Google mit

seinen 2-D-Karten- und 3-D-Globusapplikationen Google

Maps und Google Earth.

(2) Ähnliche Funktionalitäten wie Google Earth zeigt der

digitale 3-D-Globus NASA Worldwind, der als Open-Source-

Projekt nicht nur kostenfrei zu nutzen ist, sondern zusätzlich

seinen Code offen legt.

(3) Microsofts Virtual Earth wird um die 2-D-Karten- und

Navigationsapplikation local.live.com ergänzt. Hier finden

sich für amerikanische Großstädte neben klassischen Senkrechtluftbildern

auch Schrägluftbilder, die Gebäude- und

Fassadendetails zeigen.

(4) Die Informationsinfrastruktur A9 von Amazon bringt

ebenfalls eine 2-D-Kartenapplikation heraus, angereichert

mit Navigationsdiensten und vielfältigen weiteren Informationsangeboten.

Für viele amerikanische Großstädte finden

wir hier an die Kartennavigation angebundene Fassadenfotos,

die zu virtuellen Spaziergängen einladen.


(5) Yahoo beteiligt sich ebenfalls mit einem 2-D-Kartendienst,

in den Satellitenbilder, lokalisierte Suchfunktionen,

Navigationsunterstützung und aktuelle Verkehrsinformationen

integriert sind.

(6) Karten- und Navigationsdienste wie MapQuest oder

Map24 integrieren zunehmend weiteren Content und entwickeln

sich in Richtung auf die Planetenbrowser.

(7) Klassische GIS integrieren virtuelle Globen und lassen

traditionelle und neue Technologie zusammenwachsen.

Diese Entwicklung verwundert nur auf den ersten Blick.

Kartendienste und raumbezogene Informationen dienen

traditionell zur Navigation und zur Ordnung des Wissens.

Die richtigen Informationen zu identifizieren und zu ihnen

hinzunavigieren ist das zentrale Problem des Wissensmanagements.

Zu diesem Zweck bedienen wir uns interessanterweise

einer Begrifflichkeit, wie wir sie von der Beschreibung

von Orten und Räumen unserer Erde gewohnt sind.

Der Cyberspace wird durch Raummetaphern erschlossen:

Homepage, Mailbox, Pfade, Surfen, Datenautobahn, globales

Dorf, Domain sind nur ausgewählte Beispiele. Das ist

kein Zufall. Offensichtlich bildet die räumliche Orientierung

für den Menschen ein sehr effektives Ordnungssystem,

das er auf nichträumliche (Un-) Ordnungen anwenden

kann. Geoinformation besitzt damit doppelten Wert: Sie

orientiert über Phänomene und Ereignisse in der realen

Welt und hilft, Orientierung in die vom Menschen geschaffenen

virtuellen Welten zu bringen.

Planetenbrowser stellen somit eine Schnittstelle zwischen

der realen Welt und den Abbildern der realen Welt in vir-

Informationen in Geoinformationssystemen

Die Dimensionen

der Karte

Traditionell dienen Karten zur Navigation und Ordnung des Wissens. Seit Anfang

der 60er Jahre organisieren Geoinformationssysteme die räumliche Dimension von

Informationen. Weshalb wir heute mit dem Cursor auf der Karte reisen können.

017

tuellen Welten dar. Das ist nicht neu: Schon vor 100 Jahren

reisten Menschen mit dem Finger auf der Landkarte zu

fremden Orten, diente die Karte dazu, Informationen aus

verschiedenen Medien (Reiseführer, Bildbände, Fahrpläne,

Klimatabellen) zusammenzuführen. Neu ist der Wert, der

dieser Datenintegration beigemessen wird. Hier wird deutlich,

dass GIS und Planetenbrowser keine multimedialen

Spielzeuge sind. Aktuelle Studien und Parlamentsdiskussionen

verweisen ein erhebliches Marktpotenzial für Geoinformationen

auf. Der derzeitige Umsatz der Geoinformationswirtschaft

in Deutschland wird auf 65 Mio. bis 110

Mio. Euro geschätzt. Dabei ist davon auszugehen, dass die

gegenwärtigen Umsätze nur einen kleinen Teil des tatsächlichen

Marktpotenzials ausmachen. Für Nordrhein-Westfalen

wird das aktuell ausgeschöpfte Potenzial auf 17 Prozent

geschätzt. Weitergehende Untersuchungen gehen von einem

bisher unerschlossenen Marktpotenzial in Deutschland von

etwa 6,8 Mrd. Euro aus.

Nur Planetenbrowser oder echtes GIS?

GIS sind IT-Systeme, die der Verarbeitung von Informationen

unter Berücksichtigung der räumlichen Dimension

dienen. In diesem Sinne sind die Planetenbrowser als geographische

Informationssysteme zu betrachten. Traditionelle

Definitionen von GIS sind hier strenger. Sie fordern

von einem GIS, dass es ein EVAP-Informationssystem für

raumbezogene Daten darstellt. EVAP steht für Erfassung,

Verarbeitung, Analyse und Präsentation. Bei den Planetenbrowsern

liegt der Schwerpunkt der Anwendung noch auf

der Präsentation, weshalb sie ein traditioneller GIS-Experte


018 Titel

nicht als GIS einstufen wird. Mächtige Analysefunktionen

gelten ihm als zentrales Element eines GIS.

Schon die ersten GIS, die seit Anfang der 60er Jahre entwickelt

wurden, verfügten über umfangreiche Funktionen zur

raumbezogenen Datenanalyse. Das war angesichts der technischen

Randbedingungen notwendig, denn Ausgabegeräte

für raumbezogene Präsentationen waren praktisch nicht

existent. Sehr einfache Karten konnten auf Stiftplottern,

Zeilendruckern oder Monitoren mit geringer Auflösung

ausgegeben werden. Daher war es häufig notwendig, die Informationen

mittels komplexer Analysen zu verdichten und

das Analyseergebnis dann als vergleichsweise einfache Karte

oder Tabelle zu präsentieren.

Prinzip May Overlay

So zeichnen Computer

Links das Vektorprinzip: Objekte werden als

Punkte, Linien oder Flächen repräsentiert. Vorteil:

Das ist eindeutig. Nachteil: Das ist leider

zu eindeutig, wenn wir die Abgrenzungen nicht

kennen. Geographen sprechen vom „Objektansatz“

und behandeln räumliche Objekte (z. B.

einen See), als seien sie gewöhnliche Gegenstände.

Rechts das Rasterprinzip: Viele kleine Planquadrate,

der Computer stellt jedes als ein

Pixel dar, das bestimmte Werte aufweist. Dies

ist der „Feldansatz“: Die Situation wird wie ein

physikalisches Feld modelliert, dessen Stärke

von Pixel zu Pixel variiert.

Raumanalysen mit GIS beruhen vor allem auf dem Prinzip

des Map Overlays. Kartographen organisierten schon lange

vor der Einführung digitaler Techniken ihre Produktion

durch Überlagerung verschiedener thematischer Schichten

(engl. Layer). Eine Karte wurde nicht in einem Stück

gezeichnet, sondern thematisch aufgeteilt in verschiedene

Folien oder Layer. Jedes Thema (Grenzen, Flüsse, Straßen,

Siedlungen, Landnutzung u. a.) zeichnete man auf eine

eigene transparente Folie. Die Ergebniskarte entstand,

indem die Folien übereinander gelegt und die Inhalte so

überlagert wurden. Diese Methodik lässt sich nicht nur zur

Kartenerstellung verwenden, sondern ebenso zur raumbezogenen

Analyse. Erstmals ausformuliert und für konkrete

Planungen angewendet (noch in analoger Form), hat diese

Punkt

Linie

Polygon

Methodik der Landschaftsplaner Ian McHarg in seinem

Klassiker „Design with Nature“. Später hat C. Dana Tomlin

diese Methodik weiter ausformuliert und zur Map Algebra

formalisiert, die bis heute die Grundlage der Analysefunktionen

der GIS bildet .

Die digitale Umsetzung der Map Overlay oder Verschneidungsmethodik

kann auf zwei unterschiedlichen Datenstrukturen

erfolgen: auf der Basis eines Raster- oder eines

Vektormodells. Im Rastermodell wird die Information wie

bei einem digitalen Foto in einem Raster abgelegt. Es wird

– bildlich gesprochen – ein feines Karoraster über die Karte

gelegt. Dann werden alle Rasterquadrate, die auf einem für

die Darstellung wichtigen Objekt liegen, mit einer Markierung,

einem Schlüsselwert für das Objekt belegt. Für die

Darstellung der Objekte auf dem Bildschirm werden die

Schlüsselwerte in Farben umgesetzt und die Objekte dadurch

sichtbar: Ein See besteht aus einem Klumpen feiner

blauer Quadrate, ein Fluss aus einer mehr oder weniger

breiten Folge von Rasterquadraten.

Komplexes Vektormodell

Vektor Raster

Vektor oder Raster, Objekt oder Feld

Das Vektormodell ist komplexer aufgebaut. Hier werden

nicht die Objekte selbst, sondern sie repräsentierende Punkte

als X- und Y-Koordinaten gespeichert. Bei Objekten ohne

große Flächenausdehnung wie Bohrpunkten oder Messstellen

geht das genauso einfach wie bei der Rasterdarstellung.

An der durch die X-Y-Koordinate bezeichneten Stelle der

Karte repräsentiert ein bunter Punkt oder ein Symbol das

Objekt. Durch Größe, Farbe und Art des Symbols können


unterschiedliche Arten und Bedeutungen von Objekten

ebenso wie mengenmäßige Unterschiede dargestellt werden.

Schwieriger ist die Abbildung von linienförmigen Objekten

wie Flüssen oder Straßen. Hier wird eine Vielzahl von Punkten

benötigt, die eine Linie (unterschiedlicher Farbe, Stärke

und Signatur) verbindet. Flächen entstehen, indem ihre

Außengrenzen als geschlossene Linie erfasst und der Bereich

innerhalb der Linie (auch Umrings-Polygon genannt)

eingefärbt oder mit einer Schraffur versehen wird. Nach

dem gleichen Prinzip können aus Flächen dreidimensionale

Körper modelliert werden. Die Vektormethode hat gegenüber

der Rastermethode den Vorteil, dass mit sehr präzisen

zentimetergenauen Koordinaten gearbeitet wird. Die Daten

werden häufig direkt per GPS oder andere digitale Vermessungsinstrumente

gewonnen.

Informationsverlust durch Auflösung in Raster

Durch die Auflösung räumlicher Strukturen in Raster

entsteht immer eine Vergröberung, ein Informationsverlust.

Dafür lässt sich diese Arbeit weitgehend automatisch

durch Scannen von Luftbildern und Papierkarten erledigen.

Satelliten- und digitale Luftbildkameras liefern unmittelbar

gerasterte Daten. Die Verschneidung verschiedener

Themenkarten durch Übereinanderlegen bei gleicher

Rasterweite erfordert viel weniger Rechenaufwand als der

ungleich aufwändiger gestaltete geometrische Vergleich von

zwei Vektorkarten unterschiedlichen Themas.

Früher arbeiteten einfache GIS meistens nach der Rastermethode,

komplexere Systeme nach der Vektormethode.

Ausgefeilte Systeme kombinierten beide Methoden. Überall

dort, wo Messpunkte, Grenzen und Eigentumsverhältnisse

berührt sind, werden meist vektorgestützte Systeme eingesetzt.

Im Umweltbereich sind die Grenzen der Objekte häufig

ohnehin nicht in exakten Koordinaten zu bestimmen.

Hier kommen häufig rastergestützte Systeme zum Einsatz.

Wer mit Satellitendaten arbeitet, kommt nicht umhin, nach

der Rastermethode zu verfahren. Aktuelle GIS beherrschen

in der Regel beide Modelle, sowie die Umwandlung von

Vektormodellen in Rastermodelle und umgekehrt. Allerdings

muss der Nutzer sich der Grenzen und Randbedingungen

im Umgang mit beiden Modellen im Klaren sein.

Der eigentliche Schatz im GIS sind die Daten

Den eigentlichen Wert eines GIS machen jedoch nicht

Datenmodelle, Algorithmen und Software aus, sondern die

Daten, die raumbezogene Analysen erst ermöglichen. Eine

019

Faustformel besagt, dass etwa 1 Prozent der Kosten für ein

GIS auf Hardware, 9 Prozent auf die Software und bis zu

90 Prozent für die Daten aufzuwenden sind. Die Erfassung

von Geodaten gilt traditionell als aufwändig. In den Zeiten

zuverlässig verfügbarer GPS-Signale ist dieses Statement

zu differenzieren. Jedermann kann heute mit überschaubarem

Aufwand seine eigenen Geodaten produzieren. Sei

es ein Außendienstmitarbeiter, der die Koordinaten wilder

Mülldeponien mit einem einfachen GPS ermittelt oder

der Wanderer, der das gleiche GPS verwendet, um seine

Wanderrouten zu tracken. Beide erzeugen Daten, die ohne

Verknüpfungen mit weiteren Datenbeständen wenig Nutzen

haben. Die Wanderroute wird erst zur interessanten

Information, wenn sie in eine Karte eingezeichnet wird.

Die Koordinaten der wilden Mülldeponien können von

den Müllfahrzeugen erst angefahren werden, wenn sie mit

einem Straßennetz und weiterer Navigationsinformation

verbunden werden.

In Anlehnung an ISO 19107 können wir Geoinformation

als Informationen über Gegenstände, Sachverhalte und

Prozesse, die mit einer auf die Erde bezogenen Position verbunden

sind, bezeichnen. Eine weit verbreitete Faustformel

sagt, dass 80 Prozent aller Informationen dieser Definition

genügen. In der Regel wird Geoinformation nicht allein,

sondern im Kontext komplexer Informationsstrukturen

verarbeitet. Dabei entsteht die eigentliche Geoinformation

häufig erst durch Verknüpfung unterschiedlicher Informationsbestandteile.

Ein Beispiel mag dies verdeutlichen:

Die häufigste Darstellungsform von Geoinformation sind

Adressen. Existiert eine Referenzliste, die Adressen zu Lagekoordinaten

zuordnet, so können wir die Adressdaten als

Geodaten nutzen und die enthaltene Geoinformation

auswerten (beispielsweise feststellen, wie viele potenzielle

Kunden im Umkreis von 10 km um ein Einkaufszentrum

wohnen). Existiert die Referenzliste nicht oder sind die

Adressen in einer Weise aufgenommen, dass sie nicht mit

der Referenzliste verbunden werden können, so lässt sich

die benötigte Geoinformation nicht gewinnen.

Um mit GIS und Geoinformation zu arbeiten, benötigt der

Markt in der Regel umfangreiche Basisdaten und Referenzdatenbestände,

häufig als Geobasisdaten bezeichnet. Den

größten Teil der Geobasisdaten produzieren die staatlichen

und halbstaatlichen Vermessungsbehörden. Wichtige Referenzdatenbestände

entstehen durch die Satellitenmissionen.

Für Navigationszwecke werden weltweit fast ausschließlich

Daten privater Anbieter verwendet. Hier teilen sich die Firmen

Navigation Technology aus Chicago und Teleatlas aus

den Niederlanden den größten Teil des Weltmarktes.


020 Titel

Wenige Anbieter dominieren den Markt

Der Markt für Geoinformationen wird von wenigen großen

Anbietern dominiert. Viele Unternehmen beklagen

sich, dass die Strukturen dieses Marktes sich an Großhandelstrukturen

orientieren. Dies ist eine Folge historisch

gewachsener Strukturen aus der Zeit, in der die Anwendung

von GIS große Investitionen in Technik und Know-how

erforderte und daher Geodaten vor allem von Großorganisationen

mit spezialisierten GIS-Abteilungen nachgefragt

wurden (Planungsbehörden, Militär- und Sicherheitsorgane,

Netz- und Infrastrukturbetreiber, später Fahrzeugnavigation

und Flottenmanagement). Und es ist eine Folge des

Wertschöpfungsparadoxons der Geoinformation: Der Aufbau

von Geobasis- oder Referenzdatenbeständen ist außerordentlich

kostenintensiv. Einen Nutzen entfalten Geodaten

erst, wenn sie für sehr spezielle Einsatzzwecke fachgerecht

aufbereitet werden.

Obwohl umfangreiche kommerziell verwertbare Geodatenbestände

existieren und die GIS-Programme vergleichsweise

kostengünstig sind, gilt die Arbeit mit GIS in vielen

Branchen als zu teuer, zu kompliziert und fachlich schwer

vermittelbar. Diese Strukturen bilden ein wesentliches Hindernis

für die Entfaltung des Marktpotenzials der Geoinformationswirtschaft.

Gleichzeitig wird der zukünftige Markt

für Geoinformationen und Geoinformationsdienstleistungen

als ein ausgesprochener Wachstumsmarkt gesehen,

insbesondere für spezialisierte kleinere und mittlere Betriebe

und Experten, die das Feld der klassischen räumlichen

Planung, Entscheidungsunterstützung und Navigation mit

dem Feld der Informationsverarbeitung inhaltlich und methodisch

verbinden. In der politischen Debatte zur Geoinformationswirtschaft

werden Maßnahmen zur Entwicklung

stärker nachfrageorientierter Marktstrukturen diskutiert.

Dazu gehört die Frage, in welchem Ausmaß und zu welchen

Konditionen staatliche und halbstaatliche Stellen die

Geodaten abgeben sollen. Während in den USA öffentliche

Daten weitgehend kostenfrei abgegeben werden, finanzieren

die meisten europäischen Staaten die Produktion von Geobasisdaten,

indem sie die Daten gegen Gebühren oder Kostenerstattung

weitergeben. Marktstudien weisen daraufhin,

dass die europäische Vorgehensweise nicht zwangsläufig

wirtschaftlich ist: Einnahmen aus Gebühren und Steuern

stehen hier in einem Konkurrenzverhältnis zueinander.

Fundierte Schätzungen sagen, dass bei weitgehend freien

Bezugsmöglichkeiten von Geoinformationsprodukten ein

Verhältnis von öffentlichen Investitionen zur Erzeugung

und Abgabe von Geoinformationen zu Wertschöpfungen

auf dem privaten Geodatenmarkt von 1:4 möglich ist. Ausgehend

von einer Steuerquote von 25 Prozent kann daraus

gefolgert werden, dass die öffentliche Anfangsinvestition

durch die Steuereinnahme vollständig refinanziert wird.

Verzichtet der Staat auf Gebühren, so verdient er an Steuern

mehr, als er an Gebühren für Geoinformation überhaupt

einnehmen könnte. Eine im Auftrag der US-Administration

von PricewaterhouseCoopers Management Consultants

erstellte vergleichende Untersuchung europäischer und

amerikanischer Strategien zur Distribution amtlicher Geoinformation

stützt diese Befunde.

GIS – Web – Mesh Up

Auffällig ist: GIS sind nicht ausschließlich Spezialanwendungen

für und von Spezialisten. Seit etwa 15 Jahren diffundiert

die GIS-Anwendung immer weiter in die Breite der

unterschiedlichsten Fachbereiche. Ständig öffnen sich neue

Anwendungsfelder. Etabliert sind inzwischen Standortplanung,

Geomarketing und Flottensteuerung im Transport-

und Speditionsgewerbe. Crime Mapping bildete vor allem

in en USA eine Innovationswelle, die gerade nach Europa

schwappt. Immobilienwirtschaft, Wirtschaftsförderung und

Gesundheitswesen sind die nächsten Anwendungsbereiche,

in denen GIS gerade große Bedeutung gewinnt.

Vor allem aber diffundiert die Nutzung von Geoinformation

in den Alltag. Zuerst waren es Routenplaner, Stadtplandienste

und Navigationssysteme, die Geoinformationsdienste

in den Alltag integrierten. Nach den Autos werden

weitere Alltagsgegenstände wie Mobiltelefone, PDAs und

Digitalkameras GPS-Empfänger und raumbezogene Verarbeitungslogiken

enthalten. Nicht nur technische Veränderungen

sind Ursache dieser Entwicklungen. Die Produktion

in der Informationsgesellschaft beruht auf Information und

Wissen, genauer auf Planung und Analyse als entscheidende

Voraussetzungen für Erfolg und Ertrag der Produktion.

Wissen und Information sind dabei nicht nur und nicht

mehr nur das Ergebnis von Erfahrung und individuellen

Lernprozessen, sondern auch des Aufbaus technisch nutzbarer

und übertrag- und handelbarer Datenbestände. Dazu

gehört zentral das Orientierungs- und Ordnungswissen der

Geoinformation.

Das Web als künftige Infrastruktur

Eine wesentliche Rolle beim Aufbau der Infrastruktur

der Informationsgesellschaft spielt das WWW. Spatial

Web Services übernehmen hier zunehmend die Funktion

klassischer GIS. Diese Services folgen Standards, die vor


allem vom Open Geospatial Consortium (OGC) gesetzt

werden. Das OGC ist ein Industriekonsortium, in dem

sich die wichtigsten GIS- und IT-Hersteller und viele GIS

nutzenden Organisationen zusammengeschlossen haben.

Die Open Web Services (OWS) isolieren einzelne Aufgaben

der raumbezogenen Informationsverarbeitung und

implementieren sie in eine Architektur aus verschiedenen

Modulen. Diese Module können als selbstständige Dienste

oder Services ausgeprägt werden und kommunizieren über

standardisierte Schnittstellen miteinander. Das verbreiteste

Modul ist der Web Map Service (WMS). Weitere Module

oder Dienste sind der Web Feature Service (WFS), der Web

Coverage Service (WCS), der Web Catalog Service CAT oder

der Web Coordinate Transformation Service (WCTS).

Die Module sind als kaskadierende und sich selbst beschreibende

Dienste ausgelegt. Ein Dienst wird nicht nur

aufgrund der Anforderungen eines Menschen aktiv, sondern

kann auf Anforderungen anderer Dienste reagieren.

Er kann über standardisierte XML-Dokumente bekannt geben,

welche Leistungen und Auskünfte von ihm zu erwarten

sind. Damit können mittels verketteter oder kaskadierender

Dienste ganze Produktionsketten zur Aufbereitung von

Informationen realisiert werden. Wenn nun zu den Auskünften

der Dienste ebenso die Auskunft über die eigene

Auskunftsfähigkeit gehört, sind die Verkettungen nicht nur

in linearen Strukturen, sondern in komplexen und teilweise

selbstorganisierenden Netzwerken möglich. Die OWS verfügen

dadurch über Eigenschaften des Web 2.0 und nehmen

Merkmale des Sematic Web, des Nachfolgers des WWW

voraus.

In diesen Kontext gehört der Erfolg der Planetenbrowser

im Web. Wir können sie als Vorschau auf zukünftige raumbezogene

Services im Web verstehen. So ist es nicht verwunderlich,

dass die Mesh Ups, die Verknüpfungen zwischen

verschiedenen Informationsangeboten im Web, praktisch

immer eine Geokomponente enthalten.

Prof. Dr. Klaus Greve

Klaus Greve, Jahrgang 1957, studierte in Kiel,

Hamburg und Kopenhagen. Der Professor für

Geographische Informationssysteme und Fern-

erkundung an der Universität Bonn ist Experte

für Geodateninfrastruktur sowie Planungs- und

Umweltinformationssysteme.

Feierabend!

Ist Ihre Arbeit auch erledigt?

Wenn Sie das Gefühl haben, häufig viel unproduktive Zeit mit

dem Suchen von relevanten Informationen zu verschwenden

und abends unerledigte Aufgaben liegen lassen, dann haben

wir die passende Lösung für Sie.

CUSTOMER INFORMATION MANAGEMENT (CIM)

CIM automatisiert und beschleunigt kundenbezogene

Arbeitsabläufe um 50%:

- eingehende E-Mails werden analysiert

- relevante Kunden-Informationen, die Sie zur Bearbeitung

benötigen, werden automatisch bereit gestellt

- der Zugriff auf Business-Daten wie SAP erfolgt direkt aus

Outlook

- wichtige Mails verschieben Sie einfach mit der Maus ins

SAP, das alles in Ihrer vertrauten E-Mail-Arbeitsumgebung.

Sind Sie neugierig geworden?

Dann kommen Sie an unseren Messestand auf der

DMS 2006 in Köln vom 19.09.-21.09. (Halle 8, Stand F068)

und erleben Sie live in angenehmer Lounge-Atmosphäre,

wie diese Lösungen Ihre Arbeitseffizienz wesentlich erhöhen!

com



021


022 Titel

Location Based Services

Von der Idee zum

Geschäftsmodell

Ansätze für Location Based Services (LBS) gab es mehrfach. Die Ideen, durchwegs

in der ersten New Economy entstanden, haben sich aber nicht in Gewinne umsetzen

lassen. Jetzt schaut die „Net Economy“ genauer auf das Geld und kommt mit

neuen Geschäftsmodellen.

Carsten Leininger

„New Economy ist tot. Es lebe die Net Economy“. So

könnte das Motto der jüngsten technologischen Entwicklung

dienstleistungsorientierter Wirtschaftszweige lauten.

Seit die Seifenblase der Internetwirtschaft mit ihren

unzähligen Start-ups geplatzt ist, können sich nur solche

Unternehmen am Markt behaupten, die über Gewinn

realisierende Einnahmequellen verfügen. Die Euphorie der

e-Commerce-Jahre weicht immer mehr dem innovativen

Denken ertragsorientierter Geschäftsstrategen.

Keine kreative Idee ist es wert, weiterentwickelt zu werden,

wenn das Management nicht weiß, wie sich damit Geld verdienen

lässt. Die Propheten der New Economy haben lautstark

verkündet, dass die neuen Informationstechnologien

mit ihren vielfältigen Kommunikationskanälen die Verhaltensmuster

der Konsumenten revolutionieren würden und

dass es sich deshalb unbedingt lohne, in den technischen

Fortschritt zu investieren. Viele Investitionen sind getätigt

worden, ohne dass sich die Gewinnerwartungen der Unternehmer

erfüllt hätten. Der Grund lag häufig im Fehlen eines

funktionierenden Geschäftsmodells. Neue Technologien

bieten an sich noch keine Garantie für Wertschöpfung und

Rentabilität. Ein Beispiel dafür ist die bisherige Historie von

Location Based Services (LBS).

Standortbezogene Informationsdienste

Bei LBS handelt es sich um standortbezogene Dienste, die

in der Regel über Mobiltelefone sowie unter Zuhilfenahme

positions-, zeit- und personenabhängiger Daten dem Nutzer

selektive Informationen bereitstellen. Dabei unterscheiden

wir zwischen reaktiver und proaktiver Kontaktaufnahme.

Bei reaktiven Diensten muss der Service explizit angefordert

werden. Ein proaktiver Dienst reagiert auf bestimmte Ereignisse

wie beispielsweise das Betreten eines großen Einkaufszentrums.

Die technische Komplexität von LBS ist hoch und erfordert

das Zusammenspiel vieler verschiedener Akteure. Die Hersteller

müssen ein Endgerät (Target Device) entwickeln, in

das sich einerseits ein Positionsfinder (Position Originator),

beispielsweise ein Satellitennavigationssystem wie GPS integrieren

lässt. Andererseits muss daran ein Ortsbestimmer

(Location Provider) angeschlossen sein, der die vom Positionsfinder

gelieferten Daten zweckmäßig aufbereitet. Sollen

die Daten qualitativ angereichert sein, also zum Beispiel

nicht nur die Adresse eines Kinos, sondern dessen aktuelles

Programm sowie Rezensionen zu den laufenden Filmen

enthalten, dann ist ein Inhaltslieferant (Content Provider)


erforderlich. Der gesamte Content inklusive Location wird

dem Dienstanbieter (LBS Provider), beispielsweise einem

Mobilfunknetzbetreiber, zur Verfügung gestellt, der ihn

schließlich an den Dienstnutzer (LBS User) weiterleitet.

Ursprung New Economy

LBS, die gelegentlich Location Dependent Services (LDS)

genannt werden, sind in der Blütezeit der New Economy

entstanden. Damals gab es viele Ideen, wie in der vernetzten

Informationsgesellschaft ein Zusatznutzen für die Verbraucher

und somit Wettbewerbsvorteile für die Anbieter geschaffen

werden könnten. Dazu zählte die Vorstellung eines

Informationsdienstes, der die Kunden in der Nähe eines

Point of Sales (POS) auf die dort vorhandenen Angebote

aufmerksam macht. In diesem Zusammenhang wurden

einige Pilotprojekte lanciert. Der Antrieb der Entwicklungsarbeit

wurde dabei durch die Tatsache gefördert, dass neue

Technologien zur Verfügung standen, die einerseits solche

standortbezogenen Informationsdienste ermöglichten, andererseits

eine breit angelegte Anwendung brauchten – eine

so genannte Killer-Applikation, um die Investitionskosten

wieder einzuspielen.

023

Bei Verwirklichung der ersten LBS-Konzepte mussten viele

technische Anforderungen bewältigt werden. Das führte

unter anderem dazu, dass sich die Innovatoren auf die

Umsetzung konzentrierten und das Geschäftsmodell außer

Acht ließen. Sie glaubten, dass die technische Machbarkeit

automatisch zum ökonomischen Erfolg führen würde. Eine

Illusion, wie sich herausstellte.

Vom Marketinginstrument zum Dienstleistungskanal

Die ursprüngliche Grundphilosophie der LBS lautete: „Ich

kenne deinen Standort, also weiß ich, was du dort an Waren

und Dienstleistungen beziehen kannst.“ Dementsprechend

waren LBS zu Zeiten der New Economy als Marketinginstrument

konzipiert worden, das neben herkömmlichen

Werbemitteln zu einer schlagkräftigen Waffe im Kampf um

Kunden und Käufer werden sollte. In diesem Zusammenhang

sprachen die Fachleute vom Multi-Chanel-Marketing.

Der Verbraucher sollte nicht über einen, sondern über möglichst

viele Kommunikationskanäle angesprochen werden.

Die Aktualität der Information in der POS-Nähe galt dabei

als entscheidend für den Erfolg der Verkaufsförderung.

Doch das Marketingkonzept ging nicht auf. Der Versuch,

die Konsumenten über LBS zu aktivieren, scheiterte weniger

an der hohen Umsetzungskomplexität. Alles hätte wunderbar

funktioniert, wenn nicht die leidige Frage gewesen wäre,

wer die Infrastruktur und die aktuellen Informationsservices

finanziert. Die Werbewirtschaft, sonst Motor für die

Entwicklung neuer Absatzinstrumente, lehnte die Rolle des

Investors ab. Die meisten Handels- und Kaufhausketten

kämpften damals wie heute gegen sinkende Margen und

sahen nur Kosten ohne adäquates Umsatzpotenzial. Hinzu

kam, dass Schnäppchenjäger im Internet erheblich bessere

Möglichkeiten fanden. Vor diesem Hintergrund gab es für

LBS als ein vom Auftraggeber bezahltes Marketinginstrument

keine Zukunft. Die neue Entwicklungschance lag in

der Etablierung eines virtuellen Dienstleistungskanals, der

von den Endnutzern finanziert werden sollte.

Breite Anwendung mit Kundenmehrwert

Sicherlich gibt es heute noch Unternehmen, die Geschäfte

mit LBS als Marketinginstrument machen, allerdings nur

im B2B-Bereich. So erhalten immer mehr Handy-Nutzer

werbliche SMS, wenn sie sich in der Nähe von einer bestimmten

Lokalität befinden. Diese Form der proaktiven

standortbezogenen Kontaktaufnahme stellt allerdings eher

eine klassische Verkaufsförderungsmaßnahme dar als eine

innovative Geschäftsaktivität. Was fehlt, ist die Ansprache


024 Titel

Location Based Services

Standortbezogene Dienste (engl. Location Based Services (LBS),

auch: Location Dependent Services (LDS)) sind über ein Netzwerk

erbrachte mobile Dienste, die unter Zuhilfenahme von positions-,

zeit- und personenabhängigen Daten dem Endbenutzer selektive

Informationen bereitstellen oder Dienste anderer Art erbringen

(de.wikipedia.org/wiki/Location_based_services).

LBS benötigen eine Reihe von „Bedingungen“: (1) Endgeräte (Target

Device), z. B. Mobiltelefone, (2) Positionsfinder (Position Organisator),

um die Position des Endgerätes zu bestimmen, (3) Ortsbestimmer

(Location Provider) der die vom Positionsfinder gelieferten

Daten aufbereitet und an den (4) Dienstanbieter (LBS Provider)

vermittelt, der die Daten zum (5) Nutzer überträgt.

www.lbszone.com

www.e-lba.com

www.openbc.com/net/lbs

Satellitengestützte Positionsbestimmung

Am bekanntesten ist das Global Positioning System (GPS). Das

satellitengestützte Navigationssystem des US-Verteidigungsministeriums

wurde offiziell 1995 in Betrieb genommen. Heute wird GPS

stark im zivilen Bereich genutzt: Seefahrt, Luftfahrt, zur Orientierung

und als Navigationssystem im Outdoor-Bereich und im Auto.

Für den Einsatz in Mobiltelefonen wurde das Assisted GPS (A-GPS)

entwickelt. Differential GPS (DGPS) bezeichnet ein Verfahren, um

Positionsfehler zu korrigieren, mit denen das US-Militär für nicht

autorisierte Nutzer die Genauigkeit der Ortung einschränkt.

GLONASS, das russische Pendant zu GPS, basiert auf der gleichen

Ortungstechnik, ist aber nicht kompatibel zu GPS. GLONASS arbeitet

anders als GPS ohne technische Restriktionen in der Ortung und

scheint bei der Höhenangabe auch genauer zu sein, wird aber zivil

kaum genutzt.

Die europäische Antwort auf GPS heißt Galileo und soll 2008 an

den Start gehen. Galileo verwendet denselben Frequenzbereich

wie GPS, was für Reibungen mit den USA, aber auch Vorteile in der

Kompatibilität sorgt. Aus militärischen Gründen erheben die USA

Anspruch darauf, das Ortungssignal von Galileo auch für private

bzw. öffentliche Anwendungen stören zu dürfen.

www.geolife.de/geonauten/01-was-ist-gps-neu.php

ec.europa.eu/dgs/energy_transport/galileo

Alternativen

Das Wi-Fi Positioning System (WPS) aus den USA nutzt drahtlose

Netzwerke und verspricht eine Ortungsgenauigkeit von 20-40

Metern. Das System arbeitet mit Referenzdaten von WLAN-Access-

Points und deren geographischer Position. Dementsprechend ist

WPS in einer Reihe von Ballungsräumen (ca. 25) verfügbar.

Die viel zitierte „Handy-Ortung“ nutzt das Global System for Mobile

Communications (GSM), den digitalen Mobilfunk-Standard. Zu dessen

wichtigsten Grundfunktionen zählt der vom Netz angestoßene

Zellenwechsel. Sobald das Signal einer Nachbarzelle besser als das

der aktuellen Funkelle ist, wechselt das Mobiltelefon dorthin. Dieser

Wechsel, der auch im Standby-Betrieb funktioniert, lässt eine Ortung

in der jeweiligen Zelle zu. Die Ortungsgenauigkeit hängt von

der Größe der Zellen ab, wobei die Ortung im städtischen Bereich

erheblich präziser ist als im ländlichen Raum.

ortung.blogspot.com

www.izmf.de

zum Thema

der tatsächlichen Userbedürfnisse. Die finden sich eher in

den Bemühungen der Telefongesellschaften, ihren Kunden

einen besonderen Dienst anzubieten. Diese Unternehmen

kooperieren in der Regel mit Location- und Content-

Providern und möchten von ihnen die Informationen in

aufbereiteter Form für LBS beziehen. Dabei taucht stets ein

grundsätzliches Problem auf: Die Aufbereitung und Bereitstellung

der Informationen erfordert einen derartigen Aufwand,

dass die Refinanzierung nur über ein großes Volumen

gebührenpflichtiger Anfragen funktioniert. Hier sprechen

wir von „Net-Economy -Anwendungen“.

Geschäftskonzepte der Net Economy

Net Economy steht für netzwerkbasierende Geschäfte mit

Informationen auf breiter Anwenderbasis. Der User klickt

sich in das Netzwerk ein, um die gewünschten Infos abzurufen,

klassische „Vorratshaltung“ von Wissen. Die Dienstleistung

besteht darin, die relevanten Daten auszuwählen und

sie möglichst schnell zuzustellen. Ein erfolgreicher Kommunikationsprozess

lässt sich damit auf zwei wesentliche Faktoren

reduzieren: bedarfsorientierte Selektion und zeitnahe

Bereitstellung. Bei LBS kommt mit dem Standortbezug ein

dritter Faktor hinzu, die unmittelbare Umgebung.

Zwei Beispiele. Ein Vertriebsmitarbeiter möchte, nachdem

er seine Termine in der Rhein-Main-Region wahrgenommen

hat, abends zurück nach Hamburg fahren, wo

er am nächsten Morgen ein wichtiges Meeting hat. Wegen

einer Autopanne muss er in der Umgebung von Hannover

übernachten. Zwei Hotels, die er anfragt, sind jedoch wegen

einer Messe ausgebucht. Was nun? Über einen Netzzugang

mit LBS ruft er Informationen ab, wo es in der Umgebung

noch freie Zimmer gibt, was sie kosten und wie er dahin

kommt. Dafür ist er sicherlich bereit, eine Servicegebühr zu

bezahlen.

Im zweiten Beispiel wollte ein Pärchen, das Berlin besuchte,

in einem bestimmten Lokal speisen. Das Lokal war

jedoch wegen Ferien geschlossen. Auch in diesem Fall hätten

sie sich sicherlich gefreut, wenn sie schnell eine Alternative

über einen mobilen Informationsdienst gefunden hätten.

Es gibt viele Szenarien zu nutzwerten und damit ertragsorientierten

LBS-Anwendungen, die sich technisch umsetzen

lassen, weil alle notwendigen Facilities vorhanden sind.

Ihre Realisierung erfordert jedoch hohe Investitionen. Um

diese zu refinanzieren, darf sich die Dienstleistung nicht auf

die Hotel- oder Restaurantauskunft beschränken. Alle denkbaren

Informationsbereiche sollten in das Konzept integriert

und entsprechend den zielgruppenspezifischen Bedürfnis-


sen vermarktet werden. Dabei müssen drei Grundvoraussetzungen

erfüllt werden: POI-Konzept, Abonnenten-Bindung

und markenbewusste User-Community.

POI statt POS

Der entscheidende Unterschied zwischen marketing-

und dienstleistungsorientierten LBS-Konzepten ist die

Verschiebung der Informationsinhalte von POS (Point of

Sales) hin zum Point of Interest (POI). Ein Point of Interest

kennzeichnet die Lokationen, die den Interessen der Endnutzer

entsprechen: ein Kino, ein Theater, ein Restaurant,

ein Hotel, ein Krankenhaus, eine Tankstelle, eine Bank, ein

Schwimmbad usw. Die Liste ist lang und muss entsprechend

den Anwendertypen strukturiert werden. Die neue Philosophie

der LBS heißt folglich: „Sag mir, was du an deinem

Standort brauchst bzw. machen möchtest und ich zeige dir

die Auswahlmöglichkeiten und führe dich dorthin.“

Während die Pioniere der LBS aus dem technischen

Bereich kamen, sind die heutigen Innovatoren hautsächlich

unter den Content-Anbietern zu fi nden. iPUBLISH

beispielsweise verwaltet einen Großteil des Knowledge der

Ganske Verlagsgruppe elektronisch. In der unternehmenseigenen

Reise- und Event-Datenbank, der größten ihrer Art in

Europa, sind alle relevanten POI bekannter Reise- und Life-

Style-Marken der Verlagsgruppe wie MERIAN oder PRINZ

enthalten. Diese Informationen können als LBS zeitnah und

ortsbezogen unterschiedlichen Zielgruppen zur Verfügung

gestellt werden.

Programmspezifi sches Phone-Guide-Abo

Im Touristik- und Freizeitbereich arbeitet iPUBLISH mit

vier Kernzielgruppen, die nach technik-affi nen Anwenderrollen

defi niert werden. (1) Die „Netznutzer“, die ihre Reise

am Computer planen, (2) „Autofahrer“, die mit einem PKW

unterwegs sind, (3) „Touristen“, die an einem Zielort etwas

besichtigen oder unternehmen wollen und (4) „Citygänger“,

die sich – ob in der Heimat oder in einer fremden Stadt

– ganz einfach amüsieren wollen. Ein User kann permanent

zwischen den vier verschiedenen Rollen wechseln. Dementsprechend

variieren seine Informations- und Kommunikationsbedürfnisse.

Für LBS sind besonders „Touristen“ und „Citygänger“

interessant. Die Geschäftsidee besteht darin, diesen Personengruppen

nicht nur einen standortbezogenen aktuellen

Informationsdienst, sondern Content mit speziellen

Schwerpunkten über ein Mobiltelefon zugängig zu machen

(„Phone-Guide“), wobei je nach Interesse unterschiedliche

Programme zur Auswahl stehen. Das Geschäft läuft über das

Abonnenten-Modell: ein Phone-Guide-Abo gibt Zugriff auf

alle zum Programm gehörenden Inhalte.

Markenbewusste User-Community

Das Konzept von iPUBLISH sieht vor, die LBS als einen

Bestandteil der elektronischen Reise- und Freizeitbegleitung

zu integrieren. Wie bei jeder technischen Innovation, wird

das Nutzungsverhalten erst erlernt werden müssen, ähnlich

wie bei den SMS für Mobilelefone. Für den Erfolg von LBS

braucht es Anwender, die wissen, dass es entsprechende Informationsdienste

auf dem Gerät gibt und die direkt den

Weg dorthin fi nden. Ein solcher Lernprozess lässt sich nicht

spontan und kurzfristig bewältigen, vielmehr muss das neue

Nutzungsverhalten systematisch geprägt werden. Das setzt

wiederum kontinuierliche Kommunikationsarbeit über unterschiedliche

Kanäle voraus, die auf die Etablierung einer

verhaltensstabilen User-Community zielt.

Die meisten LBS-Anbieter versuchen ihre Dienste über

SMS zu bewerben. Das mag bei „triebgeleiteten“ Bedürfnissen

funktionieren, ist jedoch bei „kulturgeleiteten“ Interessen

als Stimulus viel zu schwach. Eine verhaltensstabile

User-Community entsteht auf der Basis von Gruppenbewusstsein.

Dabei kann eine bekannte und anerkannte Marke

als identitätsstiftende Klammer fungieren. So wenden

sich beispielsweise die von iPUBLISH betreuten Informationsdienste

von ‚Merian‘ an andere Personenkreise als die

von ‚Prinz‘ oder ‚Der Feinschmecker‘.

Das Entstehen einer User-Community eröffnet den LBS-

Nutzern neue Kommunikationsmöglichkeiten. Die einzelnen

an das Netzwerk angeschlossenen Abonnenten können

miteinander in Kontakt treten, woraus sich eine Fülle von

gemeinsamen standortbezogenen Aktivitäten ergeben kann.

In Sachen Markenentwicklung und Kundenbindung dürften

solche Communitys in Zukunft eine wesentliche Säule

für den Erfolg von Location Based Services sein.

Carsten Leininger

Der diplomierte Wirtschaftsingenieur, Jahrgang

1973, hat an der FH Wedel studiert. Leininger

ist Geschäftsführer der iPUBLISH GmbH, die auf

die Entwicklung elektronischer Reisebegleiter

spezialisiert ist.

025


026 Titel

Precision Farming

Das Thema Precision Farming ist mit dem Beginn der

90er Jahre von der Wissenschaft und der Industrie mit

der Entwicklung von Ertragskartierungssystemen auf den

Mähdrescher gekommen. Durch GPS als Schlüsseltechnologie

wurde es damals möglich, detailliert und effizient

Ertragskarten zu erstellen. Aufgrund der unterschiedlichen

Erträge innerhalb landwirtschaftlicher Felder bei gleicher

Bewirtschaftung und den damit verbundenen Konsequenzen

hat das Thema Precision Farming im letzten Jahrzehnt

viele Bereiche der landwirtschaftlichen Praxis und Forschung

beeinflusst wie durchdrungen. Precision Farming

als Hochtechnologie-Ansatz für große Felder und Maschinen

hat sich zuerst in den USA durchgesetzt. Das Thema

ist in Europa en vogue. Im europäischen Vergleich wird

in der Bundesrepublik aufgrund der starken Landtechnikindustrie,

der Agrarstruktur in Ostdeutschland sowie der

allgemein hohen Intensität der Landbewirtschaftung und

der hohen Umweltstandards neben Frankreich und England

mit am intensivsten an der Thematik gearbeitet. Innerhalb

der Bundesrepublik haben hier die neuen Bundesländer

für den Einsatz von Precision-Farming-Technologien eine

wichtige Pionierfunktion. In den letzten Jahren verringert

sich das Ost-West-Gefälle, vor allem da im Westen der Anteil

der durch Lohnunternehmer bewirtschafteten Flächen

immer größer wird und sich die Technologie des Precision

Farmings wesentlich verbreitert hat.

IT statt

Bauernkalender

Mit GPS als Schlüsseltechnologie hat sich das „Precision Farming“ vom Nischenmarkt zu

einer akzeptierten Technologie entwickelt. IT-Systeme und Satellitennavigation sind hier

eine ökologische interessante Verbindung eingegangen.

Dr. Görres Grenzdörffer

Das Ziel des Precision Farmings ist eine an die natürliche

Heterogenität angepasste Landbewirtschaftung. Dadurch

sollen Erträge gesteigert, Betriebsmittel eingespart und

gleichzeitig die Umwelt geschont werden. Grundvoraussetzung

für den Erfolg des Precision Farmings ist es, die Heterogenität

des Bodens und des Bestandes zu erfassen, um sie

in verschiedenen Entscheidungsprozessen zu berücksichtigen.

Zusätzlich gilt, es mithilfe modernster Technologie die

zunehmenden Anforderungen der Qualitätssicherung und

der Nachweisführung möglichst automatisiert zu erfüllen.

Das bedeutet, dass das ursprüngliche Konzept des Precision

Farmings sich auf dem Weg zur informationsgeleiteten

Landwirtschaft befindet. Dabei steht ein kontinuierlicher

Datenfluss von der „Furche bis zur Gabel“ im Vordergrund.

Wo und wofür wird Precision Farming eingesetzt?

Forschung, Entwicklung und Landwirte verstehen Precision

Farming als einen Kreislauf, der aufbauend auf verschiedenen

Eingangsdaten für jede Teilfläche angepasste

Maßnahmen wie Düngung, Pflanzenschutz etc. mithilfe

eines Geo-Informationssystems (GIS) entwickelt und mithilfe

spezieller Landtechnik anwendet. Ausgangspunkt des

Precision Farmings ist die Ertragskartierung. Dazu wird

der Korndurchfluss kontinuierlich gemessen und die dazugehörige

Position des Mähdreschers per GPS gemessen. Die


Ertragskartierung gibt Auskunft über die erzielten Erträge

und liefert Informationen über den wirtschaftlichen Erfolg

(teilflächenbezogener Deckungsbeitrag) und die entzogenen

Nährstoffe (= zusätzlicher Düngebedarf). Mehrjährige

Ertragskarten liefern darüber hinaus Informationen über

wiederkehrende Ertragsmuster, das Ausmaß möglicher

Ertragsschwankungen und die Reaktion der Erträge auf

die verschiedenen Bewirtschaftungsmaßnahmen und die

Jahreswitterung. Mittlerweile gehört die Ertragskartierung

bei den größeren Mähdreschern zur Standardausstattung.

Neben der Ertragskartierung ist in der landwirtschaftlichen

Praxis die teilflächenspezifische Düngung weit

verbreitet. Bei der differenzierten Grunddüngung werden

an bestimmten Stellen oder anhand eines vordefinierten

Rasters Bodenproben gezogen und analysiert. Unter Berücksichtigung

der Entzüge (=Ertragskarte) und anderer

Faktoren wird auf dem Computer eine Applikationskarte

erstellt und auf den Düngerstreuer übertragen. Dieser

bringt – GPS-gesteuert – den richtigen Dünger an die richtige

Stelle. Bei der teilflächenspezifischen Stickstoffdüngung

spielt der aktuelle Pflanzenbestand die wichtigste Rolle.

Deshalb werden auf dem Traktor mithilfe von Sensoren die

spektralen Eigenschaften oder der mechanische Widerstand

der Pflanzen gemessen und analysiert. Die Düngung erfolgt

im gleichen Atemzug oder wenige Sekunden später.

Im Pflanzenschutz hat sich Precision Farming, trotz intelligenter

Lösungen, die etwa eine weitestgehend automatische

Bestimmung von Verunkrautungen ermöglicht, noch nicht

richtig durchgesetzt. Das liegt unter anderem an den noch

teuren und speziellen Feldspritzen. Andere Bereiche des

Precision Farmings sind die differenzierte Aussaat oder Parallelfahrsysteme,

die durch hochgenaue GPS-Signale eine

präzise überlappungsfreie Navigation bei Tag und Nacht

ermöglichen.

Verbesserter ROI und ökologische Bewirtschaftung

027

Bei der Analyse der Verbreitung von Precision Farming

in Deutschland sind zwei Sachverhalte von besonderem

Interesse. Zum einen nimmt der Anteil der Landwirte, die

Precision-Farming-Technologie in der einen oder anderen

Form einsetzen, stetig zu und zum anderen wächst die Fläche,

die mit Precision-Farming-Technologien bewirtschaftet

wird. Hauptmotivation des Technologieeinsatzes ist es,

dass es sich für den Anwender rechnet. Grundsätzlich gilt:

Der Technikeinsatz bei größeren Betrieben, die heterogene

Flächen bewirtschaften, sollte einen positiven ökonomischen

Effekt hinterlassen. Verschiedene Studien beziffern

die möglichen Ertragssteigerungen auf etwa 2-5 Prozent

und die Einsparungen an Betriebsmitteln wie beispielsweise

Dünger oder Pflanzenschutzmittel auf 5-15 Prozent. Unter

Berücksichtigung der Kosten für die Technologie und die

notwendigen Informationen sowie den zeitlichen Mehraufwand

ist ein Break Even ab einer Getreideanbaufläche von

etwa 400 ha zu erwarten. Das gilt im Übrigen nicht nur für

die konventionelle Landwirtschaft, sondern auch für eine

ökologische Landwirtschaft.

Precision Farming ist für den ökologischen Landbau an

sich noch viel wichtiger als für die konventionelle Landbewirtschaftung.

Der Landwirt im Ökolandbau darf nicht einfach

durch mineralische Düngung oder Pflanzenschutzmittel

den Pflanzenbestand homogenisieren. Vielmehr muss er

für jede Stelle eine an die jeweiligen Verhältnisse angepasste

Strategie fahren. In der Praxis hat sich Precision Farming

im Ökolandbau jedoch noch nicht durchgesetzt. Ursachen

sind hier: die kleinen Betriebsgrößen der Ökolandwirte und

fehlende pflanzenbauliche Precision-Farming-Algorithmen

für den Ökolandbau.


028 Titel

Neben den direkten positiven Effekten tragen auch indirekte

positive Effekte, wie die ökologischen Wirkungen

des Precision Farmings sowie eine Verringerung von Stickstoffauswaschungen

durch eine angepasste Düngung zur

volkswirtschaftlich positiven Gesamtbilanz des Precision

Farmings bei. Alles in allem entwickelt sich die Methode zu

einer allseits akzeptierten Technologie.

Stand der Forschung heute und Ausblick

Informationsverarbeitung ist das A und O des Precision

Farmings. Das fängt beretis auf der landwirtschaftlichen

Maschine an, die alle wichtigen Daten einer Maßnahme

von der Bodenbearbeitung bis zum Pfl anzenschutz erfasst.

Diese so genannten Prozessdaten wie die Zugkraftbedarf,

der Dieselverbrauch, die Leistung pro Stunde etc. werden

durch eine Synchronisation mit dem GPS zu raumbezogenen

Daten und können für verschiedenste Zwecke in der

Abrechnung, zur Dokumentation oder für die Optimierung

genutzt werden.

Im landwirtschaftlichen Betrieb werden nicht nur die

Daten der Landmaschinen in einem Geo-Informationssystem

(GIS) verarbeitet, sondern auch eine Vielzahl anderer

Geodaten. Einige dieser Datensätze wie Karten zur scheinbaren

elektrischen Leitfähigkeit, zur Charakterisierung der

Bodentextur oder spezielle Fernerkundungsdaten werden

durch spezialisierte Dienstleister erstellt. Andere Geodaten

kommen von staatlicher Seite wie topographische Karten,

Feldblockgrenzen oder Bodenschätzungskarten. Die Precision-Farming-Software

muss dann in der Lage sein aus

den unterschiedlichen Eingangsdaten anhand von Regeln

Applikationskarten für die verschiedenen Maßnahmen zu

erstellen. Die eingesetzte Software ist hier in der Regel kein

Stand-alone-Produkt, sondern in die betriebliche Software,

wie Schlagkartei, das Pachtmanagement oder die Lohnbuchhaltung

beinhaltet, eingebettet.

Eine Besonderheit des IT-Marktes in der Landwirtschaft

ist, dass aufgrund der Kundenstruktur dem User-Interface,

der Bedienerfreundlichkeit, dem Schulungsangebot und

dem Preis der Software höchste Bedeutung zukommen. Der

Markt für Precison-Farming Hard- und Software wird einerseits

von den Fulllinern der Landtechnikbranche (Claas,

AGCO, John Deere u. a.) bestimmt. Sie bieten Komplettsysteme

an. Außerdem bieten viele kleine Anbieter hierauf

abgestimmte Speziallösungen an. Dies gilt ganz besonders

für den IT- bzw. GIS-Sektor. Das hat dazu geführt, dass viele

proprietäre Lösungen entstanden sind, die das Wachstum

des Gesamtmarktes negativ beeinfl ussen. Hinzu kommt ein

zunehmender Bedarf an durchgehender Dokumentation

der Produktionsprozesse vom Erzeuger bis zum Kunden.

Deshalb steht das Thema Standardisierung seit einigen

Jahren oben auf der Liste der Hersteller und der Kunden.

Während die Standardisierung für die Landtechnik mit

dem so genannten ISOBUS die Kommunikation zwischen

den verschiedenen Traktoren, Maschinen und der GPS-gestützten

Steuerungselektronik gewährleistet ist, ist die Standardisierung

im IT-Bereich erst am Anfang. Ein wichtiger

Schritt ist die Entwicklung des AGRO-XML-Standards, der

als Datenaustauschsprache einen standardisierten Datenaustausch

ermöglichen soll.

Zukunft „Geodateninfrastruktur“

Ebenfalls noch Zukunftsmusik ist es eine Vereinfachung

der Geo-Datenauswertung durch standardisierte Datensätze

zu erreichen. „Geodateninfrastruktur“ (GDI) ist in

diesem Zusammenhang in den letzten Jahren eines der

Schlagworte im Geoinformationsbereich geworden. Aus

technischer Sicht basiert sie auf einem einfachen Konzept:

Raumbezogene Daten sind über standardisierte internetbasierte

Schnittstellen verfügbar und abfragbar. Die relevanten

Normen und Standards für Datenübertragungsformate und

Schnittstellen sind genau spezifi ziert. Sie werden von vielen

Softwareherstellern implementiert und von vielen Organisationen

in unterschiedlichsten Branchen eingesetzt. Unter

Berücksichtigung des Raumbezugs vieler landwirtschaftlichen

Daten, insbesondere der Daten für Precision Farming,

haben diese Normen eine große Bedeutung für den Datenaustausch

in der Landwirtschaft.

Die meisten GDI-Initiativen des Bundes und der Länder

sind hauptsächlich auf die Bereitstellung von Geobasisdaten

wie topographische Karten und Luftbilder fokussiert – was

Experten als „generische GDI“ bezeichnen. Obwohl solche

Daten eine wichtige Informationsquelle für Landwirte darstellen,

könnte ein noch größerer Gewinn für den Landwirt

in der Automatisierung der landwirtschaftlichen Geschäftsprozesse

bestehen.

Dr. Görres Grenzdörff er

Der studierte Geograph, Jahrgang 1968,

hat seine Hochschulausbildung mit Schwer-

punkt Fernerkundung und GIS absolviert.

Grenzdörff er ist Wissenschaftler an der Univer-

sität Rostock und beschäftigt sich seit über 10

Jahren mit dem Thema Precision Farming.


028 Titel

Neben den direkten positiven Effekten tragen auch indirekte

positive Effekte, wie die ökologischen Wirkungen

des Precision Farmings sowie eine Verringerung von Stickstoffauswaschungen

durch eine angepasste Düngung zur

volkswirtschaftlich positiven Gesamtbilanz des Precision

Farmings bei. Alles in allem entwickelt sich die Methode zu

einer allseits akzeptierten Technologie.

Stand der Forschung heute und Ausblick

Informationsverarbeitung ist das A und O des Precision

Farmings. Das fängt beretis auf der landwirtschaftlichen

Maschine an, die alle wichtigen Daten einer Maßnahme

von der Bodenbearbeitung bis zum Pfl anzenschutz erfasst.

Diese so genannten Prozessdaten wie die Zugkraftbedarf,

der Dieselverbrauch, die Leistung pro Stunde etc. werden

durch eine Synchronisation mit dem GPS zu raumbezogenen

Daten und können für verschiedenste Zwecke in der

Abrechnung, zur Dokumentation oder für die Optimierung

genutzt werden.

Im landwirtschaftlichen Betrieb werden nicht nur die

Daten der Landmaschinen in einem Geo-Informationssystem

(GIS) verarbeitet, sondern auch eine Vielzahl anderer

Geodaten. Einige dieser Datensätze wie Karten zur scheinbaren

elektrischen Leitfähigkeit, zur Charakterisierung der

Bodentextur oder spezielle Fernerkundungsdaten werden

durch spezialisierte Dienstleister erstellt. Andere Geodaten

kommen von staatlicher Seite wie topographische Karten,

Feldblockgrenzen oder Bodenschätzungskarten. Die Precision-Farming-Software

muss dann in der Lage sein aus

den unterschiedlichen Eingangsdaten anhand von Regeln

Applikationskarten für die verschiedenen Maßnahmen zu

erstellen. Die eingesetzte Software ist hier in der Regel kein

Stand-alone-Produkt, sondern in die betriebliche Software,

wie Schlagkartei, das Pachtmanagement oder die Lohnbuchhaltung

beinhaltet, eingebettet.

Eine Besonderheit des IT-Marktes in der Landwirtschaft

ist, dass aufgrund der Kundenstruktur dem User-Interface,

der Bedienerfreundlichkeit, dem Schulungsangebot und

dem Preis der Software höchste Bedeutung zukommen. Der

Markt für Precison-Farming Hard- und Software wird einerseits

von den Fulllinern der Landtechnikbranche (Claas,

AGCO, John Deere u. a.) bestimmt. Sie bieten Komplettsysteme

an. Außerdem bieten viele kleine Anbieter hierauf

abgestimmte Speziallösungen an. Dies gilt ganz besonders

für den IT- bzw. GIS-Sektor. Das hat dazu geführt, dass viele

proprietäre Lösungen entstanden sind, die das Wachstum

des Gesamtmarktes negativ beeinfl ussen. Hinzu kommt ein

zunehmender Bedarf an durchgehender Dokumentation

der Produktionsprozesse vom Erzeuger bis zum Kunden.

Deshalb steht das Thema Standardisierung seit einigen

Jahren oben auf der Liste der Hersteller und der Kunden.

Während die Standardisierung für die Landtechnik mit

dem so genannten ISOBUS die Kommunikation zwischen

den verschiedenen Traktoren, Maschinen und der GPS-gestützten

Steuerungselektronik gewährleistet ist, ist die Standardisierung

im IT-Bereich erst am Anfang. Ein wichtiger

Schritt ist die Entwicklung des AGRO-XML-Standards, der

als Datenaustauschsprache einen standardisierten Datenaustausch

ermöglichen soll.

Zukunft „Geodateninfrastruktur“

Ebenfalls noch Zukunftsmusik ist es eine Vereinfachung

der Geo-Datenauswertung durch standardisierte Datensätze

zu erreichen. „Geodateninfrastruktur“ (GDI) ist in

diesem Zusammenhang in den letzten Jahren eines der

Schlagworte im Geoinformationsbereich geworden. Aus

technischer Sicht basiert sie auf einem einfachen Konzept:

Raumbezogene Daten sind über standardisierte internetbasierte

Schnittstellen verfügbar und abfragbar. Die relevanten

Normen und Standards für Datenübertragungsformate und

Schnittstellen sind genau spezifi ziert. Sie werden von vielen

Softwareherstellern implementiert und von vielen Organisationen

in unterschiedlichsten Branchen eingesetzt. Unter

Berücksichtigung des Raumbezugs vieler landwirtschaftlichen

Daten, insbesondere der Daten für Precision Farming,

haben diese Normen eine große Bedeutung für den Datenaustausch

in der Landwirtschaft.

Die meisten GDI-Initiativen des Bundes und der Länder

sind hauptsächlich auf die Bereitstellung von Geobasisdaten

wie topographische Karten und Luftbilder fokussiert – was

Experten als „generische GDI“ bezeichnen. Obwohl solche

Daten eine wichtige Informationsquelle für Landwirte darstellen,

könnte ein noch größerer Gewinn für den Landwirt

in der Automatisierung der landwirtschaftlichen Geschäftsprozesse

bestehen.

Dr. Görres Grenzdörff er

Der studierte Geograph, Jahrgang 1968,

hat seine Hochschulausbildung mit Schwer-

punkt Fernerkundung und GIS absolviert.

Grenzdörff er ist Wissenschaftler an der Univer-

sität Rostock und beschäftigt sich seit über 10

Jahren mit dem Thema Precision Farming.


030 Titel

Geodaten im Gesundheitswesen

Karten für

Im Gesundheitswesen gibt es eine Vielzahl von Aufgaben,

bei denen GIS-Instrumente Entscheidungshilfen wären,

beispielsweise in der Krankenhausplanung oder der Organisation

von Rettungsdiensten. Die zögerliche Verbreitung

kann zum Teil darin begründet sein, dass gerade Daten über

die Nachfrage von Gesundheitsleistungen bisher kaum in

einen räumlichen Kontext gesetzt werden konnten. In der

Vergangenheit lagen die notwendigen Informationen häufig

schlicht nicht in auswertbarer Form vor. Zudem erfordert

der Schutz der sensiblen Patientendaten eine aufwändige

Datenlogistik. Mittlerweile sind Daten in großem Umfang

verfügbar und die Datenprozesse handlebar.

Einfache Fragen mit komplexem Hintergrund

Wo ist die nächstgelegene Praxis eines Internisten? Wo das

nächste Krankenhaus? Wo der nächste Kreißsaal mit der

Möglichkeit zur Wassergeburt? Das sind klassische Fragen

eines Patienten oder einer werdenden Mutter. Immer mehr

Internetportale bieten Hilfestellung mit Suchmaschinen,

Mapping-Diensten und Routenplanern. Grundlage sind

Strukturdaten eines ausgefeilten Adressverzeichnisses, die

um Geodaten ergänzt werden. Kommen Leistungsdaten

hinzu, entsteht ein Datenpool, der für Patienten, Ärzte,

Krankenhäuser und Krankenkassen gleichermaßen von Interesse

ist. So lässt sich beantworten, welche Krankenhäuser

in der Umgebung eine Mandel-OP durchführen und wie

häufig sie dies tun. Für Schwangere kann es bei der Wahl

die Gesundheit

Geoinformationssysteme (GIS) spielen eine immer größere Rolle: in der Raumplanung, der

Verkehrslenkung oder auch in der Marktforschung. Im Gesundheitswesen kommen solche

Anwendungen erst nach und nach zum Einsatz.

Christian Günster

einer Geburtsklinik von Bedeutung werden, wie sich die Kliniken

einer Stadt im Anteil ihrer Kaiserschnittentbindungen

unterscheiden.

Grundlagen für die Bedarfsplanung

Die AOK setzt seit Ende der 90er Jahre GIS ein. Dabei

standen Themen der Versorgungsplanung im Vordergrund,

primär das Rettungswesen und die Entwicklung von Ansätzen

einer leistungsorientierten Krankenhausplanung.

Seit einigen Jahren wird die so genannte Bedarfsplanung

im ambulanten Sektor mit Geodaten analysiert. Dabei werden

Versorgungsgrade von Facharztgruppen in einzelnen

Landkreisen durch Flächenkarten visualisiert. So lässt sich

erkennen, ob es regionale Häufungen überversorgter Kreise

oder andererseits Gegenden mit zu wenigen Fachärzten gibt.

Fehlallokationen in einem Nebeneinander von Unter- und

Überversorgung sind ineffizient und kostspielig. Solche Geoanalysen

fließen in die gesundheitspolitische Diskussion

um einen befürchteten Fachärztemangel ein. Ein weiterer

Aspekt ergab sich durch die Umstellung der Krankenhausfinanzierung

auf diagnoseorientierte Fallpauschalen (DRGs).

Allgemein wird eine weitere Konsolidierung des Krankenhausmarktes

erwartet, beschleunigt durch das 2003 schrittweise

eingeführte Vergütungssystem. Nach amerikanischem

Vorbild könnten geographisch isoliert liegende Kliniken,

so genannte „sole Provider“, eine Zusatzfinanzierung erhalten,

um ihre Existenz aufgrund ihrer Bedeutung für die


Gesundheitsversorgung einer Region zu sichern: für solche

Kliniken sollen Zuschläge fl ießen. In einem Projekt mit der

Universität Bonn wurde untersucht, wie sich mit GIS solche

Krankenhäuser methodisch nachvollziehbar bestimmen

lassen. Dabei werden Entfernungsradien um Krankenhausstandorte

mit einem bestimmten Versorgungsangebot

gezogen und deren Überdeckung mit Bezug auf Bevölkerungsstatistiken

geprüft. In einem weiteren Projekt mit dem

Bundesamt für Bauwesen und Raumordnung wurde dieser

Ansatz weiter verfeinert, indem die Luftlinienentfernungen

durch Straßenkilometer ersetzt wurden.

Daten werden zu Karten

Seit 2005 bietet die AOK zwei Internetportale für die Recherche

an: den AOK Krankenhaus-Navigator (www.aok.de)

und das Klinik-Konsil (www.klinik-konsil.de). Im Krankenhaus-Navigator

können Patienten nach Kliniken mit ausgewählten

Leistungen suchen. Die Postleitzahl-basierte regionale

Suche gibt Trefferlisten nach Entfernung zum Wohnort

oder Behandlungshäufi gkeit aus. Die Besonderheit des

AOK-Portals besteht darin, dass die AOK-Fallzahlen der

Kliniken je Behandlungsgruppe vollständig in aggregierter

Form offengelegt sind. Die Kliniken werden dabei in Klassen

nach der Häufi gkeit von Eingriffen eingeteilt. Auf AOK-

Versicherte entfallen knapp 40 Prozent aller Krankenhausleistungen.

Umfangreiche Leistungsdaten von 26 Millionen

Versicherten werden hier mit Geokoordinaten der 2.000

Krankenhäuser kombiniert. Das Klinik-Konsil ermöglicht

differenziertere Recherchen einzelner Krankheitsdiagnosen

und Operationen. Dazu müssen Grundkenntnisse in den

Schlüsselkatalogen für Diagnosen und Operationen vorhanden

sein. Hauptzielgruppe des Klinik-Konsil sind Ärzte,

die eine Krankenhauseinweisung ihres Patienten planen.

Eine AOK-interne GIS-Anwendung steht den Mitarbeitern

über das Intranet zur Verfügung. Das vom Wissenschaftlichen

Institut der AOK (WIdO) entwickelte WIdO-

GIS bereitet Abrechnungsdaten von Krankenhäusern in

kartographischer Form auf. Ein Benchmarkingvergleich

der 16 einzelnen AOKs kann als Kartendarstellung oder

in tabellarischer Form abgerufen werden. Sachverhalte

lassen sich visuell meist rascher erfassen. Umso sorgfältiger

muss das Layout der Karten entworfen werden, um keine

vorschnellen Urteile zu fördern. Case Manager nutzen die

Krankenhauseinzugsstatistiken (Flächenkarten nach Postleitzahlbezirken),

die zeigen, woher die Patienten eines

Krankenhauses kommen genauso wie den entgegengesetzten

Blickwinkel der Wanderungsanalysen (Standortkarten),

die aufzeigen, welche Krankenhäuser von Patienten einer

031

Wohnortregion aufgesucht werden. Ein Highlight sind die

Verlegungsdiagramme mit Pfeildarstellungen von Verlegungen

zwischen Krankenhäusern. Offenes oder „verdecktes“

Zusammenarbeiten einzelner Krankenhäuser wird damit

offensichtlich. Weiterhin werden epidemiologische und

versorgungspolitische Sachverhalte für die medizinischen

Grundsatzabteilungen der AOK aufbereitet. Welche regionalen

Unterschiede zeigen sich beispielsweise im Einsatz laparoskopischer

Verfahren bei Blinddarmoperationen? Welche

Disparitäten bestehen dabei zwischen den Kliniken? Ein

anderer Analyseansatz steht im Kontext der Zentralisierung

von Leistungen durch die Vorgabe von Mindestmengen. Wo

lassen sich elektive (planbare) Leistungen wohnortnah bündeln,

um Effi zienz und Behandlungsqualität zu steigern?

Auch hier ist Open Source möglich

Im Wissenschaftlichen Institut der AOK (WIdO) konzipiert,

wurde das WIdO-GIS von einem externen Softwarehaus

realisiert. Zur Kartenerzeugung wird der am häufi gsten

verwendete Open-Source-Kartenserver eingesetzt, der

UMN MapServer (mapserver.gis.umn.edu und www.umnmapserver.de).

Der UMN MapServer ist eine einfache, stabile

und vor allem kostengünstige Lösung, um dynamische

Karten im Intra- oder Internet bereit zu stellen. Der Map-

Server ist eine CGI-basierte Anwendung um dynamische

GIS-Funktionen über das Web durchzuführen. Die Software

selbst ist in erster Linie ein Werkzeug zur Erstellung

geographischer Bildkarten. Die Sachdaten liegen in einer

Oracle-Datenbank. Zur Konfi guration der Auswertungen

und deren Layout dient eine XML-Datei, die AOK-intern

modifi ziert werden kann. Die Geodatengrundlage wurde

zugekauft.

Geoinformationssystemen bieten sich vielfältige Anwendungsmöglichkeiten

im Gesundheitswesen: planerisch und

analytisch, vom Case Management bis zur Bevölkerungsepidemiologie,

im Controlling und bei Grundsatzfragen.

GIS-Methoden sind immer dann nützlich, wenn versorgungsplanerische

Entscheidungen mit räumlichem Bezug

getroffen werden. Für eine optimierte und transparente

Planung sind sie im Grunde unabdingbar.

Christian Günster

Der diplomierte Mathematiker, Jahrgang 1966,

leitet den Forschungsbereich Integrierte

Analysen im Wissenschaftlichen Institut der AOK

(WIdO), wo er für die AOK Geoinformations-

systeme zur stationären Versorgung aufbaut.


032 Titel

Interview Karola Bode

c//mag: War vor 10 Jahren absehbar, welche Bedeutung

das Thema „Navigation“ für die Automobilindustrie haben

würde? Seit wann beschäftigen Sie sich mit dem Thema?

Karola Bode: Vor einigen Jahren waren Navigationssysteme

noch eine hochpreisige Angelegenheit, die nur für ausgewählte

Fahrzeuge angeboten wurden. In den letzten Jahren

haben eigentlich alle Fahrzeughersteller erkannt, welche

Bedeutung das Thema Navigation hat. Doch Festeinbauten

kosten den Kunden in der Regel immer noch mehr als 1.000

Euro. Da kommt man ins Grübeln, ob sich die Investition

lohnt. Diese hohen Kosten gaben wohl mit den Ausschlag,

dass zunehmend portable Navigationssysteme angeboten

wurden. Die sind kostengünstiger und können bequem von

einem Auto ins nächste mitgenommen werden. Der Trend

sind nun Navigationssysteme, die auf mobilen Endgeräten

laufen. Das macht die Sache für Mobilfunkanbieter interessant.

Seit einiger Zeit bietet O2 Handys mit integrierter

Navigationslösung an. Somit müssen unsere Kunden keine

zusätzlichen Geräte kaufen und können sogar zu Fuß oder

mit dem Fahrrad ihre Navigationshilfe nutzen.

c//mag: Welche Rolle spielt das Mobiltelefon zukünftig bei

Navigations- und Ortungslösungen?

Karola Bode: Um das Satellitensignal empfangen zu

können, benötigte man für die meisten mobilen Endgeräte

bisher eine zusätzliche GPS (Global Positioning System,

Ortung über Satellit) Mouse. Die werden über Bluetooth

mit dem Endgerät gekoppelt. Alles drahtlos. Nun besteht

die Herausforderung darin, die GPS-Funktion direkt im

mobilen Endgerät zu integrieren. Und das ist keine ferne

Zukunftsvision, sondern wird schon demnächst verfügbar

sein. Vor einigen Jahren noch war eine Fotokamera in mobilen

Endgeräten nur in einigen hochwertigen Endgeräten

zu finden. Heute gehört die Kamera quasi zur Grundausstattung

der Endgeräte. Ich sehe eine ähnliche Entwicklung

auch im Bereich Navigation auf uns zukommen. Das

Thema Navigation ist allerdings erst der Ausgangspunkt

für Ortungslösungen, auf denen sich viele Anwendungen

aufbauen lassen. Fragen wie: Wo finde ich die nächste

Tankstelle, Pizzeria oder Apotheke werden uns in Zukunft

unsere mobilen Geräte beantworten können. Im Geschäftskundenbereich

interessieren sich unsere Kunden dagegen

dafür, wo genau sich ihr Außendienst befindet. So können

die Mitarbeiter optimal eingesetzt werden, die Kunden wer-

den schneller und zielgerichtet bedient. O2 greift für diese

Anwendungen auf erfahrene Lösungspartner zurück. Diese

bringen langjährige Erfahrungen aus speziellen Branchen

mit und haben die passende Softwarelösung. Somit erfindet

O2 das Rad nicht neu, sondern kann seinen Kunden umfassend

beraten.

c//mag: Reichen die Bandbreiten der Mobilfunknetze für

diese bzw. zukünftige Anwendungen überhaupt aus?

Karola Bode: Für die aktuellen Anwendungen reichen

die Bandbreiten von GPRS (General Packed Radio Service)

in der Regel aus. Doch für zukünftige Anwendungen mit

hochaufgelöster Grafik werden die Anwender wohl größere

Bandbreiten benötigen und auf UMTS umsteigen.

c//mag: Welche Rolle spielt die Ergonomie, die Usability

von Oberflächen in den Navigationssystemen und worauf

kommt es hier an?

Karola Bode war über 20 Jahre in der IT Branche in unterschiedlichen

Vertriebs- und Marketing-Positionen tätig und

kennt den deutschsprachigen Consumermarkt sowie das

Geschäft im Mittelstand, Industrie und Großkunden aus

dem ‚efef‘ (Marketingdirektor Commodore Deutschland,

Geschäftsführerin Gateway 200, Leiterin Compaq Consumer

Business/Hewlett Packard, Commercial Business).

1958 in Hameln geboren, absolvierte sie eine Ausbildung

über vier Semester als EDV-Fachwirt. Als Vice President

O2 Business ist Karola Bode heute verantwortlich für die

indirekte und direkte Vertriebsorganisation, Marketing und

Customer Care des Mobilfunkanbieters und adressiert mit

einer „end to end“-aufgestellten Geschäftseinheit das Segment

der Geschäftskunden.


Karola Bode: Wichtig ist vor allem, dass die Anwendung

selbsterklärend ist. Heutzutage haben die Nutzer weder Zeit

noch Lust, langatmige Bedienungsanleitungen zu studieren,

um die Technik einsetzen zu können. Das gilt auch für Navigationssysteme.

Das Zauberwort lautet hier „intuitiv“. Des

Weiteren muss das Gerät auch mit einer Hand zu bedienen

sein. Dafür eignen sich besonders Geräte mit großem Display

und Touchscreen, wie z. B. der XDA neo.

c//mag: Stichwort Location Based Services (LBS) – ein

Thema für O2?

Karola Bode: Klassische LBS, insbesondere für die Fahrzeugortung,

werden immer mehr von GPS-basierten Lösungen

verdrängt. Die Genauigkeit der netzwerkbasierten

Ortung war einfach zu gering.

Stellen Sie sich vor, Sie bekommen

Positionsmeldungen, die teilweise

bis zu ein paar Kilometern abweichen.

Dieses Thema hat sich mit

der GPS-Ortung erledigt: Hier

wird auf den Meter genau festgestellt

wo sich das Gerät befindet.

Auf einer solchen Genauigkeit lassen sich weitere Services

aufbauen. Ich glaube, der Startschuss für weitere Services

besonders im Businessbereich ist damit gefallen.

c//mag: Wie geht das technisch vor sich?

Karola Bode: Technisch wird das Endgerät über GPS lokalisiert.

Diese Standortinformation wird dann über das GSM/

GPRS-Netz beispielsweise auf einen Server übertragen und

steht dann dort weiteren Anwendungen zu Verfügung.

c//mag: Mit wem arbeiten Sie hier zusammen?

Karola Bode: Wir arbeiten im Bereich Navigation mit

dem Marktführer TomTom zusammen. Für Businessanwendungen

zum Thema Ortung und Außendienststeuerung

arbeiten wir mit Spezialanbietern wie mobileObjects und

WNS-Europe zusammen.

c//mag: Stichwort Flottenmanagement: Sind die Hersteller

mit den aktuellen Lösungen nicht schon „am Ende der Fahnenstange“

dessen, was möglich ist?

Karola Bode: Bisher mussten sich Anwender von Flottensteuerungssystemen

die Lösung bei verschiedenen Anbietern

zusammensuchen. Hardware, ein entsprechendes

Portal, eine SIM-Karte mit dahinter stehendem GPRS-Netz

werden dabei immer benöigt, evtl. noch eine Navigationslösung.

Heute fordern die Nutzer aber mehr. Sie wollen die

„Für die aktuellen Anwendungen reichen die

Bandbreiten von GPRS (General Packed Radio

Service) in der Regel aus. Doch für zukünftige

Anwendungen mit hochauflösender Grafik werden

die Anwender wohl größere Bandbreiten

benötigen und auf UMTS umsteigen.“

033

Lösung aus einer Hand bekommen. Momentan ist sehr viel

Bewegung im Markt. Die Zukunft wird zeigen, wer sich mit

den besten Lösungen durchsetzen kann.

c//mag: Gibt es bereits Analyse-Tools für das Controlling,

die logistische Optimierung?

Karola Bode: Logistische Abläufe können beliebig durch

solche Lösungen optimiert werden. Alle Fahrten der Fahrzeuge

werden festgehalten und können beliebig ausgewertet

werden. Die manuelle Fahrtenbuchführung beispielsweise

ist damit überflüssig geworden. Sie können genau feststellen,

welches Ihrer Fahrzeuge welche Stecken an welchen Tagen

gefahren ist und anhand dessen Ihre Routen optimieren

oder Schwachstellen in den Prozessen aufdecken. Das sich

daraus ergebende Kosteneinsparungspotenzial

ist dem Kunden

sofort klar. Eine moderne Disposition

ohne Flottensteuerungslösung

ist kaum noch denkbar.

c//mag: Werden Navigationslösungen

durch zusätzliche Informationen

„veredelt“, z. B. durch

Staumeldungen oder den Bestand von Warenwirtschaftssystemen?

Karola Bode: Die Themen Navigation und Flottensteuerung

sind nicht mehr voneinander zu trennen. Klar ist, wenn

ich feststelle, wo sich mein Außendienstmitarbeiter gerade

befindet und ich ihm den nächsten Auftrag mit Zieladresse

des Kunden sende, dass diese Adresse automatisch in sein

Navigationssystem übernommen wird. Das Schlagwort

End-to-end-Anwendung wird hier wirklich gelebt. Es gibt

keinen Datenbruch mehr oder eine Adresseingabe per

Hand. Verkehrsinformationen sind heute schon wesentlicher

Bestandteil von guten Navigationslösungen.

c//mag: In welche Segmente würden Sie den Markt der

Navigationslösungen mit Geodaten einteilen?

Karola Bode: Ganz klar sind alle Nutzer mit Fahrzeugen

klassisch diejenigen, die Navigationslösungen brauchen und

nutzen. Die Einfachheit in der Anwendung und die Kostenentwicklung

der letzten Jahre weist aber deutlich auf einen

großen Massenmarkt für Navigation hin. Businesskunden

mit Fuhrpark sind prädestiniert für Navigations- und Flottensteuerungslösungen.

Diese Themen werden aber auch

für andere Unternehmen mit Fuhrpark sowie für private

Anwendungen interessant. Die neuesten Endgeräte können

auch Fußgängern das Leben erleichtern ...


034 Titel

c//mag: ... On-Board und Off-Board ...

Karola Bode: Wichtig ist die Unterscheidung in On-Board

und Off-Board Navigation. On-board bedeutet, dass die

komplette Software, also das Straßenkartenmaterial schon

im Endgerät gespeichert ist. Bei der Off-Board Navigation

dagegen lädt sich der Anwender

immer das aktuelle Kartenmaterial

online herunter, bei mobilen

Endgeräten online über GPRS.

Beide Lösungen haben ihre Vor-

und Nachteile. Im deutschen Markt konnten sich Off-Board

Navigationssysteme bisher nur schwer behaupten. Die Unsicherheit,

was eine Routenberechnung kostet, und die bislang

unzureichende Benutzerfreundlichkeit schreckten viele

ab. Vielleicht liegt die Wahrheit in der Mitte. Die Kombination

aus integrierter Software und demAbruf von aktuellen

Informationen und Updates online könnten zukunftsweisend

sein. Die so genannten Hybrid-Lösungen integrieren

die Vorteile beider Lösungsalternativen. Ein netter Zufall,

dass das Thema Hybrid auch in der Antriebstechnik von

Fahrzeugen ein zukunftsweisendes Thema ist.

„Die Kombination aus integrierter Software und

dem Abruf von aktuellen Informationen und Updates

online könnte zukunftsweisend sein.“

c//mag: Welche Trends in der Software-Entwicklung für

Navigationssysteme gibt es?

Karola Bode: Wir haben festgestellt, dass die Nachfrage

nach mobilen Geräten in allen Bereichen des täglichen

Lebens stetig wächst. Als Anbieter von mobilen Diensten

im Sprach- und Datenbereich

wird daher auch das Thema Navigation

an Bedeutung gewinnen.

Der Nutzer möchte nicht viele

verschiedene Geräte mit sich herumtragen.

Wenn er ein mobiles Endgerät z. B. für Sprache,

E-Mail, Internet und Navigation haben kann, warum sollte

er sich noch weitere anschaffen?

c//mag: Ihr Tipp für die Entwicklung des Marktes?

Karola Bode: Wir rechnen damit, dass das Thema Navigation

die nächsten Jahre erheblich an Bedeutung gewinnen

wird. Navigation auf mobilen Engeräten wird dabei unserer

Ansicht nach am stärksten wachsen. Diese Prognosen bieten

gute Möglichkeiten sowohl für Mobilfunkanbieter als auch

Anbieter von Navigationslösungen und Content.


Nie mehr verlaufen

Ab 2011 wird Galileo punkten. Während GPS ein militärisches System

war und ist, bietet das europäische Gemeinschaftsprojekt als kommerzielles

System eine bislang nicht gekannte Zuverlässigkeit. Mit 30 Satelliten, die

in einem günstigen Winkel zum Äquator stehen, wird selbst die Ortung

in Häuserschluchten metergenau sein. Andere Ortungstechnologien werden

damit aber nicht automatisch überflüssig. Ob nun Handyzellen (bis

100 Meter), GPS (50-15 Meter), EGNOSS und Galileo (bis 1 Meter) oder

WLAN – Technologien werden nicht ersetzt, sondern kombiniert. Das

entsprechende Schlagwort heißt „Seamless Localization and Communication“.

Der Anwender will nur die optimale Navigation und Orientierung

an jedem Ort – egal ob ein Mobilfunkempfang oder ein Satellitensignal

verfügbar ist.

Die Anwendungen im entstehenden Markt für Global Navigation Satellite

Systems (GNSS) zeigen, wohin die Reise geht. Interoperabilität von Geoinformationssystemen

(GIS) und -daten sowie die Konvergenz der Technologien

sind der Schlüssel zum Milliardenmarkt. Erfreulicherweise sind diesmal

deutsche Firmen ganz vorn mit dabei. Nur ein Beispiel ist die Lösung

zur Übersee-Containerverfolgung eines Spinoffs des Anwenderzentrums:

Eine Kombination aus Satellitenkommunikation, Mobilfunkkommunikation,

RFID und GPS ermöglicht die genaue Lokalisierung der Schiffscontainer

einschließlich Identifikation auf einer Atlantiküberquerung. Eine

Lösung mit hohem Integrationsgrad wie diese wird in Zukunft aus einer

Kombination von SatCom, Mobilfunk, WLAN sowie Lokalisierungstechnologien

wie Galileo, GPS, Glonass und Nahfeldortung über RFID oder

WLAN bestehen.

Mit Galileo werden nicht nur kommerzielle B2B-Navigations-, Tracking-

und Ortungsanwendungen einen kräftigen Schub erhalten, sondern

insbesondere der B2C-Bereich und die Fußgängernavigation. Und damit

Location Based Services (LBS) wiederbeleben.

Während vor allem Receiver- und Chip-Hersteller den Takt im Markt

vorgeben, gibt es einen natürlichen Bremser: die Erde. Zu einer hochgenauen

Lokalisierung gehört ein entsprechendes Kartenmaterial. Solange

dieses über die Landesgrenzen hinweg nicht zusammenpasst, nützt die

schönste Ortung nichts. Denn „Ortung“ bedeutet noch lange nicht „Navigation“.

Die Interoperabilität von Geoinformationssystemen wird aus

diesem Grund zukünftig ein ganz besonderer Schlüssel für die Nutzung

von GNSS-Technologien sein.

Hier gibt es in Deutschland einiges: Etwa den „Runden Tisch GIS“ in

München, der sich mit der Interoperabilität nach den Richtlinien des Open

Geospatial Consortiums (OGC) befasst und auf dieser Basis eine international

einmalige OGC-Testplattform realisiert hat. Und nicht zuletzt findet

sich das Thema verstärkt auf den IT-Messen wieder.

Christian Stammel

Business Development, Anwendungszentrum GmbH

035


Sag mir, wo die Läden sind ...

Die Zlteren unter uns kennen ihn, den Laden und „Tante Emma“ um die

Ecke. In der Auslage lauter Verpackungen, die daran erinnerten, wie wir als

Kinder Kaufmannsladen gespielt haben. Drinnen gab es noch leibhaftige

Menschen statt eines digitalen Avatars: Die Kundenbetreuung war noch

nicht in den Untiefen der CRM-Systeme versenkt. Und für die Begrüßung

brauchte der Kundenbetreuer keine CTI-Lösung mit Rufnummernerkennung,

sondern nur sein Gedächtnis. Ach ja, dahin ...

Bücher, auch so ein Fall. Was konnte es Schöneres geben, als bei dem

Schild „Modernes Antiquariat“ seine Zeit zu verbummeln? Vorn an der

Kasse oder in dem mit Büchern zugewachsenen Arbeitszimmer eine geschäftige

Buchhändlerin. Heute ist der Buchhandel von der Dauerkrise

zermürbt. Eine weitere Übernahme steht ins Haus. Gerade haben Weltbild

und Hugendubel ihr Filialgeschäft in einem Joint Venture gebündelt. Insgesamt

451 Filialen. Und die E-Books sind noch nicht wirklich ins Rollen

gekommen ...

Wo das Buch erst noch hinkommen wird, ist die Software schon angekommen:

im Netz. 2010, so die Marktforscher von PricewaterhouseCoopers

(PWC), erreicht der weltweite Medien- und Entertainment-Markt ein

Volumen von 1,8 Billionen US-Dollar. Die Analysten aus Frankfurt erwarten,

dass nicht nur elektronische Vertriebsformen von Software, sondern

auch von Unterhaltungscontent, darunter Musik, Filme und Spiele, den

physischen Vertriebswegen zunehmend das Wasser abgraben werden: 2005

habe der weltweite Online-Umsatz 19 Mrd. US-Dollar betragen, 2010 soll

das Marktvolumen 67 Mrd. US-Dollar erreichen. Wo werden da die Läden

bleiben ...

In die genau wollten wir für die neue Ausgabe unserer Galerie. Um uns

nach Software umzusehen und um zu fotografieren. Mediamarkt: Zutritt

verweigert. Wer ist hier jetzt blöd? Ich? Saturn: „Ohne Dreh- und Fotografiergenehmigung

dürfen wir Sie im Haus nicht fotografieren lassen.“ Die

Anmeldung über die Pressestelle: zu kurzfristig und ergebnislos. Dieser

Geiz ist ganz besonders geil: Absage per E-Mail, Telefonkosten gespart.

Anders die kleinen Läden. Size matters: Je kleiner, desto freundlicher. Da

sind sie wieder: die randvoll gestellten Regale. Die Stapelhaufen, die einem

den Weg verstellen. Die Sonderangebote auf der Kassentheke: 5 Euro für

ein deutschlandweites Telefonbuch und über 100.000 Stadtpläne.

Ab in den Warenkorb! Wollen Sie wirklich bestellen? Ja! Wie möchten

Sie bezahlen? Bar! Hier! Jetzt! Ohne erst meine Adresse und meine Bankverbindung

eintippen zu müssen. Was, kein ‚Click&Buy‘, sondern ‚PayPal‘?

Hab ich nicht. Erst anmelden. Du meine Güte, ich will doch nur etwas kaufen.

Wieso liegt das Anti-Virus-Kit jetzt zweimal im Warenkorb? Zurück,

Eingabe löschen. Himmel Herrgott. Ich komme hier noch völlig durcheinander.

Ich brauche definitiv mehr Real Word Awareness.

Redaktion c//mag

037


038

Mit anonymen Internetdingens mit Warenkorb

kann ich ja nix anfangen. Ich

brauch immer den Laden, wo ich fragen

kann. Beratung. Und wenn es so aussieht

wie im Buchladen, umso besser. Hier,

da steht ja noch so ein echter Regalhocker.

Wie bei Büchern, ist aber alles

Software. Ob es hier auch Krimis gibt?


Brauchen tu ich eigentlich ... doch

... Buchhaltung ist immer ein Thema.

Quicken, kenn ich, ist glaub ich ganz

gut. Eigentlich hab ich aber auf Buchhaltung

ja keine Lust. Hier, Fotos

scannen und Etiketten drucken, kann

ich bestimmt mal brauchen. Digitales

Fotoalbum und so.

039


040

D-Info sowieso. 5 Euro, ein echtes

Schnäppchen! Hab ich nach 10 Telefonnummern

wieder drin. Stadtpläne sind

auch dabei. Gebongt. Und den PDF-

Schreiber ... brauch ich glaub ich ...

eher nicht. Geht ja auch so, aus jedem

Programm PDFs rausschreiben, oder?


Sicherheit, das ist natürlich immer

gut. Kann jeder gar nicht hoch genug

hängen, das Thema. Wahrscheinlich hängt

die Box deshalb unter der Decke. Also,

Sicherheit, die nehm ich. Firewalls kenn

ich bisher nur aus Katastrophenfi lmen.

Da kann jederzeit was passieren. Super.

Hier, kenn ich. Kann man DVDs mit kopieren.

Klar, nur Privatkopie. Brennen soll

aber auch Spaß machen, oder? Oder ich

bring den Kindern Ice Age 2 mit.

Mal sehen.

041


042 Schwerpunkt

Literatur in elektronischer Form nimmt einen festen Platz

in unserer Medienwelt ein. Die Grenzen zwischen Text und

Bild, zwischen Lektüre und Spiel lösen sich hier allmählich

auf. Die herkömmliche Erfahrung des Lesens, die wir im

Umgang mit Büchern gesammelt haben, verändert sich dadurch.

Welche Kompetenzen brauchen wir, um uns in dem

elektronischen Medium zurechtzufinden, um mit Freude

darin zu lesen? Mit diesen Fragen beschäftigen sich die Lese-

und Rezeptionsforschung und die Vermittlungswissenschaft

(Didaktik) der Sprache und Literatur. Antworten zu finden,

Perspektiven zu entwickeln und Kompetenzen zu stärken

sind die erklärten Ziele entsprechender Untersuchungen.

Der andere Text

Anders lesen

Worum geht es? Literarische Texte im Internet unterscheiden

sich von denen im Buch veröffentlichten durch andere

Lektürewege und durch ein gewandeltes Autor-Leser-Text-

Verhältnis. Dies stellt eine Herausforderung des Lesevermögens

dar. Wer die übliche, am gedruckten Medium orientierte

Lesesozialisation erfahren hat, muss nun umdenken.

Lesen in seiner „Papierform“ verlangt nur einen minimalen

motorischen Aufwand (Umblättern der Seiten) und erlaubt

eine von äußerer Wahrnehmung weitgehend abgeschottete

Lesen am Bildschirm

Elektronische Texte mit Hyperlinks verändern das Leseverhalten. Wer am

Bildschirm liest, bahnt sich mit einem individuellen Lesepfad seinen Weg

durch den Text. Dabei sind „Cybertexte“ nicht unbedingt neu.

Berbeli Wanning

Konzentration auf innere Vorstellungen und Bilder. Das eigentliche

Lesen findet im Kopf statt.

Hingegen unterscheiden sich literarische Texte in elektronischer

Form, auch Hyperfiction genannt, von herkömmlichen

vor allem dadurch, dass sie Links enthalten, von denen

aus auf andere Texte, aber auch auf Bilder, Videos und Tonelemente,

zugegriffen werden kann. Die Beziehung zwischen

dem ursprünglichen Text und den durch die Links eröffneten

Möglichkeiten wird als Linksemantik bezeichnet, weil

hier eine zusätzliche Bedeutungsstruktur installiert wird,

die der Text in Buchform nicht haben kann. Die Lektüre der

Hyperfiction erfordert daher andere Wahrnehmungs- und

Selektionshandlungen. Die gegenüber dem üblichen Lesen

erhöhte körperliche Aktivität (aufrechte Sitzhaltung, meist

am Tisch, erforderlich; Mouseklick, Tastatur im Blick) beeinflusst

den Konzentrationsprozess auf den Inhalt des Gelesenen.

Sie kann als Störung der kreativen Kontemplation

empfunden werden. Wer Hyperfiction lesend verstehen will,

muss Entscheidungen treffen, wie die Linksemantik als zusätzliche

Verstehensebene in den Lektüreprozess integriert

werden soll. Hypertext-Lektüre ist also eine bewegte Performance

im virtuellen Raum – das genaue Gegenmodell zur

gewohnten Rezeption literarischer Texte durch stilles Lesen.


Lesetechnik im Mittelpunkt des Interesses

Viele Studien zum Thema Hyperfiction beschäftigen sich

mit den Rezeptionsprozessen dieser neuen Literaturform,

richten ihr Interesse aber vor allem auf die Techniken des Lesens.

Kaum jemand stellt die Frage, ob Hyperfiction-Lektüre

Spaß machen kann, ob sie fasziniert. Das Thema Leselust,

im Kontext der Buchlektüre ausgiebig untersucht, bleibt in

der Hyperfiction-Debatte oft außen vor. Das Lustprinzip

als wichtige Motivation, sich mit Literatur zu beschäftigen,

steht in einem engen Zusammenhang mit dem Spieltrieb.

Hyperfiction-Lektüre kommt dem entgegen, denn der

Übergang zum Spielerischen ist hier fließend. Dennoch

geben sich nur wenige als begeisterte Hyperfiction-Leser

zu erkennen, sie haben keine Community außerhalb des

Netzes, während der Markt für wie gewohnt publizierte Belletristik

boomt und die Feuilletons von Leseempfehlungen

und Rezensionen schier überquellen. Warum gibt es diese

Unterschiede?

Ein Grund mag sein, dass das Lesen und Verstehen literarischer

Texte im Internet besondere Kompetenzen voraussetzt,

die mit der Struktur des Mediums zusammenhängen.

Sie sind freilich erlernbar, aber eben für die meisten von uns

ungewohnt. In der neuen Art der digitalen Textorganisation

sind die einzelnen Textfragmente durch Links miteinander

verbunden, aber nicht-sequentiell geschrieben. Bereits

seit Mitte der 60er Jahre ist dafür der Begriff Hypertext

gebräuchlich, von dem sich Hyperfiction als Bezeichnung

nicht-sequentieller Texte literarischen Inhalts ableitet.

Leser müssen nun eigene Lesestränge festlegen und sind

nicht mehr zwingend – wie im Buch – an die vom Autor

festgelegte Ordnung gebunden. Es gibt den Text nicht mehr

als fertiges Produkt. An dessen Stelle tritt die „dynamische

Perspektive des Textlesens“, also ein Prozess. Wie findet man

sich darin zurecht?

Der „individuelle Lesepfad“

Die Rezeptionsforschung hat dazu das einprägsame Bild

des Pfades geschaffen: Um einen hyperfiktionalen Text zu

lesen, muss ein individueller Lesepfad angelegt werden. Anderenfalls

ist die Gefahr groß, sich in der vielfältig vernetzten

Struktur (Rhizom) der Hyperfiction zu verlieren und

gar nichts mehr zu verstehen. Damit wäre natürlich jede

Freude an der Lektüre verdorben. Das Legen eines Pfades

ist also die notwendige Bedingung für eine nutzbringende,

Spaß machende Rezeption. Er führt sicher durch das Labyrinth

möglicher Deutungen und kann dank der Retracing-

Funktion z. B. der WWW-Browser zurückverfolgt werden.

Wir brauchen den Pfad, weil es keine „gültige“ Lesart mit

vorgegebener Reihenfolge mehr gibt. Die gesondert begehbaren

Lesepfade definieren Ausgangspunkte individuell,

bestimmen den Anfang einer Geschichte ebenso wie das

Ende nach den Wünschen des Lesers, der jetzt viele neue

Möglichkeiten hat: Er kann den Ausgangspunkt fixieren

und zu ihm zurückzukehren, um den Text kreisförmig zu

erschließen. Er kann auch einzelne Wege verbinden oder

diese ins Leere laufen lassen, er kann dem Text entfliehen

oder in einen anderen springen. Der Möglichkeiten gibt es

viele, aber wie behält man den Überblick? Dieser wird normalerweise

durch inhaltliche Kohärenz, d. h. durch einen

sinnvollen Textzusammenhang gewährleistet. Weil dieser

bei der Hyperfiction-Lektüre nicht mehr vorgegeben ist,

muss er im Verlauf des Leseprozesses hergestellt werden.

Schwierigkeiten mit dem neuen Medium

043

Dabei stößt der Leser auf Schwierigkeiten, die aus dem

Medium selbst erwachsen. Die materielle Form des Textes

ist nicht verlässlich. Dieser kann auf einer nicht wahrnehmbaren

Ebene Informationen enthalten, die z. B. der Autor in

der Programmierung versteckt hat und die unerkennbar den


044 Schwerpunkt

Leseprozess beeinflussen, wenn nicht gar steuern. Der jeweils

sichtbare literarische Text ist im Prinzip so rezipierbar wie

der herkömmliche auch. Da aber digitale Texte Scriptons

(Zeichenstränge, wie sie sich dem Leser präsentieren, wenn

er sie aufruft) und Textons (Zeichenstränge, wie sie im Text

existieren, weil der Autor sie festgelegt hat) enthalten, die

nicht immer zugleich sichtbar sind, wird es kompliziert. Im

traditionellen Text fallen Textons und Scriptons zusammen

und werden nicht unterschieden. In Hypertexten hingegen

werden weder alle vorhandenen Textons aufgerufen noch

hat man einen Überblick, wie viele und welche existieren.

Erst durch den Leseakt kommt ein Teil davon als Scriptons

an die Oberfläche. Im Zusammenwirken dieser beiden Seiten

verändert sich der sichtbare Text auch materialiter. Die

entstandene Gestalt des Textes ist die Basis der Interpretation,

die der Leser dann vornimmt. Lesen in diesem medialen

Kontext ist mithin ein interaktiver Prozess. Es ist wie beim

Laufen auf einem schwimmenden Schiff im Unterschied

zum Laufen an Land: Man kommt voran, aber schwankend.

Und man weiß, dass der Grund nicht wirklich fest ist.

Was kann der Leser tun?

Um im Bild zu bleiben: Was kann der Leser tun, damit

er nicht „seekrank“ wird? Jeder literarische Text regt die

Imagination an und hinterlässt eine prägende Spur im

Gedächtnis. Diese wirkt bei der Lektüre auf seine Entscheidung

ein, wie mit dem Text zu verfahren ist. Klicken oder

weiterlesen? Ein Bild anschauen oder in einen ganz anderen

Text springen? Links sind immer eingebunden, selbst wenn

sie ignoriert werden. Bisher ist nicht hinreichend erforscht,

welche Gründe den Leser hauptsächlich veranlassen, einem

Link zu folgen oder beim ursprünglichen Text zu bleiben.

Liegen sie in einer überkommenen Erwartungshaltung an

Texte? Oder siegt die Neugier auf das Unbekannte? Ist es die

Freude an den spielerischen Möglichkeiten? Oder erfolgt

bald der frustrierte Abbruch des Lesens wegen Überforderung?

Begründete und nachvollziehbare Antworten auf

diese Fragen wären hilfreich für Hypertext-Autoren gleich

welcher Art, vom Dichter bis zum Werbetexter. Ein „Goethe

der Hyperfiction“, der bei höchstem ästhetischen Anspruch

seine Leser auch noch unterhält, existiert bisher nicht.

Ein literarischer Text verlangt nach Interpretation, worunter

im Allgemeinen die individuelle Reorganisation seiner

Bedeutung verstanden wird. Der Gewinn und die Lust, die

der Literatur Lesende aus seinem Tun zieht, ist eine veränderte

Sicht auf die Welt, eine neue Perspektive. Er erhält

vom Text ein Deutungsangebot, das er mit der Interpretation

realisiert. Bei der Lektüre von Hyperfiction muss er

allerdings zusätzlich das Textmaterial reorganisieren. Diese

zweite Ebene gilt als interpretatorische Interaktion im engeren

Sinne. Interaktion meint hier, dass durch den Leser die

Bedeutung des Textmaterials real verändert wird.

Cybertext – mehr als Interaktion

Nun hat sich der Begriff Interaktion bzw. Interaktivität im

Zusammenhang mit neuen Medien so sehr abgenutzt, dass

er zur Beschreibung des komplexen Rezeptionsprozesses

nicht mehr ausreicht. Der Theoretiker Espen Aarseth schuf

das Kunstwort Cybertext, womit er Texte charakterisiert, die

dynamische Strategien verfolgen. Er findet entsprechende

Beispiele bereits in der Antike. Es gibt sie also nicht erst

seit dem Computerzeitalter, aber nachdem Cybertexte in

das elektronische Medium eingezogen sind, haben sich

ihre Dynamisierungsmöglichkeiten vervielfältigt. Von den

Lesern wird nun eine entsprechende dynamische Rezeptionsstrategie

verlangt. Sinnkonstituierendes Lesen, an sich

ein innerpsychischer Vorgang, muss zugleich physisch in die

Außenwelt übertragen werden. Durch Aktivieren der Links

– wird materialiter ein Text geschaffen, der seine Existenz

der jeweiligen Lesestrategie verdankt.

Zum besseren Verständnis dieser Vorgänge hat Espen

Aarseth zwei Konzepte entwickelt, die er theoretisch strikt

getrennt hält: Er unterscheidet die Mehrdeutigkeit, die jeden

literarischen Text kennzeichnet, von einer materiellen

Mehrförmigkeit, die konstitutives Merkmal der Cybertexte

ist. Literarische Cybertexte haben beide Kennzeichen, sie

sind mehrdeutig und mehrförmig. Mit anderen Worten:

Während des Leseprozesses wird der elektronische Cybertext

zugleich rezipiert und konstruiert. Dies bedeutet, dass

der Text erst beim Lesen entsteht.

Interessensausgleich bei der Linksemantik

Wenn wir diesen Leseprozess genauer verstehen wollen,

dürfen wir die Aktivierung einzelner Links nicht isoliert

betrachten. Sie sind strukturell nicht nur mit der materiellen

Textkonstitution verknüpft, sondern auch mit der

Bedeutungsebene der Interpretation. So wird der Leser eine

individuelle Entscheidung treffen, aber in diese seine erlernte

Erwartungshaltung im Umgang mit Literatur einfließen

lassen. Es gibt also einen interessegeleiteten Einfluss der Interpretationsebene

eines Textes auf die Linksemantik. Zwar

sind die Linkmöglichkeiten vorgegeben, ob ein Link jedoch

aktiviert oder nicht, bleibt dem Leser überlassen. Dessen

Entscheidung ist wiederum abhängig von der Inhaltsebene

bzw. der Bedeutung, die der Leser dem Inhalt zuweist.


Susanne Berkenheger, Autorin prämierter Hyperfi ction, ist

überzeugt, dass von Hyperfi ction eine starke Leseerfahrung

ausgeht, weil sie dem Leser eine besondere Welt bietet, in die

hinein er sich fallen lassen kann. Die Sogwirkung des Lesens

von Hyperfi ction besteht darin, dass der Leser konkret zum

Mitspieler wird. Dadurch kann er sich viel stärker als bei der

Buchform mit dem Text, seiner Handlung, seinen Figuren

identifi zieren. Susanne Berkenheger fordert: „Hyperfi ction

müsste dem Leser ermöglichen, dass er permanent und

ohne Anstrengung zwischen Zuschauerraum (seiner Rolle

als Leser) und Bühne (der Rolle des Mitspielers) hin- und

herspringt, und es müsste natürlich Leser geben, die das mögen

und auch können, weil sie Übung drin haben. Das hat

aber im Moment kein Mensch, der Autor auch nicht.“ Die

tatsächliche Komplexität dieses doppelten Konstitutions-

und Rezeptionsprozesses wird hier direkt angesprochen,

ist aber in der Praxis kaum erforscht. Eine entsprechende

Datensammlung, Fallanalyse und Theoriebildung wäre vor

allem mit Blick auf die junge Generation erforderlich: Sie

wird ohne Hypertext-Lesekompetenz nicht auskommen.

Der Umgang mit Hypertext wird Standard

Rezeptionsforschung ist wichtig. Der angemessene Umgang

mit Hypertexten wird zukünftig eine Standardanforderung

sein. Dies setzt eine entsprechende Erweiterung der

Lesekompetenz voraus, um die es – wie die PISA-Studien

gezeigt haben – in Deutschland nicht zum Besten steht.

Immer mehr der für Alltag, Berufsleben oder Unterhaltung

erforderlichen Texte liegen auch oder sogar ausschließlich in

hypertextueller Form vor. Hinzu kommt eine entsprechende

Veränderung unserer kulturellen Gewohnheiten durch den

Medienwandel. Doch sind wir – individuell und als Gesellschaft

– mit unseren Kernkompetenzen schon hinreichend

darauf vorbereitet? Es geht nicht nur um die technische

Versiertheit allein, sondern auch um Vertrautheit mit dieser

Form der Literatur bzw. der Texte. Wenn wir hierzu neue

Konzepte entwickeln, was dringend geboten scheint, sollten

sie an den Anforderungen der Zukunft gemessen werden.

Prof. Dr. Berbeli Wanning

Die studierte Philologin, Jahrgang 1959,

promovierte mit einer Arbeit zur Kunstphiloso-

phie Schellings. An der Pädagogischen Hoch-

schule Ludwigsburg lehrt Berbeli Wanning

neuere deutsche Literatur und deren Didaktik.


046 Schwerpunkt

Mit dem Wechsel vom bisherigen Messestandort Essen

nach Köln spricht die Koelnmesse GmbH, seit 2005 Veranstalter

der DMS EXPO, weniger von alten als vielmehr

von den neuen Zielen: So wolle der Veranstalter 2006 das

positive Ergebnis von 2005 weiter steigern und neue Besucherpotenziale

erschließen. Das solle unter anderem durch

die gezielte Ansprache von mittelständischen Unternehmen

und bessere Zusammenarbeit mit der IHK erreicht werden.

Fachbesucher haben über das neue Internet-Tool „Business

Matchmaking“ die Möglichkeit, bereits vor der Messe mit

den Ausstellern der DMS in Kontakt zu treten und Termine

zu vereinbaren.

Zudem verbessert der Veranstalter die Attraktivität der Messe

für Aussteller und Besucher durch organisatorische Maßnahmen.

Mit der neuen, schnelleren Besucherregistrierung

will die Koelnmesse GmbH Warteschlangen am Eingang

vermeiden. Des Weiteren sind kostenlose Besucherführungen

geplant. Die gesamte Messe ist anders als in Essen in

einer einzigen großen Halle untergebracht. Der Besucher

findet damit alle bedeutenden nationalen und internationalen

Anbieter der Branche, 370 haben sich angemeldet, unter

einem Dach.

DMS EXPO 2006 in Köln

Kukkstu in

Essen Köln

In diesem Jahr wird ECM eines der wichtigsten Themen auf der DMS EXPO sein. Erstmals in

Köln ausgerichtet, dreht sich alles um Technologien, die geschäftliche und organisatorische

Prozesse rationalisieren, optimieren und beschleunigen.

Nicole Körber

Posteingang und Storage im Fokus

Zu den wichtigen Themen in diesem Jahr zählen neben

Enterprise-Content-Management (ECM) wieder die elektronische

Postbearbeitung und Speichertechnologien. In

Zusammenarbeit mit dem VOI (Verband Organisations-

und Informationssysteme e.V.) gibt es die Neuauflage

des Showcase „Digitale Postbearbeitung“. Messebesucher

erleben dort live, wie in einem Beispielunternehmen eingehende

Dokumente ihren Weg vom Posteingang bis zur

Archivierung durchlaufen. Die stärkere Beachtung der

Speichertechnologien im Rahmen des neuen DMS-Storage-

Forums zeigt die Bedeutung des Themas und reflektiert das

wachsende Engagement der Ausstellern. IBM widmet diesem

Bereich erstmalig eine separate Standfläche.

Best Practice Panels mit vertiefenden Informationen

Zu den Besonderheiten der DMS EXPO zählen seit jeher

die Begleitveranstaltungen, die den Besuchern umfangreiche

Informationen zu dem Thema DMS im Allgemeinen

und spezifische Informationen zu Fachthemen bieten. Die


Koelnmesse hält an dieser Tradition mit Vorträgen, Podiumsdiskussionen

sowie Anwendungs- und Praxisbeispielen

fest. Interessant die „Best Practice Panels“, moderiert vom

Branchenkenner Dr. Ulrich Kampffmeyer. Sie beschäftigen

sich mit Enterprise-Content- und Business-Process-Management.

Das VOI-Forum der DSM EXPO wird direkt in der

Messehalle stattfinden und ist für alle Messebesucher frei

zugänglich. Für die inhaltliche Gestaltung sorgt der VOI, der

ideelle Träger der DMS EXPO und Wegbereiter der Branche.

Die Vorträge des Forums bedienen Themen ausgehend

von hochwertigen Basics über Informationsmanagement,

Markt- und Technologietrends bis hin zu praktischen Anleitungen

zur Systemeinführung.

Kompaktes Informationsangebot

Neues Besucherpotenzial verspricht sich der Veranstalter

von der Fachkonferenz „Xplor vor Ort“, die erstmals in

diesem Jahr parallel zur DMS EXPO im Congress-Zentrum

Nord stattfindet. Xplor ist der Verband für Entwickler und

Anwender von Hochleistungs-Dokumenten-Systemen, in

dem mehr als 1.500 Organisationen mit rund 3.000 Mitglie-

Das VOI-Forum der letztjährigen DMS EXPO in Essen.

047

dern zusammengeschlossen sind. Thema der Konferenz ist

die Optimierung der elektronischen und papiergebundenen

Geschäftsprozesse unter dem Gesichtspunkt des Output-

Managements. Außerdem: Nach der gelungenen Premiere

im letzten Jahr findet auf der DMS EXPO 2006 erneut

das Forum für Internationale Technische Kommunikation

(ITC) statt. Auf dem Gemeinschaftsstand des Forum ITC

werden neun Anbieter ihre Werkzeuge und Dienstleistungen

rund um die technische Redaktion und Übersetzung

wie Handbücher, Anleitungen oder Produktdokumentationen

zeigen.

Entdeckungstour durch Halle 8

Bereits am 18. September – einen Tag vor Messebeginn

– findet auf Initiative des Bundesverwaltungsamtes ein „Behörden-Tag“

für Mitarbeiter der öffentlichen Verwaltung

statt. Hier werden diese über die Aspekte des Digital Managements

in der öffentlichen Verwaltung informiert und

erhalten am ersten Messetag eine „Guided Tour“ über die

DMS EXPO mit Überblick über Anbieter und Lösungen für

das eGovernment.


048 Schwerpunkt

Und da gibt es tatsächlich einiges zu entdecken. Zum

Beispiel bei der IBM, die an ihrem 360 qm großen Stand C

030 gemeinsam mit ihren Business Partnern an 24 Demopunkten

Content-Management- und Discovery-Lösungen

vorstellt. Erstmals gezeigt wird der IBM WebSphere Content-Discovery-Server.

Die Lösung verwaltet Informationen

im Rahmen einer Service-orientierten Architektur (SOA)

unternehmensweit einheitlich und stellt sie, unabhängig

von den Quellanwendungen, als Unternehmensressource

zur Verfügung. Sie werden sämtlichen Anwendungen und

Prozessen bereitgestellt – Mitarbeiter und Partner des

Unternehmens haben Zugriff auf alle für sie wichtigen

Informationen – unabhängig davon, an welchem Ort die

Daten vorgehalten werden. Intelligente Suchfunktionen,

semantische Analyse und kontextuelle Informationen unterstützen

die Anwender bei ihren Anfragen. Ebenfalls neu

auf dem deutschsprachigen Markt ist GoPro Professional,

eine gemeinsame Lösung der IBM Business Partner Go-

Pro, IBM Global Business Services und der IBM Software

Group. Die auf einer SOA-Architektur basierende Lösung

zur elektronischen Vorgangsbearbeitung mit integriertem

Dokumenten- und Business-Process-Management entspricht

eGovernment-Standards von Deutschland (SAGA,

DOMEA), Österreich (ELAK) und der Schweiz (GEVER).

Damit lassen sich Geschäftsprozesse abbilden und alle zu einem

Vorgang gehörenden Dokumente verwalten. Integriert

sind außerdem Funktionalitäten zur unternehmensweiten

Zusammenarbeit.

Als eines der ersten ECM-Systeme überhaupt wird die

Version 6.2 der Enterprise-Content-Management-Lösung

d.3 der d.velop AG die aufkommenden Standards Business

Process Execution Language (BPEL) und Business Process

Modeling Notation (BPMN) unterstützen. Im Mittelpunkt

steht hierbei ein neuer, Java-basierter Workflow-Designer.

Der ECM-Spezialist RedDot präsentiert am Stand F

071 gemeinsam mit hummingbird und RedDot-Partnern

Lösungen zur Bündelung von mehrsprachigen Inhalten

in Web-Umgebungen. Ein Highlight ist der RedDot-Content-Integrator,

mit dem beliebige Inhalte aus den gängigen

Content Repositories in das RedDot-System integriert und

mittels eines Personalisierungsmoduls berechtigungs- bzw.

profilabhängig bereitgestellt werden können. Was sicher viele

Besucher interessieren wird, ist die zukünftige Entwicklung

des Unternehmens. Und das Verhältnis zum neuen

Eigentümer Open Text. Hatte doch zuletzt John Shakleton,

President und Chief Executive Officer von Open Text, Red-

Dot einen hohen Stellenwert in der zukünftigen Produktstrategie

von Open Text zugestanden.

Aus Ordnern werden Bits und Bytes – frei nach diesem

Motto stellt ELO Digital Office GmbH in Köln erstmals eine

Vorabversion des neuen plattformunabhängigen ELOenterprise

Client vor, der unter anderem auch auf Linux und

Mac OS X läuft und Mitte 2007 verfügbar sein wird. Das

Messeportfolio umfasst eine Vielzahl an Lösungspaketen

zur Prozessoptimierung.

Die deutsche Niederlassung von Stellent präsentiert

gemeinsam mit Business-Partner Benmark die Funktionalitäten

und Einsatzmöglichkeiten ihrer flexiblen, hoch

skalierbaren Enterprise-Content-Management-Suite. Im

Mittelpunkt stehen Kundenlösungen, aber auch Neuerungen

in Stellent-Site-Studio. Die Version gibt Website-Verantwortlichen

neue Möglichkeiten bei der „in-context“-Erstellung

und Gliederung der Website. Weitere Verbesserungen

sind integrierte Nutzungsanalysen und Statistiken sowie

erweiterte Suchfunktionen.

Die SAPERION AG stellt die neue Version 5.6 ihrer gleichnamigen

ECM-Software in den Mittelpunkt ihres diesjährigen

DMS-Auftrittes am Stand A 003/C 004. Highlight ist

die Funktion „AdHoc-Workflow“, die Anwendern einen

einfachen Einstieg in das Thema Workflow ermöglicht.

Wesentliche Erweiterungen von SAPERION 5.6 finden sich

außerdem in den Bereichen SharePoint Portal Integration,

Mandantenfähigkeit, Java, Offlinezugriff, MS Office Integration,

SAP iViews und Volltextsuche.

ZyLAB, Entwickler von Lösungen für Datenzugriff, zeigt

am Stand E 71, wie Workflow-, Vertrags- und Übersetzungs-

Management mit seiner Informationsplattform ZyIMAGE

funktioniert. Darüber hinaus präsentiert ZyLAB seine Textmining-Funktionen,

die linguistische Analysen von elektronischen

Dokumenten erlauben. Zentraler Bestandteil des

ZyIMAGE-Produktpaketes ist ein XML-Datenspeicher, die

so genannte Information Access Plattform, in der sämtliche

unstrukturierten Daten abgelegt werden.

Sein komplettes Portfolio an Lösungen zeigt Adobe Systems.

Dazu gehören neben den Adobe LiveCycle-Server-Lösungen

auch Adobe Acrobat, Acrobat 3D, die Collaboration-

Lösung Adobe Breeze sowie die neue Flex-2-Produktlinie

zur Erstellung von Rich-Internet-Applikationen – Lösungen

mit denen Dokumente elektronisch zu erstellen, zu verarbeiten,

zu verwalten und zu archivieren sind.

Die Bochumer windream GmbH stellt erstmals alle Funktionen

der Version windream 4.0 vor. Dazu gehört ein integriertes

Information-Lifecycle-Management, ein erweitertes

Rechtekonzept, die Einrichtung separater Anwender- und

Administratorenrechte auf Dokumenttypen, die Erstellung

und Verwaltung von Benutzer-Abonnements für windream-


Objekte sowie die Unterstützung verteilter Serverumgebungen.

Die Software bindet unterschiedlichste Archiv-Provider

oder -systeme hierarchisch an die windream-Speicherverwaltung

an.

Global Information Distribution GmbH (GID) stellt auf

seinen Messeständen neben der neuen Version 5.2 der Enterprise

Content Management Suite OnBase des Herstellers

Hyland auch die CD/DVD-Produktionseinheiten der Rimage-Producer-III-Serie

sowie die E-Mail-Management,

Archivierungs- und Security-Lösung Enterprise Vault von

Symantec vor.

ECM wird zum Standard

Die Beispiele zeigen, wohin die Reise bei den dokumentengestützten

Geschäftsprozessen geht. Nicht mehr die

Digitalisierung und elektronische Archivierung stehen im

Mittelpunkt, sondern die Verknüpfung von Informationen

und deren zielgerichtete Verfügbarkeit: über verschiedene

Unternehmensstandorte und Unternehmensanwendungen

hinweg. DMS- und ECM-Technologien werden immer

Enterprise Content Management

Dokumenten Management

Digital Asset Management

Collaboration

Web Content Management

E-Mail Management

Records Management

STELLENT GmbH · Balanstraße 55 · 81541 München · info@stellent.de · www.stellent.de

mehr zum Standard – mehr noch, sie werden zum Schlüssel

für rationelle, miteinander verzahnte Prozesse und Kommunikationsstrukturen

und damit ein entscheidender

Wettbewerbsfaktor. Insbesondere der Mittelstand sollte den

Nutzen erkennen. Sei es die Platz sparende, digitale Archivierung,

die effi zientere Verwaltung von „lebenden“ Dokumenten

oder die schnellere Bearbeitung des Posteingangs.

Wer sich über verfügbare Lösungen und Neuheiten informieren

will, sollte sich herstellerneutral beim VOI e.V. am

Stand E 071 und generell auf der DMS EXPO informieren.

Die Reise nach Köln ist eine Investition, die sich sicherlich

rentieren wird.

Nicole Körber

Die studierte Wirtschaftsinformatikerin B.A.,

Jahrgang 1968, ist geschäftsführende

Gesellschafterin der good news! GmbH.

35.000 gleichzeitige Benutzer

1.000.000.000 verwaltete Dokumente

1.000.000.000 Page-Views/Monat

MEHR ALS 4.000 KUNDEN IN 44 LÄNDERN

KÖNNEN NICHT IRREN!

Besuchen Sie uns auf der Messe:

Halle 8, Stand J 088

049


050 Schwerpunkt

Mit Maschinen reden zu können, davon träumt so mancher,

der mit Star Trek groß geworden ist. Doch Geräte wie

Mobiltelefone, Videorekorder und PCs scheinen mittlerweile

ein Eigenleben zu führen, das sich dem menschlichen

Einfluss entzieht. Wäre es da nicht schön, den Geräten einfach

sagen zu können, was sie tun sollen?

Als Opera Software im April 2005 die neu überarbeitete

Version 8 ihres Webbrowsers veröffentlichte, stand in den

folgenden Wochen nur eine Funktion dieser Software im

Vordergrund: die eingebaute Sprachsteuerung, mit der

Benutzer per gesprochener Kommandos im Internet surfen

können. Obwohl der Hersteller ausdrücklich darauf hinwies,

dass bei der Entwicklung das Thema Internet-Sicherheit

im Blickpunkt stand, sorgte die Opera-Software mit

integrierter Spracherkennung für derartiges Interesse, dass

die Download-Sites des kostenlos erhältlichen Browsers

wegen Überlastung geschlossen werden mussten. Ein genialer

Marketing-Coup gegen die Übermacht des Microsoft

Internet Explorers. Aber zeigt die enorme Nachfrage nicht

den anhaltenden Wunsch der Nutzer nach vereinfachter

Bedienung von Software und Geräten, die durch Steigerung

ihrer technischen Möglichkeiten in der Handhabung immer

undurchsichtigere Komplexitätsstufen erreicht haben? Der

Sprachsteuerung

Die Maschine,

die aufs Wort hört

Ein Traum: von der Maschine verstanden zu werden. Der Dialog mit einer

Sprachschnittstelle funktioniert allerdings nur eingeschränkt. Dennoch sind

bereits viele Hürden genommen worden. Ein Blick auf den Stand der Dinge

in der Sprachsteuerung.

Joachim Walter

Wunsch nach einfachen Schnittstellen ist nachvollziehbar

wie die Folgerung, diese Schnittstellen über das natürlichste

Kommunikationsmittel des Menschen, die Sprache, abzubilden.

Mittlerweile hat sich der durch Opera entfachte Wirbel gelegt.

Und das Thema Sprachsteuerung ist so präsent wie nie

zuvor. Angetrieben durch seit Jahrzehnten in den Bereich

Sprachverarbeitung investierende Unternehmen wie IBM,

die unter anderem die Technik für den Opera-Browser realisierten,

oder Branchenneulinge wie Microsoft, die für das

neue Betriebssystem Vista die Möglichkeit einer vollständigen

Sprachsteuerung der Bedienoberfläche angekündigt

haben, formen sich konkrete Einsatzgebiete. Neben der

Steuerung von PCs per Sprache stehen besonders mobile

Endgeräte wie Handys und PDAs oder Haushaltsgeräte wie

Waschmaschinen im Fokus. Im Auto übernehmen derartige

Systeme zunehmend das Steuer. Automotive steht als überproportional

wachsendes Einsatzgebiet fest. So betreiben

die Automobilhersteller DaimlerChrysler, Volkswagen und

BMW eigene Forschungseinrichtungen beziehungsweise

Tochterunternehmen, die sich ausschließlich mit der Realisierung

sprachgesteuerter Komponenten im Fahrzeug

beschäftigen. Typische Funktionen sind die Steuerung von


Anspruch

„Computer, welche Ausweichmanöver können wir machen?“

„Äh, Leute, ich fürchte, gar keine“, sagte der Computer.

„...oder etwas anderes“, sagte Zaphod,

„...ähh...“, sagte er.

„Ich glaube, in meinem Steuerungssystem klemmt was“, verkündete

fröhlich der Computer, „Einschlag in fünfundvierzig Sekunden.

Sagt doch bitte Eddie zu mir, wenn’s Euch beruhigt.“

Quelle: Douglas Adams „Per Anhalter durch die Galaxis“, 1978

Telefon, Radio und Navigationssystem per Sprachkommandos.

Die genannten Hersteller sprechen seit circa zwei Jahren

von Marktreife, jedoch zeigen aktuelle Umfragen, dass

die Akzeptanz weit unter den Erwartungen liegt. Grund

sind die oft starren Dialoge, die der Mensch mit der Maschine

führen muss, um die gewünschte Aktion ausführen

zu können, und die hohe Erwartungshaltung des Benutzers,

der hinter der Funktion Sprachsteuerung die Lösung all seiner

Bedienprobleme vermutet.

Anspruch und Wirklichkeit

Die Diskrepanz zwischen Anspruch und Wirklichkeit führt

beim Benutzer oft zu einer Frustration, die die anfängliche

Begeisterung für einfache Bedienprozesse zunichte macht

und nicht selten zu einer grundlegenden Verweigerungshaltung

führt. Dabei können auf einfachen Sprachkommandos

basierende Systeme großen Nutzen bieten. Stichwort Barrierefreiheit:

Sprachgesteuerte Wählmöglichkeiten am Telefon

oder der Bedienung von Geräten im Haushalt steigern die

Lebensqualität von behinderten Personen. Natürlich gestaltete

Dialogabläufe geraten in den Hintergrund, werden aber

weiterhin angestrebt.

In Zusammenhang mit der im Vergleich zur Mensch-

Mensch-Kommunikation oftmals rudimentär erscheinenden

Mensch-Maschine-Dialoge wird der technische

Fortschritt auf diesem Gebiet gelegentlich in Frage gestellt.

Betrachten Entwickler zudem die seit etwa zehn Jahren steigenden

Ausgaben renommierter Forschungsinstitutionen

und stellen diese den auf dem Markt erhältlichen Produkten

gegenüber, so stellt sich unweigerlich die Grundfrage, ob das

Problem der maschinellen Sprachverarbeitung überhaupt

lösbar ist. Die Antwort: ein klares „Jein“. Entscheidend

Wirklichkeit

Benutzer: „Telefon“

System: „Telefon“

Benutzer: „Nummer wählen“

System: „Nummer wählen, die Nummer bitte“

Benutzer: „2134587“

System: „2134587...und weiter?“

Benutzer: „Wählen“

System: „Die Nummer 2134587 wird gewählt“

Quelle: Carmeq GmbH, Tochterunternehmen

von Volkswagen, in Automotive 7-8.2005

051

für den Erfolg ist das Einsatzgebiet und die Komplexität

der Verarbeitungsaufgabe. Das Ausführen automatisierter

Prozesse durch Eingabe von Einzelwörtern betrachten viele

als gelöst; anspruchsvolle Verarbeitungsprozesse von natürlichen,

frei gesprochenen Äußerungen bis hin zur maschinellen

Übersetzung multilingualer Äußerungen jedoch sind

nur teilweise gelöst.

Zwar sind die Teilprozesse des menschlichen Sprachverarbeitungsprozesses

in der psychologischen Grundlagenforschung

verstanden und auf Basis dieser in den

akademischen Fachbereichen künstliche Intelligenz und

Computerlinguistik auf Maschinen abgebildet worden: Es

fehlt aber das Gesamtkonzept, welches die Wechselwirkungen

der Verarbeitungsstufen untereinander beschreibt. Dass

die Rechenleistung eine Komponente zur Steigerung des

Verarbeitungsniveaus bietet, ist offensichtlich. Es ist aber

nicht richtig, dass dies ein leistungslimitierender Faktor ist.

Denn bereits im Jahr 1922 kam das erste Spracherkennungssystem

auf den Markt, eingebaut in einem Spielzeughund

mit Namen „Rex“, der bei Nennung seines Namens bellte.

In den folgenden Jahrzehnten beschäftigten sich vor allem

Forscher in den Vereinigten Staaten mit dem Thema

Spracherkennung. Den Forschern der Bell Labs gelang es

1950, den ersten Computer vorzustellen, der vom Mensch

gesprochene Zahlen verstand. Neben den Bell Labs forschten

in den 60er und 70er Jahren vor allem das US-Verteidigungsministerium

(heute: DARPA) und IBM in diesem

Bereich. Letzteren gelang 1984 der Durchbruch mit einem

Großrechnersystem, welches bereits 5.000 englische Wörter

erkannte. IBM war es, die 1986 das erste Diktiersystem für

einen Standard-PC auf den Markt brachten und 1992 mit

dem „IBM Speech Server Service“ (ISSS) und einer Erkennungsleistung

von 30.000 Wörtern Maßstäbe setzten.


052 Schwerpunkt

Sprachverarbeitung ist mehr als nur Erkennen

Allerdings ist die reine Erkennung nur ein kleiner Teilbereich

der Sprachverarbeitung, auch wenn sie in der Öffentlichkeit

oft mit dieser gleichgesetzt wird. Unter Sprachverarbeitung

im Sinne der Forschung verstehen Entwickler die

vollständige Verarbeitungskette von der phonetischen Umsetzung

des gesprochenen Wortes über die syntaktische und

morphologische Analyse bis zur Darstellung der Semantik,

der Wortbedeutung. Genau auf diese, im Vergleich zur rein

phonetischen Erkennung anspruchsvollere Aufgabe, konzentrierten

sich seit Mitte der 60er Jahre nahezu alle Forschungsinstitute

der formalen und angewandten Linguistik.

Im Blickpunkt standen das formale Darstellen von Satzbedeutungen

mithilfe eigens dafür geschaffener Logiken

(Zeitlogik, Modallogik) und die syntaktische Analyse wie

die Generierung von natürlichsprachigen Sätzen. Die dazu

entworfenen theoretischen Modelle, zum Beispiel HPSG

(Head-driven Phrase Structure Grammar), sind noch heute

Gegenstand der Forschung und konnten in den letzten Jahren

auf Computersystemen implementiert werden. Den bis

dato vorläufigen Höhepunkt – und zudem die Fusion der

Forschungsergebnisse der theoretischen Linguistik mit den

Ergebnissen der Spracherkennungsforschung - erreichten

Erfinder im Jahre 2001 mit dem ehrgeizigen Forschungsprojekt

VERBMOBIL am deutschen Forschungszentrum

für Künstliche Intelligenz (DFKI) in Saarbrücken. Nach

zehn Jahren intensiver Arbeit gelang es, ein System vorzustellen,

das Umgangssprache erkennen, verstehen und sogar

übersetzen konnte. Aufgrund der Implementierung von

Vokabular

Diktiersysteme

Worterkennung

NLU-Systeme

IVR-Systeme

Komplexität sprachverarbeitender Systeme

Ergebnissen der Diskursforschung zu den bereits etablierten

Techniken der phonetischen, syntaktischen und semantischen

Verarbeitung gelang es erstmals, die vollständige

Verarbeitungskette – Spracherkennung, Sprachverstehen,

Dialogsteuerung, Antwortgenerierung, Sprachsynthese

– zusammenhängend auf einem Computersystem abzubilden.

Die Erfinder kamen damit der Fähigkeit des aus Douglas

Adams 1978 verfassten Romans „Per Anhalter durch die

Galaxis“ bekannten „Babelfisch“, welches beliebigsprachige

Äußerungen simultan übersetzen kann, erschreckend nahe.

Kein heute auf dem Markt verfügbares System ist in

der Lage, die vollständige Verarbeitungssequenz durchzuführen.

Entwickler beschränken sich bei der Konzeption

von Spracherkennungs- und Sprachsteuerungssystemen

aus Gründen der Kosten, Komplexität und Wartbarkeit

auf die jeweilige Kernaufgabe. Die Kosten und Aufwände

hinsichtlich Wartung der sensiblen Softwaremodule wären

unverhältnismäßig hoch. Es gilt bei allen Systemen mit

Sprachschnittstelle, die Kosten-Nutzen-Balance einzuhalten

und somit die Leistungsfähigkeit entsprechend anzupassen.

Die verschiedenen Systemtypen

Babelfisch

Komplexität

Die Leistung von Spracherkennungssystemen betrachten

Experten in zwei Kategorien: benutzerabhängige und benutzerunabhängige

Systeme. Benutzerabhängige Systeme werden

mit Sprachdaten des Benutzers trainiert und verfügen

heute inzwischen über ein Vokabular von mehr als 200.000

Wörtern. Das entspricht etwa dem Grundwortschatz eines


Menschen; Fachbegriffe und Fremdwörter verstehen sich als

„add ons“. Sie werden zusätzlich angegeben und trainiert.

Zu den bekanntesten so genannter kontinuierlicher Spracherkenner

gehören IBM ViaVoice und Dragon Naturally-

Speaking. Sie sind seit Mitte der 90er Jahre auf dem Markt

und vor allem bei Anwendern mit hohem Diktieraufkommen,

beliebt. Der Kommunikationsmodus ähnelt dem eines

Diktats: Lärmreiche Umgebung oder andere Störgeräusche

existieren nicht.

Benutzerunabhängige Systeme verfügen über einen deutlich

kleineren Wortschatz und benötigen kein Training. Das

Vokabular liegt etwa bei 5.000 Wörtern, störende Umgebungsgeräusche

werden durch spezielle Filter eliminiert.

Solche robusten Systeme werden vor allem in ‚Interactive

Voice Response (IVR)‘-Systemen eingesetzt. Jeder kennt

sie, die automatisierten Sprachdienste diverser Call-Center.

Der Anrufer navigiert sich durch ein Menü anhand von

Stichwörtern in einem Voice User Interface (VUI). Er will

Informationen abfragen, eine Buchung durchführen oder

sich einfach die Wartezeit zu vertreiben. Zahlreiche Unternehmen

setzen solche Systeme zur Vorqualifi zierung von

Anrufern ein. In Kombination mit ‚Computer Telephony

Integration (CTI)‘-Lösungen wird die Arbeit in Call-Centern

optimiert. Bekanntester Hersteller in dem Bereich benutzerunabhängiger

Spracherkennungssysteme ist Nuance

mit einem weltweiten Marktanteil von etwa 80 Prozent.

Eine ernst zu nehmende Alternative zu traditionellen

IVR-Systemen sind so genannte ‚Natural Language Understanding

(NLU)‘-Systeme. Diese sind scheinbar in der Lage,

vollständige Sätze zu erkennen und dynamische Antworten

zu generieren – sie setzen demnach nicht auf einem starren

VUI auf. Möglich ist diese Technik durch die Einbindung

von intelligenten Dialogkomponenten, die zwar nicht auf

linguistischer Wortbedeutungsebene arbeiten, doch anhand

von Wortkombinationen zu dynamischen und natürlich

erscheinenden Dialogen mit dem Benutzer beitragen. NLU-

Systeme sind auf dem nordamerikanischen und asiatischen

Markt weit verbreitet. Ihr Einzug auf den europäischen

Markt wird im Laufe der nächsten beiden Jahre erwartet.

Die wichtigsten Branchentrends

Die Entwicklung der letzten Jahre zeigt interessante Tendenzen.

Erstens geben sich Industrie und Forschung erstaunlich

fl exibel und arbeiten an gemeinsamen Projekten

und Prototypen. Softwareriesen wie Microsoft beteiligen

sich an Forschungszentren für Sprachtechnologie, beispielsweise

dem DFKI. Ebenso öffnen sich die Forschungsinstitutionen

für Marktanforderungen. Jungakademiker gehen in

die Industrie und beleben diese mit sprachtechnologischem

Know-how. Die Zeiten, in denen sprachverstehende Systeme

in Form von Diplom- und Doktorarbeiten in gut gekühlten

Bibliotheken lagerten, scheinen vorbei zu sein: Die Technik

wird mittlerweile zügig implementiert und landet als

anwendungstaugliche Software in noch besser gekühlten

Serverräumen.

Die verschiedenen Systemtypen

Neben dem Technologietransfer haben sich Technologiestandards

etabliert: Begriffe wie Voice eXtensible Markup

Language (VXML) oder Media Resource Control Protocol

(MRCP) sind omnipräsent. Die damit beschriebenen Technologien

werden im Rahmen des W3C weiterentwickelt. Die

Standards ermöglichen eine Verknüpfung von Produkten

verschiedener Hersteller zu einem Ganzen und somit eine

Konzentration der Entwicklungsressourcen auf die eigentliche

Aufgabe: die benutzerfreundliche Sprachschnittstelle.

Die Verknüpfung der zuvor separat betrachteten Einsatzgebiete

ist ebenso zu beobachten und fördert die Weiterentwicklung.

Durch Fusion von Telekommunikation und

Internet zu einem Gesamtkonstrukt werden Schlagwörter

wie Multimodalität oder adaptive Schnittstellen zu erklärten

Zielen der Entwicklungen der nächsten Jahre.

Das zunehmende Verständnis, auch im Bereich der Sprachschnittstellen

fundierte Usability-Tests durchzuführen

und Spracherkenner im Einsatz stetig zu optimieren, lässt

den Blick in die Zukunft positiv ausfallen. Zwar wird jeder

noch einige Zeit auf voll dialogfähige Sprachschnittstellen

warten müssen. Es zeigt sich aber ein deutlicher Trend in

diese Richtung, bedingt durch tiefer gehende Analysen der

gesprochenen Eingaben. Dass allein mit Spracherkennung

auf Phonemebene die komfortable Bedienung eines Gerätes

nicht ermöglicht werden kann, ist anhand fehlender Akzeptanz

durch Benutzer nachzuweisen. Es gilt nun, die Erfahrungen

der zurückliegenden Jahre in die Konzeption neuer

Systeme einzuarbeiten, und dem Ziel zur Maschine, die aufs

Wort hört, steht (fast) nichts im Wege.

Joachim Walter

Der diplomierte Computer-Linguist, Jahrgang

1973, studierte an der Saarland Universität in

Saarbrücken. Heute ist Walter Project Manager

bei der Telenet GmbH in München.

053


054 Firmenportrait

1.000 Tage Leiwand Software

Um es kurz zu machen: Die Firma hat Potenzial, das Fest war gelungen.

Der Kollege war krank, leider. Aber ich habe vier Stunden Audiofiles mitgebracht

und transkribiert. Jetzt sitze ich vor 36.000 Zeichen. Schreibblockade.

Würde wohl jedem so gehen. Wie soll daraus ein Portrait werden?

Wer macht das jetzt bloß? Der Kollege war zwar nicht da, hat aber wenigstens

den Kopf frei – was von Vorteil ist. Am besten paradoxe Intervention,

sagt der Kollege und beginnt. Markieren, kopieren, löschen. Markieren,

kopieren, löschen. Textbaustein für Textbaustein. Und weil es so schön ist,

gibt er gleich seinen Senf dazu. Ich übergebe – an den Kollegen, den, der

nicht da war.

„1.000 Tage mediamid“. Gelesen, erst in einer E-Mail, dann auf der Einladungskarte.

Für ein Start-up-Unternehmen ist das ausreichend Grund zu

feiern. Und weil die Entwickler zahllose Tag- und Nachschichten hingelegt

hatten, fielen 1.000 Tage mediamid und der offizielle Launch von M@RS

6.0 auf einen Tag. Wir waren eingeladen, live zu sehen, wie M@RS 6 Bilder,

Präsentationen, Textdokumente und Videos verwaltet. Ich hab mir aber

den Magen verrenkt. Klasse. Richtig schön wär’s gewesen …


Wien ... 1.000 Tage ... Start-ups ... gibt es da jetzt wieder eine New Economy

(NE)? Die erste NE ist um das Web getanzt. Alles war irgendwie ein

Portal, ein Shop oder eine „Wissensmaschine“. Die zweite NE ist jetzt sozial,

Social Software, Web 2.0. Wien ... da taucht erst einmal Helmut Qualtinger

auf und dieser wunderbare Dialekt. Hören Sie auch dieses verschluckte, das

„Meidlinger L“ an den Wortanfängen? Wunderbare lebensnahe Lieder von

Hans Moser wie „Einmal in der Woche fall i um“. Und die K&D Sessions

von Kruder & Dorfmeister, Meilenstein des Downbeat. Die Türken waren

mal da, vor Wien, und haben beste Bohnen und das Sofa hinterlassen, das

später bei Freud stand. Der hat – Achtung, „L“ – die Libido erfunden. Leiwand,

tät der Wiener sagen. Jetzt aber los. Wir haben ja nicht ewig Zeit. Es

spricht Peter M. Hofer, CEO mediamid. Die O-Töne sind kursiv.

Wir waren alle waren früher bei dem Unternehmen, das die Vorgängerversion

gestellt hat. Ich habe dort das Projektmanagement gemacht und

die Abteilung Professional Services geleitet. Und ich habe gleich am Anfang

gesehen, mit der Geschäftsführung werde ich ein wenig Reibereien haben.

Na prima, gleich im ersten Job schon Stress. Ich habe gesehen, dass da ein

paar Dinge nicht so funktionieren können. Hab das auch gesagt. Das kenne

ich auch: Aufstehen und sagen, was schief läuft,

interessiert niemanden. Das gibt nur Ärger. In „Nach zwei Jahren wollte ich schon sagen, ´Jetzt

der Folge haben die mir dann ziemlich viele Auf- reicht´s!´. Aber dann kam dieses Projekt mit der

gaben zugeteilt und gesagt: Mach mal! Nach zwei debis – mit DaimlerChrysler.“

Jahren wollte ich schon sagen ´Jetzt reicht´s!´“.

Achtung, gleich schmeißt er alles hin. Aber dann

kam dieses Projekt mit der debis – mit DaimlerChrysler. Wo ich gesagt habe,

das ist spannend, da mache ich mit. Und vom Produkt war ich sowieso überzeugt.

2001 nach Abschluss des Projekts, ist Peter M. Hofer dann doch gegangen,

lese ich. Und hat sich selbstständig gemacht. Mit medizinischer Informatik.

Im Krankenhaus. Hofer: Es ging wieder um automatische Auswertung, genau

das, was ich in meiner Diplomarbeit gemacht habe. Ich war mit meinen

alten Kollegen weiterhin in Kontakt. Die haben bis März 2003 durchgehalten.“

Klar. Netzwerk. Kennt man aus der New Economy: Networking.

Die alte Firma saß in Wien und hat sich schwerpunktmäßig mit Media

Asset Management beschäftigt. Da haben wir alle viele Erfahrungen gesammelt:

Datenbankentwicklung, Customizing, Support. Und das Kernteam

mit den Leuten, die wirklich gut waren, hat sich

„Das Kernteam mit den Leuten, die wirklich gut gleich gefunden. Leute, die das Potenzial ihrer

waren, hat sich gleich gefunden.“

Arbeit richtig einschätzen und an einem Strang

ziehen. Und wie das Ganze dann gegen die

Mauer gefahren wurde, hat es verschiedene Interessenten

gegeben. Alle haben mich kontaktiert, weil sie mit den Kunden

gesprochen haben. Und bei denen hatte ich einen sehr guten Ruf. Da hat

sich gute Arbeit ja gelohnt, ist leider nicht immer so. Ich spul mal ein Stück

vor. Wir haben einfach mediamid gegründet, unabhängig von dem Ganzen.

Und die neue Firma hatte sich unabhängig von der Rechtekonstellation gefunden,

ohne zu wissen, wer künftig die Rechte besitzen wird. Der heutige

CEO Peter M. Hofer und sein Team hatten sich in aller Stille für ihren Weg

055


056 Firmenportrait

entschieden, das Know-how zu verwerten und was Eigenes auf die Beine

zu stellen. Schlussendlich hat sich Chrysler entschlossen mitzubieten. Nee,

oder? So ist DaimlerChrysler zu der Version fünf von M@RS gekommen.

Die Stuttgarter besitzen alle Rechte, bis heute. Und über die nahe Zukunft

schweigen wir auf Wunsch von Peter M. Hofer.

Das Produkt wurde re-engineered und gelauncht. Die Kunden wussten

Bescheid und haben gewartet. Nach zwei Jahren war M@RS 6 da. Ich rekapituliere:

Die Rechte für M@RS 5 und M@RS 6 liegen bei DaimlerChrysler,

mediamid tritt als Dienstleister für M@RS auf und vertreibt exklusiv die

Software. Hofer: Richtig. Und wir haben auch den exklusiven Vertrieb

für M@RS 6. Das ist der Deal. Respekt. Übrigens: Daimler ist nicht an

mediamid beteiligt oder so. Wir profitieren natürlich

vom Namen DaimlerChrysler. Wir profitieren von

dem Vertrauen, das sie uns gegeben haben. Davon,

das sie uns mit der Entwicklung der Basismodule beauftragt

haben. (Anm. d. Red.: Hört sich an wie ein

Märchen aus tausend und einer Nacht.) Weiter im

Text! Ich springe ans Ende. Okay, Leads und Kunden

für Upgrades gibt es genug ... es gab auch schon eine

500- und eine 100-Tage-Feier, ... hier, sehr gut: Also,

ich halte ja nicht viel davon, in einer Startphase, wo

so viele Fragezeichen im Raum stehen, einen detaillierten

Businessplan zu machen. Wir haben gewusst,

es gibt sehr viele Dinge, die passieren können oder

die nicht passieren können. Und wir haben’s so grob

gemacht: Worst Case: Das und das kommt sicher, mit

dem und dem überleben wir. Passt. Best Case:

Der und der Auftrag kommt, wir brauchen hier

und hier die Ressourcen. Und wir haben uns für

beides gewappnet. Ur-Leiwand! Start-up ohne

Businessplan. So geht es auch. Aber jetzt will der

vwa noch mal ran. Der, der da war.

Schade, dass der Kollege ausgerechnet an diesem Wochenende krank sein

musste. Denn der Österreicher und insbesondere der Wiener an sich, der in

diesem Fall ein Südtiroler Wahlwiener war, ist als guter Gastgeber bekannt.

So wurde für mich kurzerhand eine charmante Begleitung für eine Tour

de Wien der besonderen Art organisiert. Na ja, war vielleicht doch nicht so

schlecht, dass der Kollege krank war.

„Wir haben’s so grob gemacht: Worst Case, Best

Case: Das und das kommt sicher, mit dem und

dem überleben wir.“

www.mediamid.de


056 Firmenportrait

entschieden, das Know-how zu verwerten und was Eigenes auf die Beine

zu stellen. Schlussendlich hat sich Chrysler entschlossen mitzubieten. Nee,

oder? So ist DaimlerChrysler zu der Version fünf von M@RS gekommen.

Die Stuttgarter besitzen alle Rechte, bis heute. Und über die nahe Zukunft

schweigen wir auf Wunsch von Peter M. Hofer.

Das Produkt wurde re-engineered und gelauncht. Die Kunden wussten

Bescheid und haben gewartet. Nach zwei Jahren war M@RS 6 da. Ich rekapituliere:

Die Rechte für M@RS 5 und M@RS 6 liegen bei DaimlerChrysler,

mediamid tritt als Dienstleister für M@RS auf und vertreibt exklusiv die

Software. Hofer: Richtig. Und wir haben auch den exklusiven Vertrieb

für M@RS 6. Das ist der Deal. Respekt. Übrigens: Daimler ist nicht an

mediamid beteiligt oder so. Wir profitieren natürlich

vom Namen DaimlerChrysler. Wir profitieren von

dem Vertrauen, das sie uns gegeben haben. Davon,

das sie uns mit der Entwicklung der Basismodule beauftragt

haben. (Anm. d. Red.: Hört sich an wie ein

Märchen aus tausend und einer Nacht.) Weiter im

Text! Ich springe ans Ende. Okay, Leads und Kunden

für Upgrades gibt es genug ... es gab auch schon eine

500- und eine 100-Tage-Feier, ... hier, sehr gut: Also,

ich halte ja nicht viel davon, in einer Startphase, wo

so viele Fragezeichen im Raum stehen, einen detaillierten

Businessplan zu machen. Wir haben gewusst,

es gibt sehr viele Dinge, die passieren können oder

die nicht passieren können. Und wir haben’s so grob

gemacht: Worst Case: Das und das kommt sicher, mit

dem und dem überleben wir. Passt. Best Case:

Der und der Auftrag kommt, wir brauchen hier

und hier die Ressourcen. Und wir haben uns für

beides gewappnet. Ur-Leiwand! Start-up ohne

Businessplan. So geht es auch. Aber jetzt will der

vwa noch mal ran. Der, der da war.

Schade, dass der Kollege ausgerechnet an diesem Wochenende krank sein

musste. Denn der Österreicher und insbesondere der Wiener an sich, der in

diesem Fall ein Südtiroler Wahlwiener war, ist als guter Gastgeber bekannt.

So wurde für mich kurzerhand eine charmante Begleitung für eine Tour

de Wien der besonderen Art organisiert. Na ja, war vielleicht doch nicht so

schlecht, dass der Kollege krank war.

„Wir haben’s so grob gemacht: Worst Case, Best

Case: Das und das kommt sicher, mit dem und

dem überleben wir.“

www.mediamid.de


058 Alltag

“Wie geht das mit Möhren?”, fragte die Kanzlerin, als sie

auf dem Messestand der Metro auf der CeBIT in Hannover

mit Einkaufswagen auf die Leseschleuse zumarschierte.

Dort wurde im Bruchteil einer Sekunde der Inhalt des Warenkorbs

gecheckt, der Preis für den Einkauf ermittelt und

die Bestandsführung im Lager im Hintergrund aktualisiert.

Und wenn ein vorgegebener Schwellenwert unterschritten

worden wäre, hätte es gleich eine Nachbestellung beim

Hersteller gegeben. Angela Merkel hatte sich auf der CeBIT

demonstrativ über die Möglichkeiten und Fortschritte beim

Einsatz von RFID-Systemen informiert und radiofrequente

Identifikationssysteme (Radio Frequency Identification Systems)

als richtungsweisendeZukunftstechnologie gepriesen.

Breites Nutzenpotenzial

Datenflut im

Bei Stückpreisen von gut 10 Cent pro RFID-Tag ist der

Einsatz im Moment auf Paletten und Gebinde beschränkt.

Mithilfe der Tags kann der Transport ganzer Lieferungen

verfolgt werden. Der Nutzen zeigt sich dort, wo Rationalisierungseffekte

entstehen. Wo Maschinen mit Maschinen,

Waren mit Handhabungsautomaten oder Materialien mit

Materialien kommunizieren. Werden die RFID-Tags an

einer Empfangsstation vorbeigeführt, teilt die Palette nicht

nur mit, welche Waren in welcher Stückzahl aufgepackt sind.

RFID und Datenspeicherung

Internet der Dinge

Nicht nur die Kanzlerin interessiert sich für RFID. Auch Industrie und Datenschützer

befassen sich mit den Möglichkeiten der RFID-Chips. Die zentralen Fragen zielen auf

das anfallende Datenvolumen und die Verwendung der Daten.

Heinz-Paul Bonn

Sie informiert gleichzeitig, wann und wo die Ware erwartet

wird: eine Möglichkeit Fehllieferungen zu minimieren.

Mit zusätzlicher Speicherkapazität ausgestattet geben

RFID-Chips den Status über den Zustand einer Ware ab

– etwa, ob Tiefkühlware versehentlich aufgetaut oder frische

Ware zu lange unterwegs gewesen ist. RFID-Tags sind

außerdem in der Lage, Informationen mit sich zu führen.

Informationen, die Maschinen direkt beeinflussen – etwa

ein Programm, durch das ein Rohling einem Roboter mitteilt,

welche Fräsarbeiten als Nächstes auszuführen sind.

RFID-Tags können aber auch dazu verwendet werden,

Informationen über diejenigen zu sammeln, die Einkäufe

tätigen. Es entstünde ein Profil von Einkaufsgewohnheiten:

beispielsweise von Frau Merkel. Wer was wann und wo

kauft, wäre nicht mehr Privatsache. Das Datenmaterial ist

für Marktforscher, Werbetreibende und Disponenten eine

wahre Goldgrube.

Informationelle Selbstbestimmung

Das gängige Recht verbietet die Übermittlung personenbezogener

Daten außerhalb des von den Betroffenen erlaubten

Nutzungsbereichs. Als Ordnungswidrigkeit eingestuft, gilt

dies als Straftatbestand und wird mit Bußgeldern bis zu

250.000 Euro oder Freiheitsstrafe geahndet.


Doch was möglich ist, wird auch stattfinden, argumentiert

der Verbraucherschutz. Er fordert eine Selbstverpflichtung

der Wirtschaft Peter Schaar, Bundesbeauftragter für Datenschutz,

steht grundsätzlich zur Selbstverpflichtung der

Wirtschaft, aber: „Dies setzt aber voraus, dass die Selbstverpflichtung

für alle Marktteilnehmer gilt und verbindlich ist.

Bloße Absichtserklärungen sind nicht ausreichend. Wenn

die Hersteller und der Handel nicht zu einer Selbstverpflichtung

kommen, muss der Gesetzgeber die Rechte der

Verbraucher bei der Anwendung der RFID-Technologie

schützen.“

Schaar wünscht sich mehr Transparenz für die Verbraucher

und klare Spielregeln für die Wirtschaft. Eine schwache

Absichtserklärung würde weder Datenschützer noch Verbraucherverbände

zufrieden stellen. Das Grundrecht auf

informationelle Selbstbestimmung durch RFID-gestützte

Systeme ist dort gefährdet, wo die Person, deren personenbezogene

Daten mit Nutzungsdaten verknüpft werden,

gar nichts davon merkt und insofern keine ausdrückliche

Einwilligung gegeben haben konnte. Die ist nach dem Bundesdatenschutzgesetz

die Voraussetzung für die Erhebung

und Weiterleitung personenbezogener Daten und bedarf

der umfassenden Information über Art und Umfang.

Daten ohne Grenzen

Auch mit internationaler Perspektive zeichnet sich Klärungsbedarf

ab. Angesichts länderübergreifender Unternehmensstrukturen

ist es denkbar, dass Daten von Unternehmen

und Organisationen innerhalb einer Wertschöpfungskette

in Deutschland erhoben und in einem anderen Land gespeichert

und genutzt werden. Denkbar ist das dort, wo die

Niederlassung ihre Prozess- und Verkaufsinformationen

an die Zentrale in den USA weiterleitet. Personenbezogene

Daten würden mit RFID-Informationen zusammengefasst

und verließen den hier geltenden Rechtsrahmen. Es gibt also

Klärungsbedarf. Es ist zu erwarten, dass der Gesetzgeber angerufen

wird, um einen wirksamen Schutz des Verbrauchers

zu gewährleisten. Das dürfte angesichts der internationalen

Verflechtungen im Wertschöpfungsszenario ebenso die EU-

Kommission auf den Plan bringen, die eine entsprechende

Initiative für Parlament und Rat bereits vorbereitet. Schon

heute wird auf Verbandsebene – unter intensiver Beteiligung

des Bundesverbands für Informationswirtschaft,

Telekommunikation und neue Medien, BITKOM – über

das Aussehen einer solchen EU-Richtlinie diskutiert. In der

Diskussion steht nicht allein die Verknüpfung von Daten

zur Materialbewegung mit persönlichen Informationen,

sondern auch der Zeitrahmen, in dem ein RFID-Tag aktiv

sein darf. Mit dem Kauf, so der Konsens, muss der Chip

seine Arbeit einstellen, um nicht auch noch den weiteren

Weg seines Trägers zu erfassen. Einige Hersteller haben hier

bereits Lösungen angeboten. Neben einer Deaktivierungsschleuse,

bei der – ähnlich den Diebstahlsicherungen im

Kaufhaus – der Chip demontiert oder abgeschaltet wird,

werden auch RFID-Tags vorgeschlagen, die der Verbraucher

selbst deaktivieren oder demontieren kann.

Datenflut durch „Real World Awareness“

059

Softwaresysteme, die auf die bereitgestellten RFID-Daten

reagieren sollen und Schlussfolgerungen für den Planungsprozess

ziehen helfen, existieren in nächster Zukunft aller

Wahrscheinlichkeit nach nicht. Als im Jahr 2004 erste Integrationsbeispiele

aufgezeigt wurden, bei denen ERP-Systeme

(Enterprise Resource Planing) Daten aus den RFID-

Tags aufnehmen und in internen Tabellen speichern sollten,

gingen die großen Softwareboliden in die Knie. Die traditionellen,

monolithischen Unternehmenslösungen sind zu

schwerfällig, um der Datenflut Herr zu werden. Es hilft

nichts, wenn ganze Lastwagenladungen im Wareneingang

in Sekundenbruchteilen erfasst werden, das ERP-System

dann aber für einige Viertelstunden in Klausur geht, um die

Daten in der Bestandsführung zu buchen. Dort, wo diese

Buchungsläufe Gegenstand einer zwar bewährten, aber eben

doch veralteten Stapelverarbeitung (Batch) sind, werden die

Buchungen möglicherweise erst im nächsten Nachtlauf der


060 Alltag

Software durchgeführt. Der wichtige Informations- und

Zeitvorsprung, der durch das RFID-System im Materialfl

uss hätte erreicht werden sollen, wäre zerstört. Für viele

Anwender wird sich deshalb im Zuge einer Materialfl ussoptimierung

mithilfe von RFID auch die Notwendigkeit

ergeben, das Bestandsführungssystem zuerneuern.

Dabei ist der Bedarf für eine zentrale oder dezentrale, auf

jeden Fall aber zeitnahe Speicherung von Materialfl ussinformationen

– auch Real World Awareness genannt – durchaus

vorhanden. Im Bereich Life Science zeigen die Erfahrungen,

dass das Datenvolumen bei der gesetzlich verlangten Rückverfolgung

der Waren über den gesamten Herstellprozess

vom Rohstoff zum Endprodukt exponentiell ansteigt. Erste

Lösungen, in denen Daten mit einer eigenen RFID-Middleware

zwischenspeichern und für das ERP-System zusammenfassen,

werden bereits entwickelt.

Nach der EU-Verordnung 178/2002 beispielsweise sollen

Unternehmen produktionsaufsteigend und -absteigend

jeweils den Lieferanten und den Kunden für einen bestimmten

Artikel benennen können. Da dabei mit Rezepturen

gearbeitet wird, mehrere Ursprungsstoffe über

einen mehrstufi gen Produktionsprozess zu einem neuen

Produkt zusammenkommen, stehen die Beteiligten vor der

Aufgabe eines kontinuierlichen Chargenherkunfts- und

Verwendungsnachweises. Erste Realisierungen einer RFIDgestützten

Rückverfolgung sind auf der Produktionsstufe

zu sehen. Auf Palettenebene werden die Daten im Lager

des Herstellers, im Warenausgang des Herstellers, auf dem

Transportweg durch den Logistiker und schließlich beim

Wareneingang des Handels erhoben. Im typischen Fall sind

bei diesem Verlauf mindestens vier Sammelstellen von Daten

bei zwei beziehungsweise drei Unternehmen (Hersteller,

Handelsorganisation und Transportunternehmen) involviert.

Das anfallende Datenvolumen einer ganz normalen

Prozesskette erhöht sich dramatisch, sobald eine weitere

Fertigungsstufe hinzukommt und auch die Lieferanten der

Vorprodukte mit einbezogen werden. Für jeden einzelnen

Lieferanten gilt erneut: Lager des Lieferanten, Warenausgang

des Lieferanten, Transport und Wareneingang des

Herstellers. Bei angenommenen fünf Komponenten für

einen einzigen Artikel sind etwa 20 Datensammelstationen

bei bis zu zehn verschiedenen Unternehmen in den Informationsfl

uss eingebunden. Dabei sind allerdings bislang

nur die Quellen der Daten, nicht jedoch die Daten selbst

berücksichtigt und das auch nur in einer einfachen Wertschöpfungskette

aus fünf Lieferanten, einem Hersteller und

einem Handelskunden.

Jedem RFID-Tag seine eigene Homepage

Praktisch noch nicht endgültig ist das Szenario der Datenspeicherung.

Unter dem griffi gen Slogan „Jedem RFID-Tag

seine eigene Homepage“ hat das Fraunhofer Institut für

Autonome Intelligente Systeme (AIS) in Sankt Augustin

Studien und erste Praxisprojekte gestartet, in denen Methoden

zur Speicherung und Verwaltung der durch RFID

erhobenen Daten im Materialfl uss getestet werden. Dabei

wird der elektronische Produktcode (EPC), der Identität,

Ausgangs- und Bestimmungsort der Ware verschlüsselt, auf

einer eigenen Internetseite abgelegt. Wird der EPC im System

eingegeben, werden die entsprechenden Daten aus dem

Internet abgerufen. Denkbar ist auch ein gigantisches Data

Warehouse, in dem alle Systeme die ermittelten Daten ablagern.

Das kann bei einer weltweiten Lieferkette zu einer Explosion

der Telekommunikationskosten führen. Favorisiert

wird, dass auf lokalen Servern die Daten aggregiert werden

und nur Zusammenfassungen weitergeleitet werden. Ein

drittes Szenario sieht vor, dass Daten lokal gespeichert bleiben

und die Materialfl usssysteme vor Ort mit der nötigen

Intelligenz ausgestattet werden, um auf Informationen Aktionen

folgen zu lassen. Auch SAP hat mit einem Projekt am

MIT (Massachusetts Institute of Technology) eine RFID-fähige

Middleware für seine NetWeaver-Plattform entwickelt,

die Tag-Daten erfasst und mit den Geschäftsdaten der SAP-

Lösungen verknüpfen kann.

Die heutigen Materialfl usssysteme sind aber mit der dafür

benötigten Funktionalität noch kaum ausgestattet – und es

ist nicht zu erwarten, dass entsprechende RFID-Module in

den kommenden fünf Jahren zu der Standardausstattung

von Lagerverwaltungssoftware oder ERP-Systemen gehören

werden. Ähnlich ist dies bei der befürchteten Verknüpfung

mit personenbezogenen Daten. Für eine entsprechende Gesetzesinitiative

ist ausreichend Zeit. Sie gilt es zu nutzen, um

eine zielgerichtete und nicht behindernde Regelung für die

Wirtschaft zu formulieren. Der Einsatz von RFID steht erst

in den Anfängen und liegt so erst in Insellösungen vor. Eine

Durchgängigkeit des RFID-Datenfl usses ist allerdings noch

eine ferne Vision.

Heinz-Paul Bonn

Heinz-Paul Bonn, Jahrgang 1945, ist

Vorstandsvorsitzender der GUS Group in Köln

und Vizepräsident im Bundesverband für

Informationswirtschaft, Telekommunikation und

neue Medien (BITKOM e.V.).


Outsourcing von Dienstleistungen

Über den

Über Outsourcing – Nearshore oder Offshore – wird in

den Medien seit Jahren heftig geschrieben und unter Lesern

und Nutzern kräftig diskutiert. Doch in den überwiegenden

Fällen geht es hierbei um Outsourcing von ITK-Projekten

und –Dienstleistungen, z. B. in der Anwendungsentwicklung.

Dass auch andere Tätigkeiten von externen Partnern

erledigt werden können, wird oftmals außer Acht gelassen.

Große wie mittelständische Unternehmen betreiben

seit Jahren im Zusammenhang mit ITK-Anforderungen

Outsourcing-Projekte im Ausland. Länder wie Indien können

sich über diesen Zustrom freuen, wächst deren ITK-Industrie

jährlich doch im hohen zweistelligen Bereich. Selbst

die größte deutsche Softwareschmiede SAP vergrößert Jahr

für Jahr den eigenen Personalbestand in Bangalore beträchtlich.

Die Vergabe dieser Projekte in andere Länder, auf andere

Kontinente und in andere Kulturkreise birgt Risiken und

Chancen, die schon so häufig dargelegt wurden, dass es müßig

ist, sie hier nochmals auszubreiten. Doch bei allem Engagement

zur Diskussion über das Thema Outsourcing liefert

immer nur die High-tech-Branche den Gesprächsstoff.

Dass große und mittelständische Industrieunternehmen

schon sehr viel länger ihre Produktion- und Fertigungsbe-

Tellerrand

Nicht nur IT-Dienstleistungen lassen sich verlagern. Im Ausland gibt es auch

Partner, mit denen das Outsourcing anderer wichtiger Leistungen möglich ist.

In unserem Fall das Erfassen von Adressen – in Rumänien.

Ralph Peter Rauchfuss

061

reiche (zumindest zum Teil) in das entfernte Ausland verlagert

haben, scheint offenbar vergessen oder aber ist nicht

(mehr) relevant. Tatsache aber ist, dass bayerische Luxuslimousinen

zum Teil in den Vereinigten Staaten gefertigt

werden, dass exklusive Damen- und Herrenbekleidung im

Mittelmeerraum geschneidert wird und dass hochpreisiges

Reisegepäck aus dem südostasiatischen Raum kommt. Dies

ist jedoch kaum eine Erwähnung wert, allenfalls wenn es um

die Wettbewerbsfähigkeit des eigenen, hiesigen Landes geht.

Denn auch hier gilt: Die Unternehmen wollen Ihre Vorteile

(ohne wieder die Chancen und Risiken aufzuzählen) aus

den geringeren Lohnkosten, aus der hohen Bereitschaft der

Mitarbeiter zu zeitlichen Mehrleistungen und aus der (angeblich)

stets verfügbaren Arbeitskraft ziehen.

Nun fallen aber in Unternehmen nicht nur unternehmenskritische

Aufgaben wie die Informationstechnologie an, und

nicht jedes Unternehmen benötigt eine Fabrikationshalle

oder -stätte. In vielen, insbesondere kleineren und mittelständischen

Betrieben müssen zahlreiche Aufgaben erledigt

werden, die kein Expertenwissen oder aber Programmierungskenntnisse

voraussetzen: Mengentexterfassung, Pflege

von Datenbanken, Profilierung von Kundenadressen, tele-


062 Alltag

g

gg g g

g g g g















g

fonische Kundenbefragung oder -akquise. An dem Praxisbeispiel

des Branchenportals www.verlagswelt.de lässt sich

verdeutlichen, wie ein Outsourcing-Projekt für ein nicht

IT-relevantes Feld erfolgreich realisiert werden kann.

Selbst erfassen?

Im Frühjahr 2004 wurde die unternehmerische Entscheidung

für die Realisierung eines Branchenportals für und

über die deutsche Verlagsindustrie getroffen. Zentraler

Inhalt sollten die deutschen Medien sein, Darstellung des

individuellen Mediums (Titelseite) mit seinen zentralen

Kenndaten (ISSN-Nummer, Erscheinungsweise, Einzelverkaufspreis,

Abonnementspreis) und vor allem Erfassung der

Verlagsangaben und der verantwortlichen Personen. Nach

ersten Tests hatte sich schnell ergeben, dass die Erfassung

der verantwortlichen Personen über das Impressum der

einzelnen Zeitschriften einen erheblichen Zeit- und damit

Kostenaufwand bedeutet. Es stellte sich die Frage, ob diese

Arbeiten auch in einer gegenüber dem Standort München

lohnkostengünstigeren Region erledigt werden könnten. So

bot sich das Umland von München an, bis hin zu grenznahen

Gebieten. Grundlage der Erfassung der Grundinformationen

waren die Impressen, die den Erfasserinnen oder

Erfassern in Kopie zur Verfügung gestellt werden konnten.

Doch in der Zeit der Informationstechnologie ist es unerheblich,

ob ein anderer Unternehmensteil 20, 50 oder aber

1.500 Kilometer von dem zentralen Unternehmensstandort

entfernt ist. So entstand der Gedanke, die Arbeit der Erfassung

tatsächlich deutlich von dem Unternehmensstandort

München zu verlagern, etwa in das osteuropäische Ausland.

Denn die eingescannten Dokumente (Impressen) können

allerorts vom Intranet abgerufen werden. Wenige Wochen

später konnte in Bukarest ein 60 qm großes Büro angemietet

werden. Heute arbeiten dort acht (deutschsprachige)

Mitarbeiterinnen mit modernem PC-Equipment und

ständiger Online-Verbindung zum Unternehmensintranet.

Die Kosten für diesen Unternehmensstandort inklusive der

Personalkosten liegen bei ca. 30 Prozent im Vergleich zum

Standort München.

Entscheidung für Rumänien

Entscheidend für den Standort Rumänien war die Tatsache,

dass es in diesem Land (wie auch noch in Tschechien,

Ungarn oder Polen) viele deutschsprachige Menschen gibt

und zahlreiche junge, die sich an Schulen wie dem Goethe

Institut die deutsche Sprache aneignen. Mit Hilfe eines

landes- und ortkundigen Scouts wurden potenzielle Un


ternehmen identifi ziert, die die angefragte Dienstleistung

hätten erbringen können. Doch, nicht verwunderlich, die

meisten Unternehmen hatten den Auftrag als Software-

Entwicklungsauftrag aufgefasst. Womit wir wieder bei der

Informationstechnologie wären. Eine Erkenntnis, die das

gleiche Unternehmen schon früher in einem anderen Projekt

in Polen erfahren hat.

Eigenständige Ausgründung

Letztendlich wurde dann die Entscheidung getroffen,

dass der verpfl ichtete Scout ein eigenes neues Dienstleistungsunternehmen

gründete, nach rumänischem Recht

und einer vertraglichen Vereinbarung mit dem deutschen

Auftraggeber. Nur so konnte gewährleistet werden, dass die

relativ komplizierten Steuerregeln Rumäniens berücksichtigt

werden, und dass der neue Outsourcing-Partner seine

Dienste völlig auf die Anforderungen einstellen konnte.

Dies beginnt mit der entsprechenden Bandbreite für die

die "Gewissensfrage"

„Mir hat ein Unternehmen eine Rechnung als PDF geschickt.

Reicht diese Form?“

Die kurze Antwort nach Radio Eriwan lautet: Im Prinzip

ja, aber nur, wenn sie mit einer qualifi zierten elektronischen

Signatur versehen ist. Im § 14 Umsatzsteuergesetz sind die

Formvorschriften für Rechnungen klar geregelt. Wenn Sie

eine Rechnung als PDF akzeptieren, die keine elektronische

Signatur hat, dürfen Sie keine Vorsteuer ziehen. Mit dieser

Vorschrift sollten Sie nicht leichtfertig umgehen. Es kann

Ihnen bei der Steuerprüfung sonst passieren, dass der Prüfer

aufgrund einer Stichprobe den Umfang der entgangenen

Steuer hochrechnet und Ihnen eine saftige Nachforderung

stellt.

Woran erkennt man überhaupt, dass die Rechnung elektronisch

signiert ist? Zwei Formen sind möglich: die elektronische

Signatur als separate Datei, typischerweise mit der

Endung .cms oder .ads oder als in die PDF-Datei eingebettete

Signatur. Der erste Fall ist offensichtlich, im zweiten Fall

müssen Sie Ihren PDF-Reader bemühen, um zu sehen, ob die

Datei eine Signatur enthält. Es reicht jedoch nicht zu prüfen,

dass eine Signatur vorhanden ist, Sie müssen auch prüfen

ob die Signatur gültig ist. Dazu verpfl ichten die Grundsätze

zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen,

?

063

notwendige Internetverbindung bis hin zu banalen Dingen

wie die Beschaffung von PC-Tastaturen, die der westdeutschen

Tastenbelegung und dennotwendigen Sonderzeichen

entsprechen.

Wie in allen anderen Outsourcing-Projekten gilt jedoch

auch hier: ständige Kommunikation mit den dort vor Ort

tätigen Mitarbeitern; Information der Mitarbeiter über

den Projektstatus und zukünftige Planung; Entlohnung der

Mitarbeiter über der üblichen Norm des Landes, aber in

angemessenem Rahmen.

Ralph Peter Rauchfuss

Der gelernte Verlagskaufman, Jahrgang 1954,

hat über 30 Jahre bedeutende Fachverlage

geleitet. Rauchfuss ist heute Herausgeber der

Fachzeitschrift „verlagswelt“ und des

Internetportals www.verlagswelt.de

die unter dem Kürzel GDPdU bekannt wurden. Leider gibt

es kein universelles Prüfverfahren, der Rechnungssteller

muss Ihnen mitteilen, wie Sie die Rechnung prüfen können.

Nicht unüblich ist es, ein Webportal anzubieten, auf

das die Dokumente und die Signaturdatei geladen werden.

Einfacher ist, wenn Sie zusammen mit Rechnung und Signatur

noch einen Prüfbericht bekommen. Aber Vorsicht:

Der Prüfbericht darf natürlich nicht vom Rechnungssteller

stammen, das verstieße gegen das Selbstprüfungsverbot.

All dies soll Sie nicht bange machen. Es gibt mittlerweile

viele Produkte zum einfachen Umgang mit elektronischen

Signaturen und auch viele Dienstleister, die Sie beauftragen

können. Sie brauchen sich aber auf keinen Fall in Zugzwang

setzen zu lassen. Wenn Sie lieber eine Papierrechnung haben

wollen (z. B. weil Sie den Papierprozess mit einer Scan- und

OCR-Lösung weitgehend automatisiert haben, z. B. mit Invoice

CENTER von Océ Document Technologies :-)), können

Sie Ihren Lieferanten auffordern, Ihnen eine konventionelle

Rechnung zu schicken. Er muss dem nachkommen.

Das aber sollten Sie umgehend tun, sonst leitet Ihr Lieferant

aus konkludentem Handeln Ihr Einverständnis ab – und das

gilt dann für die Zukunft.

Johannes Schacht

Leiter Marketing, Océ Document Technologies


064 Alltag

Die Globalisierung der Märkte schreitet voran. Unternehmensaufkäufe

und Fusionen sind an der Tagesordnung. So

entstehen große Konzernstrukturen, die kontinuierlich

weiter wachsen und in aller Welt die Märkte beherrschen

wollen. Ob Automobilindustrie, Logistikunternehmen,

Telekommunikation oder IT-Companys – sie alle kaufen

Wachstum und Märkte stetig hinzu. Da stellt sich die Frage,

wer in diesem weltweiten Spiel überhaupt noch bestehen

kann. Welcher Raum bleibt etwa noch für ein mittelständisches

Softwareunternehmen, wird doch dieses Feld von

amerikanischen Playern wie Microsoft, Oracle, Sun usw.

beherrscht. Aus dem Rahmen fällt einzig und alleine das

deutsche Vorzeigeunternehmen SAP, das als Branchenprimus

gilt, im globalen Business ganz vorne mitspielt und

bislang den Übernahmeofferten der Branchengrößten

trotzt. Im Gegensatz zu anderen Industriezweigen, wie der

Automobil-, Pharma- oder Logistikbranche, scheint dies in

der Informationstechnologie die rühmliche Ausnahme zu

sein. Hier finden sich die deutschen IT-Anbieter weit abgeschlagen

auf den hinteren Plätzen. Grund genug, einmal

Ursachenforschung zu betreiben, die damit einhergehenden

Gefahren, aber auch die Chancen aufzuzeigen.

Die „Marke“ Deutschland

Was meint eigentlich

„Made in Germany“?

Nichts ist mehr, wie es war. Auch die „Marke“ Deutschland verändert sich. Wer

heute international Geschäfte machen will, muss sich deshalb verstärkt auf sein

Gegenüber einstellen. So kommt auch der Mittelstand zu seinen Chancen.

Karl Heinz Mosbach

„Typisch deutsch“ im Wandel

Hilfreich ist zunächst sicherlich einmal der Versuch, sich

selbst von außen, sprich durch die Brille der anderen, zu

betrachten. Wir Deutschen sollten uns hinterfragen. Und

wir sollten in Erfahrung bringen, wie uns die anderen sehen

oder mit welchen Vor- und/oder Nachteilen wir bei einer internationalen

Vermarktung konfrontiert werden. Da sind in

erster Linie unsere typisch deutschen Tugenden wie Gründlichkeit,

Pünktlichkeit und Genauigkeit. Tugenden, die

rund um den Globus ganz unterschiedlich aufgenommen

werden. In den europäischen Nachbarstaaten schätzt man

unsere Verlässlichkeit zwar sehr, doch bestehen noch immer

Vorbehalte auf Grund der jüngsten Historie, die es zu widerlegen

gilt. Dort herrscht noch immer das Bild des Deutschen

vor, der stets als Sieger gefeiert werden möchte und der kalt

und berechnend wie eine Maschine auftritt. Die Tatsache,

dass diese Einschätzung heute offensichtlich nicht mehr

zutrifft, löst häufig großes Erstaunen aus. Dieses Image ist

zwar – nicht zuletzt auch dank der Fußballweltmeisterschaft

– im Wandel begriffen. Dennoch charakterisiert die Deutschen

ein gewisses Verhalten, das man im Ausland gerne


mit „typisch deutsch“ umschreibt: diszipliniert, fleißig und

gewissenhaft – aber oft auch stur, rechthaberisch und wenig

flexibel. Darüber hinaus wird uns nicht selten eine eher pessimistische

Grundhaltung nachgesagt, die im Ausland gerne

als „Jammern auf hohem Niveau“ belächelt wird.

Die Engländer messen sich nicht nur im Fußball gerne

mit uns, sondern suchen auch sonst die offene Auseinandersetzung.

Dennoch schätzen sie unsere Produkte, das

Label „Made in Germany“ überzeugt aufgrund der längeren

Haltbarkeit und höheren Qualität der Waren. Trotz aller

Ressentiments überwiegt bei den Engländern ihr pragmatischer

Denkansatz. Ein Pragmatismus, der in vielen anderen

(west)europäischen Nachbarländern dazu beiträgt, den Absatz

unserer Produkte zu steigern, obwohl diese in der Regel

wesentlich teurer sind. Doch es gibt andere Beispiele. So

kommt im Umgang mit den Polen nicht selten das Gefühl

auf, dass nationaler und persönlicher Stolz überwiegen und

man gegen Windmühlen anrennt. Ganz anders wiederum

die Asiaten: Sie sind stolz darauf, wenn sie sich deutsche

Wertarbeit leisten können, und schätzen die Zuverlässig-

keit und Qualität. Ja, es versetzt uns Deutsche geradezu in

Erstaunen, wie viel Glanz die doch für uns schon reichlich

abgenutzte Floskel „Made in Germany“ dort noch besitzt.

Kulturelle Gegebenheiten verinnerlichen

Auch wenn also in Bezug auf deutsche Produkte das positive

Image überwiegt, so stehen den Germanen dennoch

die Türen nicht von selbst offen. Um den Absatz in neuen,

expandierenden Märkten wie Osteuropa und Asien anzukurbeln,

heißt es wie überall, zunächst das Vertrauen der

Kunden und Geschäftspartner zu gewinnen. Um sich dort

erfolgreich zu positionieren, reichen Achtung und Anerkennung

alleine nicht aus. Zuerst gilt es, in jedem Land

aufs Neue die Menschen und deren Kultur kennen und

verstehen zu lernen. Nur wer sich hierfür die Zeit nimmt,

kann die richtigen Akzente setzen, die passenden Strategien

entwickeln und Fehler vermeiden. Zwar zeichnet uns beispielsweise

im Vergleich mit den Amerikanern ein höheres

Fingerspitzengefühl und ein weniger überhebliches Auftre-

065

ten aus. Dennoch begehen wir gelegentlich den Fehler zu

glauben, dass die bei uns bewährte Vorgehensweise eins zu

eins in andere Länder übertragbar ist. Wenn einige unserer

Grundprinzipien erstaunlicherweise in fremden Ländern

funktionieren, müssen diese immer auf die jeweilige Kultur

im Land abgestimmt und angepasst werden. Mitarbeiter,

die mit der internationalen Vermarktung betraut werden,

müssen dies verinnerlichen. Interkulturelle Schulungen

und eine schrittweise Heranführung ebnen den Weg.

Wichtig bei der „Eroberung“ fremder Kulturen sind nicht

zuletzt die länderspezifischen Umgangsformen. Gerade wir

Deutschen sprechen eine sehr kühle und direkte Sprache,

die Geschäftspartner anderer Länder so manches Mal unbeabsichtigt

vor den Kopf stößt. Der asiatische Markt ist

hierfür ein Paradebeispiel, wird doch hier die direkte Konfrontation

– und damit ein etwaiger Gesichtsverlust – in der

Regel vermieden. Doch es geht nicht um hundertprozentige

Perfektion. Vielmehr sind es die kleinen Bemühungen, die

wohlwollend zur Kenntnis genommen werden und oftmals

eine große Herzlichkeit und Offenheit auslösen.

Eine gute Vorbereitung und intensive Schulungen sind

aber aus Selbstschutz notwendig. Falsches und unprofessionelles

Vorgehen hat bereits dem einen oder anderen Unternehmen

auch hohe finanzielle Einbußen beschert, weil aus

kultureller Unkenntnis Gefahren nicht richtig eingeschätzt

wurden. Ausgehend von den eigenen Wertvorstellungen

neigen wir Deutschen nicht selten zu Fehleinschätzungen.

So ist es in manchen Kulturen Gang und Gäbe, sich auf

nicht ganz legalem Wege Vorteile erschleichen zu wollen.

Ein chinesischer Geschäftsführer erzählte mir beispielsweise

während des Essens ganz frank und frei – und nicht ohne

einen gewissen Stolz –, dass sein Vater beim An- und Verkauf

eine besondere Fingerfertigkeit beherrschte, mit der er

unbemerkt die Waage manipulieren konnte. Ob der Sohn

diese Veranlagung geerbt und übernommen haben könnte,

darüber lässt sich nur spekulieren. Doch davon auszugehen,

dass diese Gepflogenheiten nicht in der zweiten Generation

Anwendung finden, wäre naiv. Gefragt ist also neben der

genauen Kenntnis der kulturellen Gegebenheiten insbesondere

auch ständige Wachsamkeit.


066 Alltag

Der richtige Mix macht’s

Gezielte Schulungen und Vorbereitungen auf Auslandsaktivitäten

sind also unentbehrlich. Doch der Schlüssel zum

Erfolg ist die enge Zusammenarbeit mit den jeweiligen

Landsleuten. Der richtige Mix aus eigenem und ausländischem

Personal macht den Unterschied. Einen verlässlichen

einheimischen Geschäftspartner an der Seite zu haben,

ist daher ein Muss. Denn jede geschäftliche Tätigkeit ist

mit einem erheblichen Know-how-Transfer verbunden.

So mancher deutsche Unternehmer reagierte nicht wenig

schockiert, als er auf Grund diverser Probleme seine Fertigungsstelle

aufsuchte und feststellen musste, dass seine gut

ausgebildeten neuen Mitarbeiter nun im Unternehmen gegenüber

arbeiteten, einem Abbild seiner eigenen Fertigung.

Denn im Kopieren sind die Asiaten bekanntermaßen Welt-

meister.

An dieser Stelle wird ein weiterer wichtiger Punkt deutlich:

Die Erschließung neuer Märkte muss insbesondere

bei einem mittelständischen Unternehmen Chefsache sein.

Um langfristig erfolgreich zu sein, braucht es neben einem

soliden Fundament Kontinuität und Ausdauer. Den meisten

gescheiterten Ausfl ügen in die Internationalisierung hat es

daran gemangelt. Jede Erschließung eines neuen Marktes

kostet Geld. Solche Investitionen erstrecken sich über einen

längeren Zeitraum, auch in Wachstumsmärkten wie

Asien ist das schnelle Geld nicht zu machen. Die Bekanntmachung

der eigenen Produkte, der Imageaufbau sowie

der Aufbau von Service und Partnerstrukturen braucht

nun einmal Zeit, und all dies sollte mit Weitsicht geplant

werden. Außerdem sollte die Internationalisierung speziell

eines mittelständischen Unternehmens mit einem internen

Wandel einhergehen. Es genügt nicht, dass nur die mit den

Auslandsaktivitäten betraute Abteilung die neue Unternehmenskultur

repräsentiert. Dieser Wandel muss vom gesamten

Unternehmen vollzogen und mitgetragen werden.

Mit Innovationsfreude und Enthusiasmus ans Ziel

Doch genau hier stoßen wir Deutschen an unsere Gren-

zen, denn in unserer Mentalität überwiegt das Misstrauen

gegenüber Veränderungen. Wir neigen dazu, zuerst einmal

alles in Frage zu stellen und als Besitzstandswahrer zu agieren.

Um eine Internationalisierungsstrategie zum Erfolg zu

führen, ist es im Interesse des gesamten Unternehmens, den

Mitarbeitern ihre Ängste in Bezug auf ihren Arbeitsplatz zu

nehmen. Dies ist mithilfe einer umfassenden, offenen Informationspolitik

und mit deren Einbindung in die Unternehmensstrategie

zu erreichen. Denn Arbeitsplatzsicherheit

lässt sich nur gewährleisten, wenn das Unternehmen fl oriert

und die Herausforderungen der Zukunft annimmt. Mit der

Globalisierung geht sicherlich eine Verlagerung bestimmter

arbeitsintensiver Tätigkeiten in so genannte Billiglohnländer

einher. Gleichzeitig nimmt der Wettbewerb im eigenen

Land zu. Hier können nur neue, innovative Konzepte dazu

beitragen, am Markt zu bestehen.

In diesem Zusammenhang hat Deutschland im europäischen

Vergleich Nachholbedarf. Zu starr und unfl exibel

sind unsere Strukturen geworden, da man sich allzu lange

auf den Lorbeeren der Ludwig-Erhard-Zeit ausgeruht hat.

Gefragt ist hier neben der Wirtschaft die Politik. Nur mit

konsequenten und sicherlich teilweise unbequemen Reformen

können die Herausforderungen des 21. Jahrhunderts

gemeistert werden. Einige der EU-Nachbarländer sind uns

in verschiedenen Bereichen um Nasenlänge voraus. Ob

in der Bildungspolitik, dem Gesundheitswesen oder dem

Steuerrecht. Der Veränderungsbedarf in unserem Land, der

Gesellschaft wie der Wirtschaft, ist enorm. Bisher hat das

Unternehmen Deutschland seine Möglichkeiten sicherlich

noch nicht ausgeschöpft. Den Erfolg machen viele Faktoren

aus, darunter so manche „soft facts“ wie Enthusiasmus.

Begeisterung trägt dazu bei, vieles besser zu machen und

sich zu differenzieren. Mit qualitativ hochwertigeren und

intelligenteren Produkten, mehr Kundennähe und besserem

Service.

Auch gegen übermächtig erscheinende Global Player,

denen es gerade in der Softwareindustrie schwer fällt, ihre

immer umfangreicheren Produktpaletten zu beherrschen,

insbesondere wenn es um anspruchsvolle Businesslösungen

geht. Während sich die Großen intern mit der Konsolidierung

ergänzender und überlappender Produktpaletten und

verschiedener Unternehmenskulturen beschäftigen, sollten

sich mittelständische Unternehmen konsequent auf ihre

Stärken fokussieren. Auch sie haben die Chance, mithilfe

von Begeisterung, Beharrlichkeit und Innovationsfreude

auf internationalem Parkett zu reüssieren. Hierfür steht eine

Vielzahl von deutschen und nicht zuletzt von schwäbischen

Mittelständlern. Es liegt an uns, dem Siegel „Made in Germany“

neuen Glanz zu verleihen.

Karl Heinz Mosbach

Der diplomierte Ingenieur, Jahrgang 1960,

startete seine Karriere bei der Lous Leitz KG.

Anfang 1996 übernahm er den Aufbau des Be-

reiches DMS und Archivierung, den er heute als

Geschäftsführer der nunmehr eigenständigen

ELO Digital Offi ce GmbH leitet.


066 Alltag

Der richtige Mix macht’s

Gezielte Schulungen und Vorbereitungen auf Auslandsaktivitäten

sind also unentbehrlich. Doch der Schlüssel zum

Erfolg ist die enge Zusammenarbeit mit den jeweiligen

Landsleuten. Der richtige Mix aus eigenem und ausländischem

Personal macht den Unterschied. Einen verlässlichen

einheimischen Geschäftspartner an der Seite zu haben,

ist daher ein Muss. Denn jede geschäftliche Tätigkeit ist

mit einem erheblichen Know-how-Transfer verbunden.

So mancher deutsche Unternehmer reagierte nicht wenig

schockiert, als er auf Grund diverser Probleme seine Fertigungsstelle

aufsuchte und feststellen musste, dass seine gut

ausgebildeten neuen Mitarbeiter nun im Unternehmen gegenüber

arbeiteten, einem Abbild seiner eigenen Fertigung.

Denn im Kopieren sind die Asiaten bekanntermaßen Welt-

meister.

An dieser Stelle wird ein weiterer wichtiger Punkt deutlich:

Die Erschließung neuer Märkte muss insbesondere

bei einem mittelständischen Unternehmen Chefsache sein.

Um langfristig erfolgreich zu sein, braucht es neben einem

soliden Fundament Kontinuität und Ausdauer. Den meisten

gescheiterten Ausfl ügen in die Internationalisierung hat es

daran gemangelt. Jede Erschließung eines neuen Marktes

kostet Geld. Solche Investitionen erstrecken sich über einen

längeren Zeitraum, auch in Wachstumsmärkten wie

Asien ist das schnelle Geld nicht zu machen. Die Bekanntmachung

der eigenen Produkte, der Imageaufbau sowie

der Aufbau von Service und Partnerstrukturen braucht

nun einmal Zeit, und all dies sollte mit Weitsicht geplant

werden. Außerdem sollte die Internationalisierung speziell

eines mittelständischen Unternehmens mit einem internen

Wandel einhergehen. Es genügt nicht, dass nur die mit den

Auslandsaktivitäten betraute Abteilung die neue Unternehmenskultur

repräsentiert. Dieser Wandel muss vom gesamten

Unternehmen vollzogen und mitgetragen werden.

Mit Innovationsfreude und Enthusiasmus ans Ziel

Doch genau hier stoßen wir Deutschen an unsere Gren-

zen, denn in unserer Mentalität überwiegt das Misstrauen

gegenüber Veränderungen. Wir neigen dazu, zuerst einmal

alles in Frage zu stellen und als Besitzstandswahrer zu agieren.

Um eine Internationalisierungsstrategie zum Erfolg zu

führen, ist es im Interesse des gesamten Unternehmens, den

Mitarbeitern ihre Ängste in Bezug auf ihren Arbeitsplatz zu

nehmen. Dies ist mithilfe einer umfassenden, offenen Informationspolitik

und mit deren Einbindung in die Unternehmensstrategie

zu erreichen. Denn Arbeitsplatzsicherheit

lässt sich nur gewährleisten, wenn das Unternehmen fl oriert

und die Herausforderungen der Zukunft annimmt. Mit der

Globalisierung geht sicherlich eine Verlagerung bestimmter

arbeitsintensiver Tätigkeiten in so genannte Billiglohnländer

einher. Gleichzeitig nimmt der Wettbewerb im eigenen

Land zu. Hier können nur neue, innovative Konzepte dazu

beitragen, am Markt zu bestehen.

In diesem Zusammenhang hat Deutschland im europäischen

Vergleich Nachholbedarf. Zu starr und unfl exibel

sind unsere Strukturen geworden, da man sich allzu lange

auf den Lorbeeren der Ludwig-Erhard-Zeit ausgeruht hat.

Gefragt ist hier neben der Wirtschaft die Politik. Nur mit

konsequenten und sicherlich teilweise unbequemen Reformen

können die Herausforderungen des 21. Jahrhunderts

gemeistert werden. Einige der EU-Nachbarländer sind uns

in verschiedenen Bereichen um Nasenlänge voraus. Ob

in der Bildungspolitik, dem Gesundheitswesen oder dem

Steuerrecht. Der Veränderungsbedarf in unserem Land, der

Gesellschaft wie der Wirtschaft, ist enorm. Bisher hat das

Unternehmen Deutschland seine Möglichkeiten sicherlich

noch nicht ausgeschöpft. Den Erfolg machen viele Faktoren

aus, darunter so manche „soft facts“ wie Enthusiasmus.

Begeisterung trägt dazu bei, vieles besser zu machen und

sich zu differenzieren. Mit qualitativ hochwertigeren und

intelligenteren Produkten, mehr Kundennähe und besserem

Service.

Auch gegen übermächtig erscheinende Global Player,

denen es gerade in der Softwareindustrie schwer fällt, ihre

immer umfangreicheren Produktpaletten zu beherrschen,

insbesondere wenn es um anspruchsvolle Businesslösungen

geht. Während sich die Großen intern mit der Konsolidierung

ergänzender und überlappender Produktpaletten und

verschiedener Unternehmenskulturen beschäftigen, sollten

sich mittelständische Unternehmen konsequent auf ihre

Stärken fokussieren. Auch sie haben die Chance, mithilfe

von Begeisterung, Beharrlichkeit und Innovationsfreude

auf internationalem Parkett zu reüssieren. Hierfür steht eine

Vielzahl von deutschen und nicht zuletzt von schwäbischen

Mittelständlern. Es liegt an uns, dem Siegel „Made in Germany“

neuen Glanz zu verleihen.

Karl Heinz Mosbach

Der diplomierte Ingenieur, Jahrgang 1960,

startete seine Karriere bei der Lous Leitz KG.

Anfang 1996 übernahm er den Aufbau des Be-

reiches DMS und Archivierung, den er heute als

Geschäftsführer der nunmehr eigenständigen

ELO Digital Offi ce GmbH leitet.


068 Alltag

Eines Abends im Frühjahr 2002 saßen nach dem Treffen

eines Arbeitskreises des FIWM e.V. (Förderkreis IT- und

Medienwirtschaft München) drei Leute zusammen und

fantasierten bei ein paar Bier über die Möglichkeiten der

gerade in den Kinderschuhen steckenden drahtlosen Vernetzung.

Plötzlich stand die Frage im Raum, was damit

alles möglich wäre, und vor allem, wo. Und da nichts das

bayerische Lebensgefühl besser verkörpert als die grüne

Lunge eines der größten Stadtparks der Welt sowie dessen

Biergärten, der Chinesische Turm und das Seehaus, musste

ein Wireless LAN her. Denn es ist einfach schlichtweg cool,

zum Arbeiten in den Biergarten zu gehen.

Surfen im Allerheiligsten?

WLAN im Englischen Garten

Drahtlos in München

Viele gute Ideen entstehen aus einer Laune des Zufalls heraus. So auch

der „E-Garten“, das WLAN im Englischen Garten in München. Man muss nur

lange genug zusammen sitzen.

Jimmy Schulz

Als problematisch stellte sich heraus, überhaupt im Heiligtum

der bayerischen Staatskanzlei der Schlösser- und

Seenverwaltung eine Genehmigung zu bekommen. Einzig

die Tatsache, dass es sich hierbei um ein nicht auf Gewinn

ausgerichtetes Forschungsprojekt handelte ermöglichte die

Sondergenehmigung, an den unter Denkmalschutz stehenden

Gebäuden die Antennen anzubringen.

Nach langen Nächten und Herumklettern in Bäumen

konnten wir im Juli 2002 mit einer großen Pressekonferenz

den Startschuss zum vermutlich ersten WLAN in einem

Biergarten weltweit geben. Die Presseresonanz überraschte

uns. Mehrere Fernsehsender und nahezu allen wichtigen

Printmedien berichteten an prominenter Stelle über E-

Garten.Net und über die Verwirklichung des Slogans „Laptop

und Lederhose“. Im größten Biergarten der Welt, dem

Chinesischen Turm, werden etwa 80 Prozent aller Sitzplätze

abgedeckt und im Seehaus alle Sitzplätze sowie der gesamte

See. So wäre auch bei einer Bootsfahrt die Grundversorgung

mit Internetzugang sichergestellt. Mittlerweile ist aus dem

Pilotprojekt eine Selbstverständlichkeit geworden, hunderte

von Usern schätzen die Möglichkeit, mal eben schnell in der

Mittagspause E-Mails zu lesen. Studenten nutzen die Möglichkeit,

dem Dunkel der Bibliotheken zu entfliehen und an

der frischen Luft zu recherchieren.

Und so funktionierts

Die Benutzung ist ebenso einfach wie problemlos: An der

Kasse der Biergärten einfach „Brez´n, Bier und Internet“

bestellen und für 3 Euro einen Voucher für eine Stunde

Nutzung lösen. Laptop oder PDA mit WLAN-Zugang einschalten,

einfach den Browser der Wahl starten und die

Homepage des E-Garten.Net aufrufen (www.e-garten.net).

Dort auf der rechten Seite den Button ‚anmelden‘ anklicken

und die Daten vom Voucher eingeben, und schon kanns

losgehen. Wer die Sache erst einmal testen will, kann dies

tun, denn eine ganze Reihe von Webseiten ist kostenfrei und


ohne Voucher erreichbar. So zum Beispiel die Seiten der

beteiligten Firmen sowie der Sponsoren. Wer nicht aufstehen

und zur Kasse gehen will, um einen Voucher zu kaufen,

kann auch per Kreditkarte online sein Online-Guthaben

aufl aden. Doch Vorsicht: offenes Netz! Eine Verschlüsselung

der Daten wie im heimischen WLAN fi ndet nicht statt. Wer

also vertrauliche Daten zu verschicken hat, sollte lieber per

VPN oder per E-Mail-Verschlüssellung arbeiten. Eine Personal

Firewall ist in öffentlichen Hotspots sowieso Pfl icht,

damit der eigene Rechner vor den Zugriffen anderer geschützt

bleibt.

Liebenswertes E-Garten.Net

WLAN-Hotspots im öffentlichen Raum gibt es mittlerweile

jede Menge. Das besondere an E-Garten.Net ist jedoch

das einmalige Flair und die über die Jahre gewachsene Gemeinschaft,

die sich regelmäßig im Seehaus oder am Chinesischen

Turm zum Stammtisch trifft. Dort wird gefachsimpelt

oder Neueinsteigern geholfen, den ersten Kontakt zum

Netz aufzubauen. Am Chinesischen Turm geschieht das am

einzigen genehmigten Stammtisch im Englischen Garten.

Ein riesiger runder Tisch mit eigens angefertigter Plakette.

Neben den Stammtischen fi nden eine Reihe von Firmenveranstaltungen

statt, die das Netz gerne nutzen. Zu manchen

besonderen Anlässen wie dem traditionellen Kocherlball

wurden vom Team auch Video-Liveübertragungen in alle

Welt organisiert.

069

Eine Attraktion der besonderen Art war der Stand des

E-Garten.Net-Teams auf der SYSTEMS 2002: dort wurde

die Biergartensaison bis in den späten Oktober hinein

verlängert. Einem Biergarten nachempfunden mit Biertischen,

Maibaum und Schänke, konnten sich die erschöpften

Messebesucher bei einer Brez´n und einer Maß Bier erholen

und nebenher in angenehmer Atmosphäre per WLAN im

Internet surfen. Auf vielen weiteren Messen wie CeBIT und

Systems war das Team vom E-Garten.Net immer präsent. In

vielen Vorträgen berichten wir über die vielen technischen

und nichttechnischen Aspekte von E-Garten.Net. Besonders

oft werden wir nach dem Funktionieren eines virtuellen

Unternehmens gefragt. Auch dazu halten wir mittlerweile

Vorträge. Das ist der Aspekt, der allen Beteiligten fast am

meisten Spaß gemacht hat. Aus vielen Einzelteilen ein großes

Ganzes zu machen, das größer ist als die Summe der

Einzelteile. Für technisch orientierte Unternehmen war es

eine neue Erfahrung, gemeinsam mit einer PR-Agentur wie

mit Kollegen zu arbeiten, und für die Marketing-Agentur

war der Einblick in die Arbeitsweise einer Softwareschmiede

eine ungewöhnliche Erfahrung.

Die Zukunft des E-Garten.Net

Natürlich ist WLAN heute keine revolutionär neue Technologie

mehr. E-Garten.Net versteht sich selbst eher als

Plattform für neue Technologien, als Experimentierfeld

mit gesicherter Umgebung. Viele Unternehmen nutzen den

wohl bekanntesten Hotspot der Welt für Produkteinführungen

Vorträge und Pressekonferenzen. Innovative Ideen

werden hier ausprobiert und der Öffentlichkeit vorgeführt.

Beispielsweise Voice over IP over WLAN mit einem PDA.

E-Garten.Net wird sich technisch weiterentwickeln und

sicherlich in Zukunft Träger neuer innovativer Ideen sein.

Eines bleibt aber im Mittelpunkt die zwischenmenschliche

Kommunikation in einem Biergarten und die gemeinsame

Lust am Experimentieren.

Jimmy Schulz

Der diplomierte Politologe, Jahrgang 1968, ist

Mitgründer des E-Garten.Net. Unter seiner Regie

wurde das WLAN installiert und konfi guriert.


070 Alltag

News Unternehmen

Galileo-Satellitenforschung in

Rostock gefördert

Der Bund wird die Forschung und Entwicklung

des europäischen Satellitennavigationssystems

Galileo in Rostock mit 2,5 Millionen

Euro fördern. Das Rostocker Unternehmen

RST wird im Hafen vier Sender aufstellen,

mit denen sich punktgenau der Standort

errechnen lässt. Der Bundesminister Aufbau

Ost, Wolfgang Tiefensee (SPD) wörtlich bei

seinem Besuch in Rostock: „Wir erwarten

uns viele Folgeaufträge, das ist ein gigantisch

explodierender Markt“.

GoYellow braucht mehr Geld

Nach erneuten Verlusten will die Internetauskunft GoYellow über

eine Kapitalerhöhung frisches Geld beschaffen und im Oktober

2,3 Millionen neue Aktien ausgeben. Die Finanzlage von Go-

Yellow sei aber nicht angespannt. In der ersten Jahreshälfte 2006

machte das Unternehmen vor Steuern und Zinsen einen Verlust

von 8,9 Millionen Euro. Damit fi el das Minus zwar kleiner als im

Vorjahreszeitraum aus, aber weiterhin höher als der Umsatz von

zuletzt 1,3 Millionen Euro (2005: 1,7 Millionen Euro).

$ Der neue GoYellow-Vorstand Klaus Harnisch hat es also innerhalb

weniger als zwei Jahre geschafft, die proppenvolle Kasse

der früheren Varetis (jetzt: GoYellow) zu verpulvern. Vermutlich

bekommt er für neue Aktien noch mal Geld, aber bestenfalls zu

Ramschpreisen. Die Finanzlage dürfte Ende des Jahres klar angespannt

sein.

Oracle mit Gewinn im vierten Geschäftsquartal

presse@hw-medien.de

Die Oracle Corporation verbuchte im vierten Quartal bei einem GAAP-

Umsatz von 4,9 Mrd. US-Dollar eine Steigerung von 25 Prozent. Der

GAAP-Gewinn stieg um 27 Prozent auf 1,3 Mrd. US-Dollar. Das entspricht

einem Gewinn pro Aktie von 0,24 US-Dollar (plus 24 Prozent). Die Software-Erlöse

nach GAAP stiegen um 28 Prozent auf 4,0 Mrd. US-Dollar. Der

Non-GAAP-Gewinn pro Aktie betrug 0,29 US-Dollar im vierten Quartal;

eine Steigerung um elf Prozent. Der Reingewinn nach Non-GAAP erhöhte

sich um 13 Prozent auf 1,5 Milliarden US-Dollar verglichen mit dem vierten

Quartal des Vorjahres.

$ Oracle wächst – aber das stürmische Wachstum der 90er-Jahre

scheint vorbei zu sein. Der Oracle-Kurs ist seit nunmehr fast vier Jahren in

einer Seitwärtsbewegung gefangen. Im weitesten Sinne ähnlich sieht die

Situation auch bei anderen Marktführern wie Microsoft, Cisco oder IBM

aus. Trotz Übernahmen lässt sich nur normales Neugeschäft generieren.

Es sieht so aus, dass die Neuinvestitionszyklen der Kunden weiterhin in

einem längeren Zeitraum verbleiben.

Pixelpark und Elephant Seven fusionieren

Zwei ehemalige Schwergewichte der New Economy

wollen fusionieren: Pixelpark und Elephant Seven. 2007

soll der fusionierte Konzern über 50 Mio. Euro Umsatz

erwirtschaften. Die beiden Unternehmen wiesen im letzten

Geschäftsjahr einen operativen Gewinn aus, schrieben

unterm Strich jedoch rote Zahlen: Pixelpark minus

185.000 Euro, Elephant Seven minus 246.000 Euro.

$ Kaum wurde das Platzen der Fusion mit Springer +

Jacoby bekannt, schon zieht die Elephant Seven AG das

nächste Ass aus dem Ärmel. Und das war ganz sicher

schon lange vorbereitet, zumal die Probleme bei dem

ursprünglichen Wunschobjekt S+J nicht ganz neu sind.

Mit dem Wegfall von DaimlerChrysler als Werbekunden

brach die Grundlage der Fusion weg, jedenfalls zu den

verhandelten Konditionen – schließlich stand das Autohaus

für ein Drittel des Umsatzes. Ob’s in der jetzigen

Konstellation besser wird? Schließlich treffen sich jetzt

zwei ehemalige Fast-Pleite-Kandidaten aus dem neuen

Markt, die aber beide knapp die Kurve gekriegt haben.

Da beide zuletzt nur mehr kleine rote Zahlen schrieben,

ist mit dem Wegfall diverser Administrations- und

Overhead-Kosten eigentlich der Weg in die schwarzen

Zahlen vorgezeichnet. Aber das war er früher auch schon

mal …

Bundesnetzagentur will Wimax-Frequenzen versteigern

Noch in diesem Jahr sollen Frequenzen für den Breitband-Funkstandard

Wimax versteigert werden. Die Zahl der Anträge übersteige die verfügbaren

Frequenzen um ein Vielfaches, so die Bundesnetzagentur. Mit Wimax sollen

vor allem Regionen mit Breitband versorgt werden, in denen schnelles Internet

noch nicht verfügbar ist oder Versorgungslücken geschlossen werden.

Die Bundesnetzagentur unterteilte die zu vergebenden Frequenzpakete auf 16

Regionen, die das gesamte Bundesgebiet abdecken. Die Auktion wird für jedes

Gebiet einzeln erfolgen, wobei sich Unternehmen auch zu Konsortien zusammenschließen

können. Der Funkstandard Wimax ermöglicht die kabellose

Datenübertragung über theoretisch bis zu 50 Kilometer.


$ kommentiert von Engelbert Hörmannsdorfer, Börsen-Infodienst BetaFaktor, www.betafaktor.de

EMC übernimmt RSA Security

Der Storage-Hersteller EMC erweitert mit der Übernahme

RSA Security sein Angebotsportfolio. Nach

Insidern galt EMC als der erste Kandidat für den Kauf

von RSA. Der Storage-Hersteller wird 28 US-Dollar

je RSA-Aktie zahlen. Insgesamt beträgt der Kaufpreis

knapp 2,1 Milliarden US-Dollar. RSA Security wird

nach dem Abschluss der Übernahme als Information

Security Division von EMC agieren.

$ Der Trend, dass zur Datensicherung und -speicherung

auch Datensicherheit gehört, hat sich in den

letzten Jahren enorm schnell durchgesetzt. EMC füllt

damit jetzt eine Lücke auf ihrem Weg zum ganzheitlichen

ILM-Portfolio. Dabei geht es um mehr als das

Erfüllen von Compliance-Vorgaben: Risk-Management,

Informationssicherheit und Informationsschutz

sind die neuen Anforderungen. Der Preis mag

etwas hoch sein, aber bereits mit den Übernahmen

Documentum, Legato und Captiva hat EMC gezeigt,

dass man alles zu einem sinnvollen Gesamtprojekt

integrieren kann.

Storage-Anbieter EMC bleibt beim Umsatz unter

den Erwartungen

Mit 2,57 Mrd. blieb der US-amerikanische Storage-Anbieter EMC

unter den angepeilten 2,66 Mrd. US-Dollar. Im Vergleich zum Vorjahreszeitraum

stieg der Umsatz dennoch um 10 Prozent – zum

zwölften Mal in Folge zweistellig. Der Gewinn schrumpfte im Vergleich

um 5 Prozent auf 279,1 Mio. US-Dollar. EMC-Chef Joe Tucci

räumte ein, man hätte sich verkalkuliert, gerade bei den neueren

Speichersystemen vom Typ Symmetrix DMX-3.

$ Ein veränderter Nachfragemix – und schon passt das Resultat

nicht mehr zu den Prognosen. Fakt ist trotzdem, dass EMC

nach wie vor zweistellig wächst. EMC-Chef Joe Tucci ist bekannt

dafür, dass er sich auf eine veränderte Produktnachfrage schnell

einstellt und an den entsprechenden Stellschrauben dreht, um

auch die Gewinnsituation wieder zu verbessern.

HP zieht sich aus Optical-Disk-Geschäft zurück

Stellent schraubt Gewinn nach oben

Stellent, der Anbieter von Content-Management-Systemen,

hat im ersten Fiskalquartal (30. Juni) den Umsatz um 13

Prozent auf 32,3 Millionen US-Dollar gesteigert. Auf GAAP-

Basis stieg der Nettogewinn um 91 Prozent auf 2,1 Millionen

US-Dollar bzw. 7 Cent pro Aktie. Außerdem meldete Stellent

die Übernahme von zwei Unternehmen: Mit SealedMedia

wird ein Anbieter von Digital-Rights-Management-Lösungen

übernommen, Bitform ist Anbieter von Produkten zur

Content-Filterung. Beide Lösungen sollen in Stellents ECM-

Plattform integriert werden.

$ Kommentar: Die Ergebnisse lagen in etwa im Korridor

der Analystenschätzungen, insofern tat sich nicht viel

am Aktienkurs. Die beiden übernommenen Unternehmen

bringen Technologien mit, die es Organisationen erlauben,

ihre Dokumente noch besser zu schützen (Content Security)

und so Geschäftsrisiken zu minimieren. Insofern eine gute

Abrundung.

Retten Downloads die Musikindustrie?

Der IT-Konzern HP hat mit einem „End-of-Life“-Schreiben an seine Kunden mitgeteilt, dass die Produktion seiner

gesamten Jukebox-Linie mit MO/WORM- und UDO-Laufwerken eingestellt wurde. Man werde sich aus dem

Geschäft für optische Speichermedien zurückziehen. Hauptsächlich macht HP die RoHS-Richtlinien (Restriction

of Hazardous Substances) der EU für den Rückzug verantwortlich. Das allerdings scheint nicht der alleinige

Grund zu sein: Information-Lifecycle-Management (ILM) habe den Markt in den letzten Jahren stark verändert.

Jukeboxen seien in einem einfachen ILM-System deshalb „zu einem Datengrab verkommen“.

$ Eine ähnliche Entscheidung mit ähnlicher Begründung vor allem im Hinblick auf das aufkommende

ILM-Thema traf IBM schon mal vor rund zwei Jahren. Mittlerweile kehrt aber Big Blue wieder in den Jukebox-

Markt zurück, siehe die jüngsten IBM-Neuankündigungen wie beispielsweise das 3996-System. IBM lässt ihre

Systeme komplett von Plasmon zuliefern, natürlich RoHS-konform.

News Unternehmen

Der Marktforscher Screen Digest aus UK glaubt in

seiner neuen Studie, dass die legalen Musik-Downloads

den Abwärtstrend der Musikindustrie stoppen.

So soll sich der Online-Umsatz von 2005 bis Ende

2006 auf mehr als 280 Mio. Euro verdoppelt haben.

2010 dann wird ein Marktvolumen in Europa von

über einer Milliarde Euro prognostiziert. Das Wachstum

sei eine Folge der zunehmenden Verbreitung

von Breitband-Internetzugängen und MP3-Playern.

C//MAG NEWS

071


072 Alltag

Das Industrieunternehmen Bernecker+Rainer bietet

seinen Kunden nicht nur Automatisierungslösungen,

sondern über ein Web-Portal individuellen Zugriff auf

Informationen zu Produkten und Service-Leistungen.

Die Produktdaten aus SAP R/3 werden automatisiert in

eine RedDot-Portallösung übernommen. Dort werden

sie mit vertriebs- und marketingrelevanten Daten angereichert.

Eine Schnittstelle zur Übersetzungssoftware

von SDL/Trados ermöglicht die kostengünstige Bereitstellung

in mehreren Sprachen. Eine Anbindung des

Lotus-Notes-basierten Usermanagements gewährleistet

den sicheren und maßgeschneiderten Zugriff auf den

Datenbestand. Integrierte Services wie Seriennummern

abfragen runden das Portalangebot ab.

Bernecker+Rainer – kurz B&R – gehört zu den größten

Privatunternehmen im Bereich der Automatisierungs- und

Prozessleittechnik. B&R zählt Maschinenbauunternehmen

auf der ganzen Welt zu seinem Kundenstamm. Das Unternehmen

bietet von der frei gestaltbaren Bedienoberfläche

über Spezialentwicklungen von Elektronikkomponenten

bis hin zu Standardprodukten verschiedenste Automatisierungslösungen.

Wie viele andere Produktionsbetriebe steht

B&R in einem internationalen Konkurrenzkampf. Einem

Wettbewerb, in dem nicht nur effiziente Produktionsprozesse

entscheidend sind, sondern zunehmend der Umgang

mit der Ressource ‚Information’. Entsprechend wichtig ist

die Bereitstellung von Informationen rund um das erklärungsbedürftige

Portfolio.

Eine Website für alle reicht nicht

Individualisierung von Websites

Individueller

Informationszugriff

statt „Website für alle“

Um unternehmenskritische Geschäftsprozesse deutlich

zu beschleunigen und durch eine verbesserte Kommunikation

die Kundenzufriedenheit zu erhöhen, ist es das

Ziel die Website www.br-automation.com effizienter zur

Kundenansprache zu nutzen. Bislang wurden die Produktinformationen

in SAP R/3 und anderen internen Systemen

verwaltet. Der Internetauftritt war nicht daran gekoppelt, so

dass Informationen in dem Web-Redaktionssystem Typo3

separat gepflegt werden mussten. Gänzlich ungeeignet war

die Open Source Web-Software, um die geplante Integration

der IT-Systeme und die personalisierte Auslieferung

der Inhalte zu realisieren. Ein neues System war gefragt:

„Die übliche ´Website für alle´ reichte uns nicht mehr.

Wir suchten eine Lösung, mit der wir im ersten Schritt die

enorme Menge an Informationen zu unseren Produkten aus

unterschiedlichen Systemen zusammenführen konnten. Im

zweiten Schritt sollten diese Informationen webbasiert den

Kunden und Geschäftspartnern gezielt verfügbar gemacht

werden“, resümiert Josef Raschhofer, IT-Leiter bei B&R, das

strategische Projektziel.

Kommunikation erfordert Integration

Die Anforderungen an ein neues System waren hoch: Neben

der Abfrage detaillierter Produktinformationen sollten

alltägliche Service-Dienstleistungen – wie die Abwicklung

von Garantieansprüchen – über das neue Portal möglich


RedDot Solutions AG, Markus Steidl, info@reddot.de • Bernecker + Rainer Industrie Elektronik Ges.m.b.H., office@br-automation.de

sein. Die erforderlichen Informationen liegen zusammen

mit den Produktdaten in SAP R/3 vor und zeichnen sich

durch ein hohes Datenvolumen aus. Eine Direktanbindung

der Content-Management-Lösung an das SAP-System war

unumgänglich. Für mehrsprachige Produktinformationen

und -dokumentationen sollte die vorhandene Übersetzungslösung

der Firma SDL/Trados in den redaktionellen

Workflow des Content-Management-Systems integriert

werden. Des Weiteren stand die Integration des Usermanagement-Systems

Lotus Notes auf dem Wunschzettel. B&R

betreut weltweit mehr als 3.000 Kunden mit verschiedenen

Ansprechpartnern für deren Produktbereiche. Aufbauend

auf Lotus Notes, sollte die neue Lösung diese User und ihre

Berechtigungen leicht verwalt- und nutzbar machen, so

dass individuelle Anfragen im Portal möglich sind. Zur Realisierung

des Projekts holte B&R den Internet-Dienstleister

ecom.IT an Bord.

Software „made in Oldenburg“ als Lösung

In der Konzeptionsphase definierten die Projektverantwortlichen

die Abläufe im Detail und spezifizierten die

Schnittstellen zu den vorhandenen IT-Systemen. Auf Basis

dieses Gesamtkonzepts mit diversen technischen Spezifikationen

wurden verschiedene Anbieter von Content-Management-

und Portal-Software begutachtet, von denen viele an

der gewünschten Personalisierungsfunktionalität scheiterten

und nicht flexibel genug die gewünschten Integrationen

abbildeten. Am Ende der Testphase entschied sich das Projektteam

für den Content Management Server (CMS) und

den LiveServer von RedDot Solutions. Ausschlaggebend

waren die vorhandene Schnittstelle zum Übersetzungstool

von SDL/Trados, die offene Architektur und die einfache

Bedienung. Die Tests zeigten, dass die Integration der vorhandenen

IT-Landschaft nur mit der „Software made in Oldenburg“

ohne großen Programmieraufwand möglich war.

Strukturierte Daten aus SAP einfach veredeln

Die Spezialisten von ecom.IT integrierten die strukturierten

Produktdaten aus SAP R/3 über den SAP Business

Connector. Die Daten werden jetzt direkt in das Content-Management-System

importiert und lassen sich anschließend

von den Mitarbeitern der Fachabteilungen mit

marketing- und vertriebsrelevanten Informationen wie

Texten, Bildern und Grafiken anreichern. Die Struktur des

Produktkatalogs wird dabei direkt aus SAP übernommen,

so dass keine weiteren Anpassungen notwendig sind. Auch

die direkte Anbindung an das SAP-System für Services wie

die Seriennummernabfrage erfolgt reibungslos mit RedDot

und dem SAP Bussiness Connector.

Informationen individuell und sicher bereitstellen

073

Im nächsten Schritt wurde an das bestehende Userverzeichnis

(Lotus Notes) ein webbasiertes, dezentrales

Usermanagementsystem angebunden, mit dem die Kunden

von B&R die Zugangsdaten ihrer eigenen Mitarbeiter

selbstständig pflegen können – bislang lediglich durch B&R-

Mitarbeiter möglich. Die eigentliche Authentifizierung der

vielen tausend Ansprechpartner bei den Kunden im Portal

erfolgt über den Abgleich des RedDot LiveServers mit dem

zentralen Userverzeichnis. Die Abfrage liefert im Falle einer

erfolgreichen Authentifizierung die User ID, Firmen ID,

Username, Vorname und Nachname des Nutzers, die für

alle weiteren Schritte gespeichert werden. Diese Daten sind

nötig, um im Portal individuell auf Informationen zugreifen

zu können. Zudem erhöht sich durch diesen Authentifizierungsprozess

die Sicherheit der Zugriffe.

Schließlich musste noch das vorhandene Übersetzungs-

Tool in den redaktionellen Workflow eingebunden werden.

Dank der vorhandenen Schnittstelle zwischen RedDot CMS

und SDL/Trados verlief die Integration quasi auf Knopfdruck.

Der Übersetzungsprozess läuft seitdem effizient und

für die Mitarbeiter einfach ab: Aus dem Content-Management-System

wird ein „Übersetzungsauftrag“ mit dem Text,

der Quellsprache sowie die Zielsprache generiert.

Schneller individuelle Informationen liefern

Innerhalb weniger Monate hatte B&R mit seinen Partnern

das Projekt erfolgreich umgesetzt. „Mit der Ablösung von

Typo 3 durch RedDot ist der Mehrwert unseres Internetangebots

für alle Nutzer gestiegen. Die Qualität und Aktualität

der Produktdarstellung ist heute wesentlich besser.

Die laufenden Kosten für Wartung und Content-Pflege

konnten deutlich gesenkt werden“, so Josef Raschhofer. Die

Site www.br-automation.com umfasst mittlerweile mehr als

50.000 HTML-Seiten und wächst kontinuierlich. Derzeit arbeitet

das Projektteam an weiteren Sprachvarianten: Neben

zahlreichen europäischen Sprachen wird es eine chinesische

Projektvariante geben.

Jacklin Montag

freie Autorin


074 Alltag

Mit der Einführung der elektronischen Schadenbearbeitung

sind die Aktenberge von den Schreibtischen der

Sachbearbeiter verschwunden, die einzelnen Prozessschritte

der Schadenbearbeitung weitestgehend automatisiert

und optimiert.

Das papierlose Büro verwirklichen

Je nach Schadenaufkommen des Kommunalen Schadenausgleich

(KSA) der Länder Brandenburg, Mecklenburg-

Vorpommern, Sachsen, Sachsen-Anhalt und Thüringen

fallen jährlich bis zu mehrere Millionen ein- und ausgehende

Dokumente an. Um eine revisionssichere und

gleichzeitig Platz sparende Aufbewahrung der Dokumente

zu gewährleisten, führte der KSA bereits im Jahr 2000 ein

elektronisches Archiv von SER ein. Die Behörde löste das

Papierarchiv auf. Die Bearbeitungsprozesse in der Schadenbearbeitung

blieben jedoch papiergebunden, da die Akten

erst archiviert wurden, nachdem die Vorgänge abgeschlossen

waren. 2001 entschieden sich die Verantwortlichen dann

auch für die Einführung einer elektronischen Vorgangsbearbeitung,

dem sogenannten „Schaden-Workflow“.

Integrierte Lösung überzeugt

„Das reibungslose Zusammenspiel zwischen den Softwarelösungen

für Dokumenten-Eingangsbearbeitung und

Workflow überzeugte uns. Insbesondere durch die Nutzung

der intelligenten SERbrainware-Technologie, die auf der

Kommunaler Schadensausgleich

Elektronische Schadensbearbeitung

– unbürokratisch

und effizient

Technik neuronaler Netze basiert, ist es möglich, maschinengeschriebene

Eingangspost zu erfassen, zu erkennen,

zu klassifizieren und dem richtigen Schadensachbearbeiter

zuzuordnen“, beschreibt Jörn Poerschke, EDV-Gruppenleiter

KSA, den Entscheidungsprozess. Hinzu kam die positive

Erfahrung aus der Zusammenarbeit mit SER-Mitarbeitern

im bereits erfolgreich durchgeführten SER-Archiv- und

-DMS-Projekt. Die Anforderungen des KSA:

(1) Automatische Erfassung der gesamten Eingangspost

mit revisionssicherer Archivierung.

(2) Weitgehend automatisierte Erkennung des Inhaltes der

Eingangspost und darauf basierend Weiterleitung der Post

an den entsprechenden Schadensachbearbeiter.

(3) Zentraler Ausdruck der Briefe mit revisionssicherer

Archivierung.

(4) Höchstverfügbarkeit des Systems nach Abschluss des

Projektes.

(5) Für die Anwender sollte sich an der gewohnten Kommunikationsplattform

nichts ändern. Anstatt eines neuen

Clients mit zusätzlichem Schulungsbedarf sollten die Prozesse

in Outlook abgebildet werden.

„Die SER-Mitarbeiter haben uns von Anfang an hervorragend

betreut“, erinnert sich Jörn Poerschke. „Nach der

Erstellung detaillierter Feinkonzepte begannen wir mit

dem Inbound-Projekt zur Erkennung und Klassifizierung

des Posteingangs. Hierfür wurden vorhandene Dokumente

eingescannt und dem System zum „Lernen“ gegeben.“


SER Solutions Deutschland GmbH, Dirk Sveistrup, dirk.sveistrup@ser.de • KSA Kommunaler Schadensausgleich, Jörn Poerschke, info@ksa.de

Im zweiten Schritt entwarfen die Projektverantwortlichen

den eigentlichen Workflow. Er ermöglicht die elektronische

Kommunikation zwischen Posteingang, Registratur, Sachbearbeiter,

Schreibbüro, Abteilungsleiter, Mitglieder des KSA,

Gutachter und dem Postausgang sowie die Einbindung des

Output-Managements für die Druckausgabe. Bei der Konzeption

der elektronischen Akte musste die unterschiedliche

Aktenstruktur der drei Abteilungen Allgemeine Haftpflicht,

Kraftfahrt und Heilwesen berücksichtigt werden. Der komplette

Datenbestand des KSA, pro Jahr ca. 60.000 Akten mit

chronologischem Aktenteil und Farbfoto-Register, wird

seitdem vollständig in das System übernommen. Dabei

erfüllt die elektronische Akte alle Anforderungen bezüglich

Vollständigkeit, Integrität und Authentizität wie die herkömmlichen

Papierakten. Geplant ist, diese Akten auch im

Internet im nur für Mitglieder des KSA zugänglichen Online-

Mitgliederservice (OMS) bereitzustellen.

Die neue Schadenbearbeitung: alles elektronisch!

Vor Einführung des SER-Workflows wurde der Dokumenteneingang

von der Poststelle in die entsprechenden

Registraturen gebracht. Diese legten entweder Neuschäden

mit entsprechenden Akten an oder brachten die Schreiben

(Nachgänge) zum Sachbearbeiter und zogen ihm die entsprechende

Akte dazu. Die Zustellung der Post dauerte innerhalb

des KSA schon mal ein bis zwei Tage. Anschließend

diktierte der Sachbearbeiter zu dem Vorgang ein Schreiben.

Wenn das Band voll war, brachte der Schreibdienst das Band

in den Schreibdienst, wo die Schriftstücke geschrieben,

ausgedruckt und mit Anlagen versehen über die Poststelle

wieder dem Sachbearbeiter vorgelegt wurden. Hatte dieser

noch Änderungen, wiederholte sich das Prozedere.

Sachbearbeitung am Telearbeitsplatz

Heute sind die Prozesse des internen Postverkehrs vollständig

abgeschafft. Die Poststelle bringt die Post zur

IMG (Input-Management-Group). Dort werden die Briefe

geöffnet, entklammert, eingescannt und revisionssicher archiviert.

Automatisch erkannte Post wird in Realtime dem

zuständigen Sachbearbeiter zugestellt. Dabei spielt es keine

Rolle mehr, wo sein Schreibtisch tatsächlich steht. Sachbearbeitung

am Telearbeitsplatz ist nun genauso effizient wie

Sachbearbeitung im KSA in Berlin. Automatisch klassifiziert

wird die Eingangspost nach Sparten und Risiko. Nicht erkannte

Dokumente gelangen zur Registratur, die die Dokumente

manuell der entsprechenden elektronischen Akte

zuordnet.

Schnellere Durchlaufzeiten

075

Mittlerweile 50 Schadenbearbeiter öffnen die elektronischen

Akten im DOXiS Outlook-Client von SER und

nehmen anhand der Schadenmeldung die Bearbeitung vor.

Zumeist wird der Sachbearbeiter eine Mitteilung an den Anspruchsteller

diktieren. Der Schreibdienst erstellt zum digitalen

Diktat ein digitales Dokument, das der Sachbearbeiter

der elektronischen Akte hinzufügt. Um das Dokument an

den Anspruchsteller zu versenden, leitet der Sachbearbeiter

das Dokument per Knopfdruck weiter. Sekunden später ist

das Schreiben in der Druckstelle. Dort werden die Dokumente

zentral gesammelt und gedruckt - täglich bis zu 1.500

Schreiben. „Für den KSA heißt Fortschritt im Büro heute,

die papiergebundene Organisation zu überwinden. Die

elektronische Verteilung von Dokumenten und Vorgängen

führt zu einer erheblichen Steigerung der Produktivität,

Effizienz und Geschwindigkeit von Geschäftsprozessen. Die

Durchlaufzeiten werden durch den Wegfall der Transport-,

Liege- und Wartezeiten erheblich beschleunigt, was auch einen

wesentlichen Vorteil im Bereich der Telearbeit darstellt“,

erläutert Dr. Bernd Kathe, Abteilungsleiter KSA, den Nutzen

der SER-Lösung.

Durch die Einführung des Workflows kann der KSA

außerdem die Telearbeit (Homeworking) ausweiten, was

weitere Bürofläche einspart und somit einem Anstieg der

Verwaltungskosten entgegenwirkt. Die Mitarbeiter können

noch flexibler mit ihrer Zeit umgehen. Vordergründig ist

jedoch die Verbesserung der Schadenbearbeitung in qualitativer

und quantitativer Hinsicht, die bessere Betreuung

der Mitglieder, die sich in der Endausbaustufe ihre Akten

sogar im Online-Mitgliederservice ansehen können.

Vollintegrierte Lösung

Bei dem KSA hat SER eine ganzheitliche, integrierte Lösung

geschaffen, die den gesamten Prozess vom Posteingang bis

zur Druckausgabe der Ausgangspost umfasst. Die Lösung

integriert die Module der DOXiS iECM-Suite von SER zur

Dokumentenerfassung, Posteingangsbearbeitung, Archivierung

und Vorgangsbearbeitung mit verschiedenen KSA-

Systemen wie die Diktiersoftware und die KSA-Datenbank

zur Schadenbearbeitung. Über den DOXiS Outlook Client

erreichen die Sachbearbeiter alle benötigten Funktionen.

Bärbel Heuser-Roth

SER Solutions Deutschland


076 Alltag

News Veranstaltungen

26.-28.09. Der Betriebsrat in der IT-Branche, Sindelfingen

Outsourcing und Offshoring, Flexibilisierung der Arbeitszeiten und neue

Vergütungsmodelle stehen im Vordergrund. Zu diesen u. a. Themen konnten

Betriebsräte von IBM, T-Systems, Oracle und anderen für ein Intensiv-

Seminar gewonnen werden.

www.iir.de/betriebsrat-it

21.-22.09. WCC Websphere Community Conference 2006, Frankfurt

Alles über IBM Websphere plus einer Zertifizierung vor Ort. Die Tagung wird in Kooperation

mit der Usergroup Common Deutschland e. V. veranstaltet.

www.dnug.de

Adlershofer Business Talk:

Media meets Technology

Best-Practise-Beispiele von innovativen Medien- und

IT-Unternehmen, die im internationalen Wettbewerb

stehen. Keynotes von renommierten Medienmachern

und Vordenkern, die über die neuen Medientrends und

Marktentwicklungen berichten.

10. Oktober 2006, Berlin

www.adlershof.de/business-talk, Fon 0 30 - 63 92 39 24,

heidrun.wuttke@adlershof-projekt.de.

Anzeige

www.adlershof.de

28.-29.09. Elektronisches Dokumenten Management, München

Zweitägiges Intensiv-Seminar über Grundlagen, Architekturen, Begriffe, Technologien

und Markt. Plus praktische Aspekte im operativen Einsatz, Wirtschaftlichkeit,

rechtliche und organisatorische Rahmenbedingungen sowie Evaluation von Systemen.

www.zoeller.de

veranstaltungen@hw-medien.de $

16.10. Die Umsetzung des ERA in mySAP HCM, München

Das Intensiv-Seminar informiert darüber, wie die bislang umfangreichste

Tarifreform (ERA-TV) der deutschen Metall- und Elektroindustrie in

SAP-Systeme umgesetzt wird.

www.management-forum.de

18.-19.10. voice days 2006, Bonn

Die Initiative VOICE BUSINESS setzt sich

für Sprachtechnologien und -anwendungen

ein. Mit ihrem Aktionsprogramm will die

Initiative dazu beitragen, Marktentwicklung

und -potenziale positiv zu beeinflussen

und zu fördern.

www.voiceaward.de

15./16.11.06. MAM-Forum Frankfurt/München

Unternehmen müssen ihre unstrukturierten digitalen

Inhalte (E-Mail, Text, Bild, Grafik, Audio- und Videokomponenten)

zentral verwalten, global verfügbar machen und

strukturiert distribuieren. Die Veranstaltung zeigt die An-

und Herausforderungen für das Management in Marketing

& Kommunikation.

www.marketinghub.ch


09.10. Elektronisches Dokumenten Management, Frankfurt

Zweitägiges Intensiv-Seminar über Grundlagen, Architekturen, Begriffe,

Technologien und Markt. Plus praktische Aspekte im operativen Einsatz,

Wirtschaftlichkeit, rechtliche und organisatorische Rahmenbedingungen

sowie Evaluation von Systemen.

www.vereon.ch

11.-12.10. OSS2006, Esslingen

Ziel des Symposiums ist es, Entscheidungshilfen

zur Ausrichtung zukünftiger

IT-Strategien in Unternehmen und

öffentlichen Verwaltungen zu geben.

Der Fokus liegt auf offenen Software-

Systemen und Technologien.

www.tae.de/kolloquien-symposien.html

19.-21.09. DSAG Jahreskongress 2006, Leipzig

Auf dem Jahreskongress geht es um die SAP-Business-Process-Plattform

und die entsprechenden Plattformstrategien.

Frei nach dem Motto: Auf dem Weg zur Geschäftsprozess-

Plattform - was bedeutet das für Sie?

www.dsag.de

28.-29.09. ECR-Tag, München

Deutschlands Branchentreff zu ECR-

Themen wie RFID/EPC, Supply

Chain und Category Management

erwartet rund 1.400 Entscheider aus

Industrie, Handel und IT. Neben der

Konsumgüterindustrie wird dieses

Jahr auch die Bau- und Textilbranche

angesprochen.

www.gs1-germany.de

5. Contentmanager.days

20.09. Rechtliche Aspekte der elektronischen Archivierung, Zürich

Seit der Revision der Vorschriften des OR über die kaufmännische Buchführung dürfen

geschäftsrelevante Dokumente auch elektronisch archiviert werden. Informieren

Sie sich in diesem Seminar darüber, welche grundlegenden gesetzlichen Anforderungen

Sie bei der Umstellung vom Papierarchiv auf ein elektronisches Archiv erfüllen

müssen.

www.vereon.ch/rea.htm

Der führende Fachkongress zum Thema Content

Management zeigt in zwei parallelen Vortragsreihen

den strategischen Einsatz von Content-Management-

Systemen in Unternehmen. Eine hochkarätige Abendveranstaltung

sorgt für den informellen Austausch der

Content-Management-Anwender und -Experten.

23.-24. November 2006, Leipzig

www.contentmanagerdays.de, 0 89 - 78 06 07 17.

Anzeige

www.contentmanagerdays.de

$

News Veranstaltungen

25.-27.09. European EXPP-Summit 2006, Berlin

Like in 2005 at the European EXPP Summit you will meet

the market-insiders, experts, pioneers as well as the newbies.

The most important solution and service providers will have

the opportunity to show competence in the exhibition and

to network with valueable future customers from IT and

Finance divisions.

www.expp-summit.com

C//DATE VERANSTALTUNGEN

Schicken Sie uns Ihre Veranstaltungstermine!

077


078 Alltag

nachgefragt

Grundlage Workflow

‚Dokumentenmanagement und elektronische Archivierung’

hat unter dem Kürzel DOMEA in der öffentlichen

Verwaltung eine wechselvolle Vergangenheit. Einst als Rahmenkonzept

für DMS-Lösungen gedacht, durften in der

Folge auch die Hersteller ein DOMEA-Zertifikat auf ihre

Systeme kleben. Wirklich wichtige Komponenten blieben

von der Zertifizierung jedoch unberührt. Heute weiß niemand

so recht, was DOMEA jetzt und in der Zukunft leisten

kann und soll.

Dennoch hat DOMEA in der Vergangenheit durchaus

seinen Sinn gehabt, so wie beim Bundesamt für Migration

und Flüchtlinge in Nürnberg. Im Rahmen größerer Infrastrukturmaßnahmen

wurden dort ab 2001 die Mitarbeiter

flächendeckend mit PCs ausgestattet. Das gesamte Projekt

war einen zweistelligen Millionenbetrag schwer und beinhaltete

unter anderem die Einführung von Workflows für die

Bearbeitung der Akten.

Von Asylon zu DOMEA

„Das war das größte Projekt, das wir jemals durchgeführt

haben“, sagt Marc Niedenzu, der heute Referatsleiter für

Softwareproduktion und -weiterentwicklung ist. Als man

1998 entschied, das Altprodukt ‚Asylon’ abzulösen, war

Niedenzu als Referatsleiter IT-Services an der Evaluation

und Implementierung des neuen Systems beteiligt. Asylon

war veraltet und ließ sich nicht mehr ausbauen, geschweige

denn warten. „Asylon hatte eine zentrale Struktur, wir

aber sind dezentral organisiert“, beschreibt Niedenzu einen

wesentlichen Nachteil des alten Systems. Da ab 1993 die Bearbeitung

der Anträge flächendeckend in die Außenstellen

verlagert wurde, war eine strukturelle Änderung dringend

notwendig. „Es gab eine rein elektronische Akte, die sehr

rudimentär gestaltet war. Das war´s. Das System war parallel

zur gesamten Bürokommunikation entstanden.“

Kunde ... Bundesamt für Migration und Flüchtlinge

Dienstleister ... Siemens Business Service

System ... Open Text

Projektdauer ... ca. 4 Jahre

.

Anzahl Anwender ... ca. 1.500 Arbeitsplätze

Kontakt ... www.sbs.de

‚Soft-Start‘ für die Außenstellen

DOMEA wurde damals nicht als Rahmenkonzept gewählt,

sondern es ging um die Suche nach einem zertifizierten

Produkt. Insbesondere das Workflow-Modul stand im

Vordergrund. Die Ausschreibung des Projektes ging an

Siemens Business Service (SBS), das Workflow-Modul

kam, DOMEA-zertifiziert, von Open Text, frisch von SER

eingekauft. Stellvertretend für die gesamte Organisation

ließ das Bundesamt eine seiner Außenstellen ihre Verfahren

beschreiben.

Heraus kam ein Pflichtenheft, das SBS als Grundlage für

einen Prototypen der Anwendung diente, der wiederum in

der Außenstelle getestet wurde. „Nach diesem Soft-Start haben

wir schrittweise das System in den anderen Außenstellen

implementiert“, sagt Niedenzu. „Zwar war angedacht, zu

einem Zeitpunk x einfach nur einen roten Schalter umzulegen,

doch diese Variante war die bessere.“

Dass die Workflow-Komponente von Open Text eigene

Modifikationen zuließ, kam dem Bundesamt entgegen. „Es

war damals das einzige Produkt, was diese Möglichkeit bot.

Und genau das haben wir später gebraucht, denn die Außenstellen

haben aufgrund ihrer örtlichen Gegebenheiten

ihre eigenen Ausprägungen in den Abläufen.“

Workflow, der bleibt

nachgefragt@hw-medien.de

2003 war der flächendeckende Einsatz, zurzeit werden die

Gerichte online in die Abläufe mit eingebunden. 2004 dann

wurde das neue System, für das es zum damaligen Zeitpunkt

keine Vorlage gab, auf der CeBIT vorgestellt. In der Folge

kamen sogar ausländische Delegationen nach Nürnberg,

um sich die Lösung vorführen zu lassen. Grundlage dafür

ist weiterhin das von SBS entwickelte System mit der Workflow-Komponente

von Open Text. Marc Niedenzu über den

Verlauf des Projektes: „Im Nachhinein hätte sicher einiges

einfacher gelöst werden können, in der Summe aber ist das

Resultat positiv. Wir können heute auch viele Bausteine

selbst programmieren, ein Gewinn für unsere Mitarbeiter.

Aus unserer Sicht ist das Produkt zukunftsfähig. Deshalb

wollen wir von DOMEA 3.1 auf 4.0 umstellen.“

Die Verbesserungen, die mit der Einführung des Systems

kamen, sind bis heute geblieben: ein beschleunigtes Verfahren,

Akteneinsicht über die Außenstellen hinweg und generell

mehr Information über die Vorgänge. Marc Niedenzu:

„Das Projekt hat insgesamt vier Jahre gedauert. Es gab den

einen oder anderen Rückschlag. Aber wir hatten keinen Datenverlust,

keinen Ausfall während der Implementierung.

Und die Mitarbeiter arbeiten produktiv mit dem System.“


myOpenFactory

Als erfolgreiche Strategie deutscher Maschinen- und

Anlagenbauer gilt seit vielen Jahren die Konzentration auf

die Kernkompetenzen. Dadurch ist eine Vielzahl von Unternehmen

in die Entwicklung und Produktion eingebunden.

Nur so entsteht ein Kompetenznetzwerk, welches die hohe

Qualität der Erzeugnisse sicher stellt.

Lückenhafte Bestellabwicklung

Obwohl die Effi zienz der unternehmensübergreifenden

Zusammenarbeit einen hohen Einfl uss auf die Wettbewerbsfähigkeit

des Standorts Deutschland hat, mangelt es in

Bezug auf Kommunikationsprozesse und -hilfsmittel im Informationszeitalter

noch oft an den erforderlichen organisatorischen

und informationstechnischen Voraussetzungen

für einen effi zienten Austausch der zentralen Nachrichten

zur Bestellabwicklung.

Wie eine aktuelle Studie des Forschungsinstituts für Rationalisierung

(FIR) an der RWTH Aachen zeigt, stellen

aufgrund der fehlenden Kompatibilität unterschiedlicher

ERP-Systeme Telefon, Fax und Briefpost nach wie vor die

wichtigsten Kommunikationsmittel im Maschinen- und

Anlagenbau dar. Durch die papierbasierte Auftragsabwicklung

entstehen Medienbrüche. Medienbrüche, die durch

nicht wertschöpfende Routinetätigkeiten mit hohem Zeit-

und Personalaufwand bezahlt werden. Darüber hinaus ist

die niedrige Transparenz des Auftragsfortschritts eine wesentliche

Ursache mangelhafter Termintreue.

Lösungsansätze

In den vergangenen Jahren propagierte Lösungsansätze

wie EDI (Electronic Data Interchange) erfordern in der Regel

einen hohen Zeit- und Kostenaufwand allein schon für

eine einzelne Kunden-Lieferanten-Beziehung. In typische

Projekte des Maschinen- und Anlagenbaus sind jedoch häufi

g mehrere hundert Lieferanten und Kooperationspartner

eingebunden. Gerade der Mittelstand benötigt daher eine

Lösung, die zu minimalem Investitionsaufwand eine effi ziente

Auftragsabwicklung auch in kurzfristigen Geschäftsbeziehungen

ermöglicht.

Ziel der Initiative myOpenFactory und dems gegründeten

Konsortiums war und ist es daher, einen entsprechenden

Lösungsansatz bereitzustellen. Dem Konsortium gehören

neben den beiden Aachener RWTH-Instituten, FIR und

WZL u. a. renommierte Unternehmen wie Siemens, Burkhardt

oder Otto Junker als Anwender an. Das Konsortium

Forschung

079

wird ergänzt von den ERP-Anbietern Infor, proALPHA und

PSIPENTA. Die Aufgabe: Einen Daten- und Ablaufstandard

für die speziellen Anforderungen des Maschinen- und

Anlagenbaus zu entwickeln. Einen Quasi-Standard, der in

Zukunft den effi zienten Datenaustausch zwischen verschiedenen

ERP-Systemen unterstützen soll.

Auch als Web-Cockpit gedacht

Für Unternehmen ohne eigenes ERP-System bildet ein

internetbasiertes Koordinationsinstrument (Web-Cockpit)

die zentrale Einheit. Es stellt die erforderliche Basisfunktionalität

bereit wie das Erstellen und Versenden von Anfragen

oder Angeboten. Der entwickelte Quasi-Standard, dessen

zweites Release im Juli 2006 veröffentlicht wurde, wird eine

kostengünstige und einfache Partizipation an der integrierten

überbetrieblichen Auftragsabwicklung ermöglichen. Ein

innovatives Geschäftsmodell sichert die Anwendung ohne

Anfangsinvestition und zu niedrigen Gebühren, so dass sich

Anwender die schnelle Realisierung hoher Nutzenpotenziale

von der Lösung versprechen.

Projektzeitraum

Das Projekt myOpenFactory wird im Zeitraum vom

01.04.2004 bis 31.03.2007 mit Mitteln des Bundesministeriums

für Bildung und Forschung (BMBF) gefördert und

vom Projektträger Forschungszentrum Karlsruhe (PTKA)

betreut. Schon heute ist die Marktfähigkeit und Verbreitung

des entwickelten Daten- und Prozess-Standards nach

Ende der Projektlaufzeit sichergestellt. In diesem Zusammenhang

wird derzeit zur Verbreitung, Weiterentwicklung

und Pfl ege des Standards eine Genossenschaft gegründet, in

der in Zukunft über die Anbieter des Konsortiums hinaus

weitere ERP-Anbieter zusammenarbeiten. In verschiedenen

Anbieter-Arbeitskreisen und viel versprechenden Kooperationsgesprächen

haben außerdem zahlreiche ERP-Systemanbieter

ihr Interesse bekundet, so dass eine hohe Durchdringung

des ERP-Marktes mit dem neuen Quasi-Standard

myOpenFactory zu erwarten ist.

Dipl. Ing. Benedikt Schweicher

Der studierte Maschinenbauer, Jahrgang 1978,

ist wissenschaftlicher Mitarbeiter und Projekt-

leiter am Forschungsinstitut für Rationalisierung

(FIR) in Aachen.


080 Alltag

in die Nesseln

Die Anwender mit verschenkter Software anfixen und später,

wenn das System läuft, Gebühren zu erheben, ist weder

neu noch besonders originell. Wird aber immer wieder gern

gemacht, um überhaupt in den Markt zu kommen. Auch

Imperia hat Lizenzen ‚verschenkt‘, auch wenn das anders

hieß. Allerdings mit mäßigem Erfolg, wenn man dem Flurfunk

glaubt. Okay, das System hat sich weiterentwickelt und

eine erkennbare Verbreitung. Aber haben die Imperianer

nach der Übernahme von Pironet ihr Reich nicht überdehnt?

Ein Vertriebler erzählt, dass Imperia auf einmal auch

nichts mehr zu verschenken habe. Gerüchte und Gehörtes

zusammengezählt – spürt da ein alter Imperator den heißen

Atem der Verfolger im Nacken?

Das kleine 1&1 des Ärgerns

Im August 2005 eine 6 Mbit/DSL-Leitung bei 1&1 bestellt.

Im November eine 1 Mbit-Leitung bekommen. Wer

von ISDN auf DSL umsteigt, freut sich über leidlich bessere

Performance, bemerkt die Leistungsdrosselung jedoch nie.

Es sei denn, der Kunde kennt sich aus, so wie in diesem Fall.

Aber hier hilft Wünschen auf gar keinen Fall: Im Zuge der

Umstellung wurde die Leitung sogar dreimal abgeklemmt.

Oder: Die Fritz-Box „trainiert“ sich einen Wolf, wie es im

Journal der Ereignisse heißt. Der Grund: DSL-Down. Alle

3 Wochen 3-4 Tage Ausfall. Dann schickt der Herrgott den

Jockel aus: Der Kunde an 1&1, 1&1 an Telekom, Telekom

an 1&1, 1&1 an Kunden. Beim vierten Ausfall in 3 Monaten

ruft die Telekom an: Man habe den Fehler jetzt gefunden.

Und die defekte Platine ausgewechselt. Dann ruft wieder der

1&1-Kundenservice an: Ob man zufrieden sei?

Geldscheine zu Heizbriketts

Wenn der Staat die qualifizierte Signatur salonfähig machen

will, sollte er bald beginnen. Am besten da, wo der

ein oder andere Euro nicht so ins Gewicht fällt: Bei den

Bundesministerien für Gesundheit und für Arbeit. Deren

Aufsichtsorgane wollen die Sozialversicherungen anscheinend

zwingen, qualifizierte Signaturen in allen möglichen

bürokratischen Prozessen einzusetzen. Natürlich gerne auch

dort, wo die Signatur gar nicht geeignet ist. Das dürfte ganz

im Sinne aller Staatsdiener sein: Bruttosozialprodukt qua Erlass

verbrennen und dafür sogar noch neue Sachbearbeiter

einstellen. Diese Klientel hat schon bei der Einführung von

Dokumenten-Management-Systemen den Gott-sei-bei-uns

gesehen. Innovativ ist diese Idee allenfalls unter dem Aspekt,

was einem so alles beim Kantinenessen einfallen kann.

Gedoptes IOC?

Nach der WM ist vor den Olympischen Spielen. Hatte die

FIFA versucht, den Werbetreibenden sogar den Gebrauch

des nun harmlosen Kürzels „WM“ mit einstweiligen Verfügungen

zu vermiesen, kümmert sich jetzt das IOC um

seine Schätze. Mit durchaus vergleichbarer Humorlosigkeit,

wie man bei einem großen Unternehmen feststellen

musste. Während Peking als Ausrichter der nächsten Spiele

in immer neue Dimensionen staatlich geduldeter Produktpiraterie

vorstößt, nötig das Olympische Komittee einen

Weltkonzern zu einem Kotau in Sachen Markenschutz.

Man habe den Begriff ‚Olympische Spiele‘ irgendwo in irgendwelchen

Publikationen unberechtigterweise verwendet.

Nun ist die Metro gerade in Hamburg mit ihrem Begehr abgeschmettert

worden, die dort verkehrenden ‚Metro‘-Busse

namentlich verbieten zu wollen. Wer aber richtet über das

jahrelang von Samaranchs Hand gefütterte Aufsichtspersonal

der Olympioniken? Und: Hat sich mal irgendwer

überlegt, dass es gerade die Intelligenz ist, die einem gewisse

Dinge verbieten sollte, selbst wenn man dafür einen ebenso

fähigen wie haltungsarmen Juristen mieten kann?


Vor dem heißen Herbst

Am 13. Juli schlossen die siebenten Mailingtage. Die Geschäftsleitung

verkündet mit 36 Prozent Plus einen neuen

Ausstellerrekord, davon waren 53 Prozent Fachbesucher.

Vor dem Hintergrund, dass der Deutsche Direktmarketing

Verband (DVV) nach 30 Jahren die Direktmarketing-Messe

DIMA aufgibt, steht der Rekord in einem anderen Licht.

Schließlich brauchen die Direktmarketing-Strategen ein

Dach über dem Kopf. Eines wie die NürnbergMesse. Viele

Aussteller gaben sich positiv und sprachen dem Veranstalter

ihr Vertrauen aus. Von den zuletzt überzogenen Methoden

des DVV war in Nürnberg nichts zu spüren. Die Aussteller

erhielten auf Wunsch gar ein Extra-Kontigent an Eintrittskarten:

gratis. „Das war nicht wirklich üblich“, so ein

Aussteller, der sich über die Abzocke zuletzt in Düsseldorf

verärgert Luft macht. Wie es weitergeht: vielversprechend.

Die Vorbereitungen für die achten Mailingtage haben bereits

begonnen.

In geschlossenen Räumen zum Ziel

Die AGIT EXPO 2006 war mit mehr als 60 ausstellenden

Unternehmen, Verbänden und Behörden wieder Treffpunkt

für Anwender von raumbezogenen Informationstechnologien.

Geoinformatik steht ganz oben auf der Tagesordnung.

Das um die EXPO Time erweiterte Konzept fand Anklang

bei allen Besuchern. Besonderes Highlight: die Fußgängernavigation

Inhouse. Anders als bekannte Technologien, mit

denen die Navigation zu Fuß, im Auto und mit anderen

Fortbewegungsmitteln funktioniert, leiten nach Vorstellungen

von Experten künftig so genannte ‚Beacons‘ den

Fußgänger in geschlossenen Gebäuden zum Ziel. Beacons

sind kleine Bluetooth-Sender, teuer und aufwändig im

Einsatz. Gebäude, in denen Beacons installiert sind, müssen

extra vermessen werden. Noch stehen Aufwand und Nutzen

in einem recht klaren Missverhältnis einander gegenüber.

Aber es wäre nicht das erste Mal, dass neue Technologien

mit einem Entwicklungsschub marktreif werden. Und falls

nicht, liebe Entwickler, könnte man ganz in der kulturellen

Tradition des Abendlandes sich des hergebrachten Zeichensystems

bedienen und einfach ein Schild aufstellen.

BPM-Shootout

Im Juni fand in Karlsruhe im Rahmen der IT-Messe

Midvision der erste BPM-Shootout statt: nur am Rande

wahrgenommen, doch sicher mit Modellcharakter. Bei

diesem ersten offiziellen Prozessmodellierungs-Shootout-

der Beobachter

081

Event Deutschlands stellten sich vier Softwarehersteller

der Modellierung einer speziellen und zuvor unbekannten

Aufgabe zum Thema prozessorientierte Unternehmensabläufe

in einem Live-Vergleich. Unter den Augen von etwa 50

Besuchern ... Zu den vier Teilnehmern gehörten Dr. Binner

Consulting & Software aus Hannover (Team 4), die Emprise

Process Management GmbH aus Berlin (Team 1), die intellior

AG aus Stuttgart (Team 2) sowie die Firma Corel iGrafx

(Team 3) aus Unterschleißheim.

Publisher

Ein Nachtrag für die Publisher: Ende Mai und Anfang Juni

stellte Quark weltweit die Version 7 von QuarkXPress vor,

auch im Palais im Zoo, Frankfurt am Main. Wir waren dabei

und beindruckt von der verbesserten Maßtabelle und

den Palettengruppen. Grafiker machen die Farben jetzt in

der gewohnten Arbeitsumgebung transparent, auch Verläufe

und vieles mehr ist möglich. Neu ist die mitgelieferte

Produktschulung via VHS-Video: Das freut vor allem den,

der seinen Videorekorder noch nicht ausgemistet hat. Mal

sehen, ob das reicht, InDesign Paroli zu bieten ...


082

Ausblick / Impressum

Ausblick Ausgabe #4-2006:

„E-Government“

Titelthema des nächsten Heftes: E-Govermnent. Wo steht

Deutschland im internationalen Vergleich? BundOnline

2006 – was passiert danach? Das Fraunhofer eGovernment

Zentrum berichtet über den Umbruch in der Verwaltung

und die Strategien zur Modernisierung. Aus dem Bundesministerium

des Inneren erfahren wir, welche Projekte im

Rahmen der Bundesverwaltung besonders interessant sind.

In der Galerie sind wir auf den Spuren der Computer unterwegs.

c//mag berichtet über die Modalitäten bei öffentlichen Ausschreibungen

und Vergabeverfahren.

Die „Gewissensfrage“ lautet diesmal: „Kann ich am PC

rechtsgültig unterschreiben? Und was ist meine elektronische

Unterschrift wert?“

Die Lernprozesse in Unternehmen verlagern sich zu den

Mitarbeitern. Lernarchitekturen helfen, Bildungsmaßnahmen

zu organisieren und messbar zu machen.

Wie die elektronische Personalakte in großen Unternehmen

die Arbeit der HR-Manager umgekrempelt hat, lesen

Sie ebenfalls im c//mag.

Df, AttitudesPlain, 50 pt, Taste w

w

Errata Ausgabe #2-06

Wir entschuldigen uns für die Fehler der letzten Ausgabe:

Im Brief an den IT-Leiter lautet die korrekte Schreibweise

des Unternehmens „TRUMPF Werkzeugmaschinen GmbH

& Co. KG“.

Impressum

hw medien OHG, Hagenring 39, 63303 Dreieich

fon +01 70. 31 05 849 / +01 72. 82 34 994

fax +01 80. 54 02 52 53 806

info@hw-medien.de, www.hw-medien.de

ISSN-Nr. 1861-6518

Herausgeber: Uwe Hentschel (uwe.hentschel@hw-medien.de)

Chefredaktion: Volker Watschounek (volker.watschounek@hw-medien.de)

Anzeigenleitung: Stefan Pierre-Louis (anzeigen@hw-medien.de)

Redaktionelle Mitarbeit: Heinz-Paul Bonn, Prof. Dr. Klaus Greve, Dr. Görres

Grenzdörffer, Christian Günster, Bärbel Heuser-Roth, Engelbert Hörmannsdorfer,

Carsten Leininger, Jacklin Montag, Karl Heinz Mosbach, Ralph Peter Rauchfuss,

Dr. Achim Reuther, Johannes Schacht, Benedikt Schweicher, Christian Stammel,

Joachim Walter, Prof. Dr. Berbeli Wanning.

Schlussredaktion: Jochen Wilhelm, www.kwick-box.de

Druck: SDV die Medien AG www.sdv.de

Bildnachweise: aboutpixel.de (Seite 43, 70, 71). DLR (Seite 27), E-Garten.Net (Seite

69), fotalia.de (Seite 8, 16, 23), Garmin (11), good news! (Seite 47), Uwe Hentschel

(80), Photocase (Seite 12, 13, 15, 27, 65, 77), Metro (Seite 59), O2 (32), Sceye (10),

Volker Watschounek (Seite 3, 6, 8, 38, 39, 40, 41, 54, 55, 65, 81)

Beirat: Dr. Harald Gerlach, Lehrstuhl „Technische Dokumentation“, Fachhochschule

Neu-Ulm, Prof. Jürg Häusermann, Lehrstuhl Medienpraxis, Medienanalyse und Me-

dienproduktion, Universität Tübingen, Dr. Ulrich Kampffmeyer, Unternehmensbera-

ter, Analyst, Autor und langjähriger Vorstand von DMS-Branchenverbänden wie IMC,

AIIM und VOI e.V., Prof. Dr. Hermann Maurer, Institut für Informationsverarbeitung

und Computergestützte neue Medien (IICM), Technische Universität Graz, Prof. Dr.

Sonja-Maria Salmen, Professorin für Betriebswirtschaftslehre sowie Relationship Ma-

nagement im Studiengang Electronic Business an der Hochschule Heilbronn

Abonnement Inland: 6 Ausgaben jährlich 42,60 EUR inkl. Versandkosten zzgl. Mehr-

wertsteuer. Ausland: 6 Ausgaben jährlich 48,60 EUR inkl. Versandkosten zzgl. Mehr-

wertsteuer. Falls 4 Wochen vor Ablauf des Abonnements keine Kündigung eingeht,

verlängert sich das Abonnement um ein weiteres Jahr.

Disclaimer: Die in dieser Ausgabe veröffentlichten Beiträge sind urheberrechtlich

geschützt und liegen in der Verantwortung des betreffenden Autors. Die Haftung

für die Richtigkeit der Veröffentlichung kann trotz Prüfung durch die Redaktion und

vom Herausgeber nicht übernommen werden. Alle Angaben erfolgen nach bestem

Wissen, jedoch ohne Gewähr. Nachdruck, auch auszugsweise, nur mit Genehmigung

des Verlages gestattet.

Sponsoren-Abonnements:


082

Ausblick / Impressum

Ausblick Ausgabe #4-2006:

„E-Government“

Titelthema des nächsten Heftes: E-Govermnent. Wo steht

Deutschland im internationalen Vergleich? BundOnline

2006 – was passiert danach? Das Fraunhofer eGovernment

Zentrum berichtet über den Umbruch in der Verwaltung

und die Strategien zur Modernisierung. Aus dem Bundesministerium

des Inneren erfahren wir, welche Projekte im

Rahmen der Bundesverwaltung besonders interessant sind.

In der Galerie sind wir auf den Spuren der Computer unterwegs.

c//mag berichtet über die Modalitäten bei öffentlichen Ausschreibungen

und Vergabeverfahren.

Die „Gewissensfrage“ lautet diesmal: „Kann ich am PC

rechtsgültig unterschreiben? Und was ist meine elektronische

Unterschrift wert?“

Die Lernprozesse in Unternehmen verlagern sich zu den

Mitarbeitern. Lernarchitekturen helfen, Bildungsmaßnahmen

zu organisieren und messbar zu machen.

Wie die elektronische Personalakte in großen Unternehmen

die Arbeit der HR-Manager umgekrempelt hat, lesen

Sie ebenfalls im c//mag.

Df, AttitudesPlain, 50 pt, Taste w

w

Errata Ausgabe #2-06

Wir entschuldigen uns für die Fehler der letzten Ausgabe:

Im Brief an den IT-Leiter lautet die korrekte Schreibweise

des Unternehmens „TRUMPF Werkzeugmaschinen GmbH

& Co. KG“.

Impressum

hw medien OHG, Hagenring 39, 63303 Dreieich

fon +01 70. 31 05 849 / +01 72. 82 34 994

fax +01 80. 54 02 52 53 806

info@hw-medien.de, www.hw-medien.de

ISSN-Nr. 1861-6518

Herausgeber: Uwe Hentschel (uwe.hentschel@hw-medien.de)

Chefredaktion: Volker Watschounek (volker.watschounek@hw-medien.de)

Anzeigenleitung: Stefan Pierre-Louis (anzeigen@hw-medien.de)

Redaktionelle Mitarbeit: Heinz-Paul Bonn, Prof. Dr. Klaus Greve, Dr. Görres

Grenzdörffer, Christian Günster, Bärbel Heuser-Roth, Engelbert Hörmannsdorfer,

Carsten Leininger, Jacklin Montag, Karl Heinz Mosbach, Ralph Peter Rauchfuss,

Dr. Achim Reuther, Johannes Schacht, Benedikt Schweicher, Christian Stammel,

Joachim Walter, Prof. Dr. Berbeli Wanning.

Schlussredaktion: Jochen Wilhelm, www.kwick-box.de

Druck: SDV die Medien AG www.sdv.de

Bildnachweise: aboutpixel.de (Seite 43, 70, 71). DLR (Seite 27), E-Garten.Net (Seite

69), fotalia.de (Seite 8, 16, 23), Garmin (11), good news! (Seite 47), Uwe Hentschel

(80), Photocase (Seite 12, 13, 15, 27, 65, 77), Metro (Seite 59), O2 (32), Sceye (10),

Volker Watschounek (Seite 3, 6, 8, 38, 39, 40, 41, 54, 55, 65, 81)

Beirat: Dr. Harald Gerlach, Lehrstuhl „Technische Dokumentation“, Fachhochschule

Neu-Ulm, Prof. Jürg Häusermann, Lehrstuhl Medienpraxis, Medienanalyse und Me-

dienproduktion, Universität Tübingen, Dr. Ulrich Kampffmeyer, Unternehmensbera-

ter, Analyst, Autor und langjähriger Vorstand von DMS-Branchenverbänden wie IMC,

AIIM und VOI e.V., Prof. Dr. Hermann Maurer, Institut für Informationsverarbeitung

und Computergestützte neue Medien (IICM), Technische Universität Graz, Prof. Dr.

Sonja-Maria Salmen, Professorin für Betriebswirtschaftslehre sowie Relationship Ma-

nagement im Studiengang Electronic Business an der Hochschule Heilbronn

Abonnement Inland: 6 Ausgaben jährlich 42,60 EUR inkl. Versandkosten zzgl. Mehr-

wertsteuer. Ausland: 6 Ausgaben jährlich 48,60 EUR inkl. Versandkosten zzgl. Mehr-

wertsteuer. Falls 4 Wochen vor Ablauf des Abonnements keine Kündigung eingeht,

verlängert sich das Abonnement um ein weiteres Jahr.

Disclaimer: Die in dieser Ausgabe veröffentlichten Beiträge sind urheberrechtlich

geschützt und liegen in der Verantwortung des betreffenden Autors. Die Haftung

für die Richtigkeit der Veröffentlichung kann trotz Prüfung durch die Redaktion und

vom Herausgeber nicht übernommen werden. Alle Angaben erfolgen nach bestem

Wissen, jedoch ohne Gewähr. Nachdruck, auch auszugsweise, nur mit Genehmigung

des Verlages gestattet.

Sponsoren-Abonnements:


082

Ausblick / Impressum

Ausblick Ausgabe #4-2006:

„E-Government“

Titelthema des nächsten Heftes: E-Govermnent. Wo steht

Deutschland im internationalen Vergleich? BundOnline

2006 – was passiert danach? Das Fraunhofer eGovernment

Zentrum berichtet über den Umbruch in der Verwaltung

und die Strategien zur Modernisierung. Aus dem Bundesministerium

des Inneren erfahren wir, welche Projekte im

Rahmen der Bundesverwaltung besonders interessant sind.

In der Galerie sind wir auf den Spuren der Computer unterwegs.

c//mag berichtet über die Modalitäten bei öffentlichen Ausschreibungen

und Vergabeverfahren.

Die „Gewissensfrage“ lautet diesmal: „Kann ich am PC

rechtsgültig unterschreiben? Und was ist meine elektronische

Unterschrift wert?“

Die Lernprozesse in Unternehmen verlagern sich zu den

Mitarbeitern. Lernarchitekturen helfen, Bildungsmaßnahmen

zu organisieren und messbar zu machen.

Wie die elektronische Personalakte in großen Unternehmen

die Arbeit der HR-Manager umgekrempelt hat, lesen

Sie ebenfalls im c//mag.

Df, AttitudesPlain, 50 pt, Taste w

w

Errata Ausgabe #2-06

Wir entschuldigen uns für die Fehler der letzten Ausgabe:

Im Brief an den IT-Leiter lautet die korrekte Schreibweise

des Unternehmens „TRUMPF Werkzeugmaschinen GmbH

& Co. KG“.

Impressum

hw medien OHG, Hagenring 39, 63303 Dreieich

fon +01 70. 31 05 849 / +01 72. 82 34 994

fax +01 80. 54 02 52 53 806

info@hw-medien.de, www.hw-medien.de

ISSN-Nr. 1861-6518

Herausgeber: Uwe Hentschel (uwe.hentschel@hw-medien.de)

Chefredaktion: Volker Watschounek (volker.watschounek@hw-medien.de)

Anzeigenleitung: Stefan Pierre-Louis (anzeigen@hw-medien.de)

Redaktionelle Mitarbeit: Heinz-Paul Bonn, Prof. Dr. Klaus Greve, Dr. Görres

Grenzdörffer, Christian Günster, Bärbel Heuser-Roth, Engelbert Hörmannsdorfer,

Carsten Leininger, Jacklin Montag, Karl Heinz Mosbach, Ralph Peter Rauchfuss,

Dr. Achim Reuther, Johannes Schacht, Benedikt Schweicher, Christian Stammel,

Joachim Walter, Prof. Dr. Berbeli Wanning.

Schlussredaktion: Jochen Wilhelm, www.kwick-box.de

Druck: SDV die Medien AG www.sdv.de

Bildnachweise: aboutpixel.de (Seite 43, 70, 71). DLR (Seite 27), E-Garten.Net (Seite

69), fotalia.de (Seite 8, 16, 23), Garmin (11), good news! (Seite 47), Uwe Hentschel

(80), Photocase (Seite 12, 13, 15, 27, 65, 77), Metro (Seite 59), O2 (32), Sceye (10),

Volker Watschounek (Seite 3, 6, 8, 38, 39, 40, 41, 54, 55, 65, 81)

Beirat: Dr. Harald Gerlach, Lehrstuhl „Technische Dokumentation“, Fachhochschule

Neu-Ulm, Prof. Jürg Häusermann, Lehrstuhl Medienpraxis, Medienanalyse und Me-

dienproduktion, Universität Tübingen, Dr. Ulrich Kampffmeyer, Unternehmensbera-

ter, Analyst, Autor und langjähriger Vorstand von DMS-Branchenverbänden wie IMC,

AIIM und VOI e.V., Prof. Dr. Hermann Maurer, Institut für Informationsverarbeitung

und Computergestützte neue Medien (IICM), Technische Universität Graz, Prof. Dr.

Sonja-Maria Salmen, Professorin für Betriebswirtschaftslehre sowie Relationship Ma-

nagement im Studiengang Electronic Business an der Hochschule Heilbronn

Abonnement Inland: 6 Ausgaben jährlich 42,60 EUR inkl. Versandkosten zzgl. Mehr-

wertsteuer. Ausland: 6 Ausgaben jährlich 48,60 EUR inkl. Versandkosten zzgl. Mehr-

wertsteuer. Falls 4 Wochen vor Ablauf des Abonnements keine Kündigung eingeht,

verlängert sich das Abonnement um ein weiteres Jahr.

Disclaimer: Die in dieser Ausgabe veröffentlichten Beiträge sind urheberrechtlich

geschützt und liegen in der Verantwortung des betreffenden Autors. Die Haftung

für die Richtigkeit der Veröffentlichung kann trotz Prüfung durch die Redaktion und

vom Herausgeber nicht übernommen werden. Alle Angaben erfolgen nach bestem

Wissen, jedoch ohne Gewähr. Nachdruck, auch auszugsweise, nur mit Genehmigung

des Verlages gestattet.

Sponsoren-Abonnements:

Weitere Magazine dieses Users
Ähnliche Magazine