rAuMnutZung 2020

augmented.reading.de

rAuMnutZung 2020

AbstrAct

In dieser Arbeit wird auf Basis aktueller Trends und Ideen fundiert aufgezeigt in welche Richtung

sich das Computing in Zukunft entwickeln kann und welche Bedienkonzepte dafür denkbar sind.

Relevant ist hierbei auch ein Blick in die Vergangenheit des Computing: Welche Ideen gab es

und was setzte sich durch. Der Fokus der formulierten Ideen liegt nicht auf dem möglicherweise

technisch machbaren, sondern auf der Frage, welche Lösungen sich im Alltag bewähren und

etablieren könnten.


InhAlt

eInleItung >>6

Moores law >>6 / technologie als evolution >>6 / law of Accelerating >>6

begrIffe >>8

user >>10 / (Interaktions-)raum >>10 / Interface >>11

coMputergeschIchte I >>14

charles babbage >>16 und seine Analytical engine >>16 / herman

hollerith >>16 und die Volkszählung >>16 / Vannevar bushs >>17 Memex >>17

coMputergeschIchte II >>20

Konrad Zuse >>20 und sein Z3 >>20 / batch processing >>21 / timesharing

>>21 / sAge >>22 / Joseph licklider >>23 / Douglas engelbarts >>24

nls >>26 / sketchpad >>29 von Ivan sutherland >>29 / Alan Kays >>29

Dynabook >>30 / smalltalk >>30 / Xerox star >>30 / Desktop-Metapher >>32

coMputergegenWArt >>34

Über-Medium >>34 / Desktop-computing >>34 / World-Wide-Web >>34 / Mobile-

computing >>35


coMputerZuKunft >>36

ubiquitous computing >>38 & Mark Weiser >>38 / Augmented reality >>41 /

Wearable computing >>44 / natural user Interface >>48 / Ambient

Display >>52 / Agenten >>53 / cloud computing >>54

hoffnungen unD Ängste >>56

Kontrollverlust >>56 / technikpaternalismus >>56 / rückeroberung

menschlicher lebensstile >>57 / glück per Zwang >>58

prognostIK >>60

Demographie >>60 / technikfolgeabschätzung >>61 /

Komplexitätsforschung >>62

rAuMnutZung 2020 >>63

personal Device >>64 / sensoren >>67 / spiele >>68 / persönliche

präferenzen >>71 / Deckenkamera >>71 / Augmented reading >>71 / tuI-herd >>72

und Koch-programme >>72 / Interface-Arbeitsplatz >>74 / Intelligente

türklingel >>76 / tV >>76

schluss >>77


6 einleitung

eInleItung

Moores law >>6 / technologie als evolution >>6 / law of Accelerating >>6

Gordon Moore, Miterfinder des integrierten Schaltkreises, formuliert 1965 in einem Beitrag

für das Magazin „Electronics“ indirekt eine Gesetzmäßigkeit zur zukünftigen Entwicklung der

Rechenleistung des Computers: Es besagt, dass sich die Anzahl der Schaltkreise („components“),

pro Chip („circuit“), bei möglichst geringen Kosten pro Transistor, etwa jedes Jahr verdoppelt

(1975 passt er seine Gesetzmäßigkeit an: auf eine Verdopplung alle zwei Jahre). 1

Ray Kurzweil beruft sich 2001 in seinem Essay „The law of Accelerating

Returns“ auf Moores Gesetz und stellt es in den Gesamtzusammenhang eines „ongoing

evolutionary process of technology“. Diese Evolution ist in zeitlich

begrenzte Paradigmen zu unterteilen, die jedoch alle ein Ziel verfolgen: mehr Rechenleistung

zu geringerem Preis. Kommt ein Paradigma an seine physikalischen Grenzen, findet ein

fundamentales Umdenken statt, ohne jedoch den Trend als Solchen zu ändern. Moores Gesetz

stellt dabei lediglich das letzte von bisher fünf Paradigmen zur Leistungssteigerung bei

Computern dar, denn er bezieht sich ausschließlich auf die Technik integrierter Schaltkreise.

Kurzweil beschreibt entsprechend, dass sich die Leistung von Rechenmaschinen bereits seit Ende

des 18. Jahrhunderts kontinuierlich vervielfacht:

„It is important to note that Moore‘s Law of Integrated Circuits was not the first,

but the fifth paradigm to provide accelerating price-performance. Computing

devices have been consistently multiplying in power from the mechanical

calculating devices used in the 1890 U.S. Census, to Turing‘s relay-based

„Robinson“ machine that cracked the Nazi enigma code, to the CBS vacuum tube

computer that predicted the eletion of Eisenhower, to the transistor based machines

1 „Reduced cost is one of the big attractions of interated eletronics, and the cost advantage

continues to increase as the technology evolves toward the production of larger and larger

circuit functions on a single semiconductor substrate. (...) there is a minimum cost at any

given time in the evolution of the technology. At present, it is reached when 50 components

are used per circuit. (...) If we look ahead five years, a plot of costs suggests that the

minimum cost per component might be expected in circuits with about 1000 components

per circuit. (...) Over the longer term, the rate of increase is a bit more uncertain, although

there is no reason to believe it will not remain nearly constant for at least 10 years.“

Gordon E. Moore: »Cramming more componens onto integrated circuits«, in: Electronics,

Nr. 8 (1965)


used in the first space launches, to the integrated circuit-based personal computer

wich I used to dictate this essay.“ 2

Zukünftige Computergenerationen dürften also, weit über Moores Gesetz hinaus,

Beeindruckendes schaffen können. Die sich, bei gleichem Preis, exponentiell entwickelnde

Rechenleistung und der, im Umkehrschluss, stetig fallende Preis pro Rechenoperation, führt

zu immer mehr Anwendungsmöglichkeiten: Beispielhaft dafür ist die rasante Entwicklung im

Bereich der Smartphones. So sind aktuelle Geräte so leistungsstark, wie es ein PC noch vor etwa

10 Jahren war. 3 Entsprechend hat auch der Funktionsumfang zugenommen, was Designer und

Ingineuere vor große Herausforderungen im Bereich des User-Interface stellte und stellt. 4 Wie

lässt sich, um beim Beispiel des Smartphones zu bleiben, mit einem vergleichsweise winzigen

Display, elegant, effektiv und komfortabel durchs Web surfen? Die Vorstellung des Apple iPhone

im Jahr 2007 beantwortet diese Frage so: Ohne die bis dato übliche Tastatur, dafür jedoch mit

präzisem, kapazitivem Touchscreen, innovativer Benutzerführung und (beinahe) intuitiver

Bedienung (wie zum Beispiel das Pinch-To-Zoom-Prinzip).

Aktuelle Visionen, wie Ubiquitous Computing >>38 (deutsch: allgegenwärtige Datenverarbeitung5

), Embedded Computing – Computer, eingebettet in Alltagsgegenstände oder

2 Ray Kurzweil: »The Law of Accelerating Returns«, in: Stand 05.2010 http://www.

kurzweilai.net/artivles/art014.html

3 2010: 1GHz Snapdragon Prozessor etwa im Google Nexus One.

Siehe dazu etwa: http://www.google.com/phone/ (Stand 05.2010)

2000: Verkaufsstart des Intel Pentium III 1GHz. Siehe dazu: http://www.intel.com/design/

intarch/pentiumiii/pentiumiii.htm (Stand 05.2010)

4 Norman beschreibt die Entwicklung einer Technologie als U-förmige Komplexitätskurve:

„Anfangs hoch; dann auf einem niedrigen, bequemen Niveau; später wieder ansteigend.

Neuartige Geräte sind komplex und schwierig zu benutzen. Mit zunehmender Kompetenz

der Techniker (...) werden Geräte einfacher, zuverlässiger und leistungsstärker.“

Donald A. Norman: Dinge des Alltags: gutes Design und Psychologie für

Gebruachsgegenstände. New York und Frankfurt am Main 1989, S. 43

5 B. Fabian und M. Hansen: »Technische Grundlagen«, in: J. Bitzer u.a.(Hrsg.): TAUCIS –

Technikfolgenabschätzung Ubiquitäres Computing und informationelle Selbstbestimmung.

Studie im Auftrag des Bundesministeriums für Bildung und Forschung. Berlin und Kiel

2006. S. 11

7


8 einleitung

Wearable Computing >>44 – Computer in unserer Kleidung oder direkt auf der Haut, gehen noch

deutlich weiter. Die vorliegende Arbeit wird zunächst die Entwicklung des Computers mit

Fokus auf die Mensch-Computer-Interaktion (Englisch: „Human-Computer-Interaction“ oder

kurz: HCI) nachzeichnen >>12 >>18 , um dann ausführlich aktuelle Visionen >>36 zur zukünftigen

Computernutzung kritisch zu besprechen. Davon ausgehend wird dann eine eigene Idee zur

näheren Zukunft der Informationstechnologie entwickelt und formulieren. >>63


10 begriffe

begrIffe

user >>10 / (Interaktions-)raum >>10 / Interface >>11

Das Computing im Allgemeinen, wie die HCI im Besonderen, ist einem ständigen und schnellen

Wandel unterworfen. Dies hat auch Auswirkungen auf einige Fachbegriffe, deren Bedeutung im

Verlauf der Entwicklungen entsprechend variiert. Zu Beginn meiner Arbeit möchte ich deshalb

einige der betreffenden Begriffe kurz diskutieren.

Der user-Begriff und insbesondere dessen Rezeption in der Öffentlichkeit hat sich während

der bisherigen Entwicklung des Computing stark gewandelt. Waren vor 20 Jahren den meisten

Menschen Computer und deren User-Begriff noch weitestgehend fremd, so sieht sich heute der

Großteil der Bevölkerung, in zunehmendem Maße, mit Informationstechnologie konfrontiert.

Man nimmt sich immer mehr selbst als einen (Computer-)„User“ wahr.

Eine vieldiskutierte Vision für die Zukunft ist das Ubiquitous Computing >>38 , das davon ausgeht,

dass Computer, praktisch unsichtbar, in vielen Gegenständen des Alltags implementiert sein

werden. Damit würde der User-Begriff ein weiteres mal erweitert, denn dann wäre wirklich jeder

ein User. Und das häufig ohne es zu wissen oder zu bemerken.

Mit dem weiten Begriff des „raumes“ sei hier zunächst ein Raum der Interaktion mit einem

Computersystem (kurz: Interaktionsraum) bezeichnet. Dabei gilt es, den realen vom virtuellen

Raum abzugrenzen. Denn spätestens seit dem Graphical User Interface (kurz: GUI) und der weit

verbreiteten Desktop-Metapher spielt sich die Mensch-Computer-Interaktion in der Regel in einer

Kombination dieser beiden Bereiche ab: 6

So sitze ich – ganz real – vor meinem Computer und tippe diesen Text auf der Tastatur. Virtuell

bin ich, in meiner virtuellen Repräsentation als Cursor, in einem virtuellen Blatt Papier. Mein

Mauszeiger, das bin ich.

Was aber passiert mit dem Interaktionsraum, wenn Computer, wie oben beschrieben, überall

sind? Die Räume, virtuell und real, überlagern sich. Im Falle der Augmented Reality >>41 beispielsweise

interagiere ich in erster Linie dadurch, dass ich mich an einem bestimmten, realen,

6 Ein virtueller Raum lässt sich bei den frühen Rechenmaschinen nicht ausmachen.

Interaktionsraum waren lediglich die ganz realen Hebel und Kurbeln (siehe Kapitel

2.1.). Bereits bei den frühen Commandline-Interfaces jedoch kann man eine virtuelle

Repräsentation des Users und damit einen virtuellen Interaktionsraum erkennen. Besonders

deutlich wird dies im Falle der ersten „Chatrooms“ und bei Spielen wie zum Beispiel Pong.


Ort befinde, den das Computersystem erkennt und mir so gegebenenfalls Informationen oder

Hinweise anzeigen kann. So bin ich selbst, in meiner ganz realen Körperlichkeit, der „Mauszeiger“

im System. Von den räumlich äußerst begrenzten Interaktionsräumen der Eingabekonsolen

in den 60er und 70er Jahren, über die Verbreitung des PCs und die damit einhergehende Erschließung

immer weiterer, jedoch noch immer streng begrenzter, Interaktionsräume bis hin zur

Augmented Reality >>41 und der Vision des Ubiquitous Computing >>38 : Bald könnte jeder Raum

Interaktionsraum sein. Im Umkehrschluss macht uns das alle, wie bereits oben beschrieben, zu

ständigen Usern.

Der Interface-Begriff des Computing entwickelte sich in den 50er und 60er Jahren von

der Chemie (als Grenzfläche etwa zwischen Flüssigkeiten) und der Elektrotechnik (als Übergang

oder Verbindung zweier Geräte - wie z.B. Stecker) her.

Das so geprägte Verständnis vom „Interface“ als Trennfläche zwischen Mensch und Computer

wurde schon von den frühen Pionieren kritisiert: So bemerkt Licklider >>23 in seinem 1965 erschienen

Buch „Libraries of the Future“:

„Early in out study of man-computer interaction, we became dissatisfied with

the term Early in out study of man-computer interaction, we became dissatisfied

with the term ‚man-machine interface.‘ ‚Interface‘ with its connotation of a mere

surface, a plane of separation between the man and the machine focuses attention

on the caps of the typewriter keys the screen of the cathode-ray tube, and the

console lights that wink and flicker, but not on the human operator‘s repertory of

skilled reactions and not on the input-ouput programs of the computer.“ 7

Er schlägt stattdessen den Begriff „Intermedium“ vor und impliziert damit ein Verständnis

von Kommunikation als universales Medium innerhalb des Computers:

„In order to remind ourselves continually that our concern permeates the whole

medium of interaction, we have avoided ‚interface‘ and have used, instead,

‚intermedium.‘“ 8

7 Joseph C. R. Licklider: Libraries of the Future. Cambridge, Massachusetts 1965. S. 92

8 Ebd.

11


12 begriffe

„The man-computer intermedium subsumes the computer‘s displays and the

mechanisms and programs that control and maintain them, the arrangements

through which people communicate information to the computer and the relevant

communication organs and skills of the men.“ 9

Obwohl sich der Intermedium-Begriff nicht durchsetzen konnte, erscheint er, als äußerst breit

gefasste Idee einer Mensch-Computer-Kommunikation, treffender denn je; denn aktuelle Entwicklungen

und Visionen, wie das bereits angesprochene Ubiquitous Computing, aber auch neue

Mensch-Computer-Kommunikationsformen, wie beispielsweise Tangible-User-Interfaces >>46

deuten auf ein Verwischen der Grenzen zwischen Mensch und Computer, also des „Interface“ im

klassischen Sinne, hin.

9 Ebd.


.1801 Jacquard Webstuhl

coMputergeschIchte I

.1822 Difference engine

.1834 Analytical engine

ERFINDER & PIONIERE +PROGRAMMIERER & WISSENSCHAFTLER

.1890 hollerith tabulating Machine

UNIVERSELL PROGRAMMIERBAR

BATCH PROC

ASSOZIATIVE INDEXI

LOCHKARTENSYSTEM KONSOLE

GUI

.USERTYP

TABULATING WISSENSCHAFTLICHES COMPUTING PROFESSIONELLES

14 computergeschichte I

charles babbage >>16 und seine Analytical engine >>16 / herman

hollerith >>16 und die Volkszählung >>16 / Vannevar bushs >>17 Memex >>17

Die Entwicklung des Computers bis zu seiner heutigen Form stellt sich als ein langer Prozess dar

– geprägt von vielen Einflüssen, Motivationen aber auch Zufällen. Um eine mögliche Perspektive

für die Zukunft eines derart dynamischen Prozesses entwickeln und aufzeigen zu können,

ist es hilfreich, sich mit dessen Geschichte vertraut zu machen. Das folgende Kapitel

befasst sich mit den evolutionären Phasen und revolutionären Schüben der Computer- und

Interfacegeschichte. Es soll dem Leser dabei helfen, die abschließende Vision zur

Zukunft dieser Disziplinen beurteilen und einschätzen zu können.

COMPUTERTYP.

.1941 Z3

.1945 Memex

.1947 enIAc

.1950 unIVAc

.1950s sAge

EXPERIMENTELLES COMPUTING


.1963 sketchpad

LIGHTPEN

ESSING

ERUNG OBJEKTORIENTIERUNG

TIME SHARING COMPUTERMAUS DESKTOP METAPHER

COMPUTING

Abb. 1:

Computergeschichte - Überblick

Die Kurven „Computer Pro User“

und „Anzahl: Computeruser“ zeigen

Entwicklungen auf und beruhen nicht auf

erhobenen Daten.

.1968 nls

.1970s smalltalk

.1976 Dynabook

.1981 Xerox star

.1984 Apple Macintosh

.1991 WWW

.1995 Microsoft Windows 95

.COMPUTER PRO USER

.2007 Apple iphone

.2007 Asus eee pc

.2009 MIt sixth sense

.2010 Microsoft Kinect

.ANZAHL: COMPUTERUSER

+PRIVATANWENDER

JEDER

+ENTHUSIASTEN & NERDS +LAIEN & BÜROANWENDER +KONSUMENTEN

HOME COMPUTING DESKTOP-COMPUTING CLOUD COMPUTING

MOBILE-COMPUTING

UBIQUITOUS

COMPUTING

15


16 computergeschichte I

Charles babbages Lebenswerk, sein Konzept der „Analytical engine“,

beschreibt die erste Rechenmaschine, die als Computer nach heutigem Verständnis zu bezeichnen

ist. 10 Babbage, ein bedeutender Mathematiker seiner Zeit, wird 1828 sogar auf den Lucasischen

Lehrstuhl für Mathematik an der Universität Camebridge berufen. Neben seiner Tätigkeit im

Bereich der Mathematik entwickelt er Konzepte für zwei Rechenmaschinen: die „Difference

Engine“ und die oben genannte „Analytical Engine“. Beide sind konzipiert, um die langwierige,

monotone und deshalb fehlerbehaftete Arbeit manufaktureller Tabellenberechnungen maschinell

durchführen zu können. Im Unterschied zur „Difference Engine“ jedoch, ist im Konzept der

„Analytical Engine“ die Möglichkeit der Programmierung mit Lochkartensätzen vorgesehen.

Obwohl sie nicht realisiert wurden, 11 bestimmten Babbages Konzepte über ein Jahrhundert lang

die Projekte für programmierbare Rechenautomaten.

1880 hilft der frisch gebackene Ingenieur Herman hollerith dabei, die Ergebnisse, der

im selben Jahr durchgeführten Volkszählung, zu erfassen. Die mühsame und äußerst

monotone Arbeit inspiriert ihn dazu, ein System zu entwickeln, welches das Auszählen

erleichtern soll. Nach anfänglichen Versuchen mit Papierbändern zur Dateneingabe verwendet

Hollerith bald ein lochkartensystem, das er vom 1801 eingeführten Jacquard-

Webstuhl adaptiert. Es gelingt ihm schließlich die erste informationsverarbeitende Maschine

zu bauen, die dem Menschen in Geschwindigkeit und Genauigkeit effektiv überlegen ist. Bei der

nächsten Volkszählung 1890 verkürzt sich, dank Holleriths Maschine, die Zeit der Auszählung

erheblich. 12 Der erfolgreiche Geschäftsmann Hollerith gründet 1896 seine Firma „Tabulating

Machine Company“ die 1911 mit zwei

weiteren Firmen13 zur Computer-Tabulating-Recordin Company (CTR) fusioniert und 1924 zu

10 Computer als Rechenmaschine mit vorarrangiertem, programmgesteuerten Prozessablauf,

der so (theoretisch) sämtliche mathematisch exakt beschreibbaren Funktionen berechnen

kann(Turing-Vollständigkeit).

11 Weder die Difference Engine noch die Analytical Engine wurden gebaut. Konnte mit dem

Bau der Difference Engine No.1 noch begonnen werden (sie wurde nie fertiggestellt), blieb

die Analytical Engine ausschließlich ein Konzept.

12 die Angaben reichen von 6 Wochen bis zu 3 Jahren - verglichen mit den rund 7 Jahren der

Zählung 1880 eine erhebliche Differenz.

13 International Time Recording Company und Computing Scale Company


„International Business Machines“ oder IbM umbenannt wird. 14

1939 erkennt Vannevar bush, damals Direktor des Office of Scientific Research and

Development und verantwortlich für sämtlichen militärischen Forschungsprojekte der USA,

dass es Wissenschaftlern zunehmend schwer fällt, mit der stark steigenden Informationsmenge

umzugehen und skizziert erstmals die Vision eines Geräts, das er später „Memex“ (Memory

Extender) nennen wird. Im Artikel „As We May Think“ werden seine Gedanken 1945 in der

Zeitschrift The Atlantic Monthly veröffentlicht. 15 Bush beschreibt darin einen individuellen,

wissenschaftlichen Arbeitsplatz in Form eines Schreibtisches, welcher alle Bücher, Aufnahmen

und Korrespondenzen des Benutzers in Form von Mikrofilmen gespeichert hat. Inhalte können

mithilfe einer Tastatur abgerufen („If the user wishes to consult a certain book, he taps its code

on the keyboard, (...)“) und auf einen Bildschirm projiziert werden („On the top [of the Memex]

are slanting translucent screens, on wich material can be projected for convenient reading.“).

Material kann in Form von Mikrofilmen zugeführt („Most of the memex contents are purchased

on microfilm ready for insertion. (...) Business correspondence takes the same path.“) oder direkt

vom Memex abfotografiert werden („(...) the depression of a lever causes it to be photographed

onto the next blank space in a section of the memex film (...)“). 16

14 Vgl. IBM Archives: »Herman Hollerith«, in: Stand 05.2010 http://www-03.ibm.com/ibm/

history/exhibits/builders/builders_hollerith.html

15 Vannevar Bush: »As We May Think«, in: The Atlantic Monthly. Juli (1945).

Online in: Stand 05.2010: http://www.theatlantic.com/doc/print/194507/bush/

16 Vgl. ebd.

Von links nach rechts:

Abb. 2: Difference Engine (Zeichnung)

Abb. 3: Holleriths Tabulating Machine

Abb. 4: Vannevar Bush

Abb. 5: Grafik des Memex


18 computergeschichte I

Anders als Babbage beschreibt Bush weniger die technische Funktionsweise („engineering

model“), als die Art und Weise wie das Gerät zu benutzen ist („user task model“) sowie die

Vorteile, sich daraus ergeben. So beschreibt er assoziative Indexierung

(„associative indexing“) als die Kernfunktionalität des Memex-Konzepts. Artikel, Buchseiten,

Fotografien - Informationen jeder Art können durch Pfade miteinander verknüpft und dann im

Ganzen weitergegeben werden. Daraus ergibt sich für ihn ein erheblicher Nutzen; zum Beispiel

für Anwälte, Medizner und Chemiker. Weiterhin sieht er die Entstehung neuer Enzyklopädien mit

integrierten Netzen assoziativer Pfade („Wholly new forms of encyclopedias will appear, ready

made with a mesh of associative trails running through them ready to be dropped into the memex

and there amplified“). 17

Bemerkenswert erscheint, dass Bush das Potential der Digitaltechnik, trotz des Wissens um

den 1943 fertiggestellten MARK I sowie den kurz vor der Fertigstellung befindlichen ENIAC-

Computer offenbar nicht erkennt. Die universelle Digitaltechnik über komplexe Berechnungen

hinaus zu nutzen, scheint zu diesem Zeitpunkt also auch für Experten nicht naheliegend zu sein.

17 Vgl. ebd.


coMputergeschIchte II

20 computergeschichte II

Konrad Zuse >>20 und sein Z3 >>20 / batch processing >>21 / timesharing

>>21 / sAge >>22 / Joseph licklider >>23 / Douglas engelbarts >>24

nls >>26 / sketchpad >>29 von Ivan sutherland >>29 / Alan Kays >>29

Dynabook >>30 / smalltalk >>30 / Xerox star >>30 / Desktop-Metapher >>32

Von Babbages >>16 Idee der „Analytical Engine“ >>16 , deren Programmierung mithilfe von

Lochkarten funktionieren sollte, lassen sich viele Ingenieure und Erfinder inspirieren. Auf ihrer

Suche nach flexibleren Eingabemöglichkeiten entwickeln sich Stecktafeln, beziehungsweise

„Plugboards“, die es sogar ermöglichen, (Steck)-Programme zu speichern, auszuwechseln und

weiterzugeben. 18

Der Ingenieur Konrad Zuse arbeitet 1935 als Statistiker bei den Henschel Flugzeug Werken

und ist gelangweilt von den monotonen Berechnungen der Flugzstatistik. Dies und seine

Begeisterung für Technologie motivieren ihn, einen Rechenautomat – den Z1 – zu entwickeln.

Dieser ist zwar bereits (begrenzt) mit Lochkarten programmierbar, scheitert jedoch an seiner,

durch die ungenügende mechanische Präzision seiner Teile bedingte, Unzuverlässigkeit.

Einen wahren Meilenstein der Computergeschichte stellt 1941 hingegen der Z1-Nachfolger Z3

dar. Dieser gilt als erster programmierbarer und funktionsfähiger Digitalcomputer mit Turing-

Vollständigkeit vund somit als erster moderner Computer. Zur Programmierung greift Zuse zum

bewährten Lochstreifenlesegerät. Zur Datenein- beziehungsweise Ergebnisausgabe verwendet

der Z3 jedoch eine innovative und vom Fernschreiber inspirierte, tastaturähnliche Tasteneingabe,

sowie ein Lampenfeld. Zuse orientiert sich bei der Entwicklung ähnlich wie Bush und im

Gegensatz zur Mehrzahl seiner Zeitgenossen am späteren Benutzer

(„user-task-model“) und erkennt so, dass Ein- und Ausgabeelemente idealerweise

an einem zentralen Pult zu positionieren sind. Diese Idee setzt sich unter der Bezeichnung

„Konsole“ durch. Weitere Innovationen, die den Mainframe-Betrieb erleichtern und

beschleunigen sind die Einführung von Magnetbandgeräten zur Ausgabe und Speicherung

von Massendaten beim UNIVAC 1950/51, sowie erste Plotter und Kathodenstrahlröhren als

Ausgabemedium.

18 im DEHOMAG D11 - Tabulator


Die Möglichkeit, Programme und Daten auf Lochkarten und Magnetbändern, unabhängig vom

Rechnerbetrieb, vorzubereiten, führt im weiteren Verlauf der 1950er Jahre zum

batch processing („Stapelverarbeitung“). Die stetig schneller werdenden

Computersysteme können so deutlich besser ausgelastet werden. Das ist äußerst wichtig, denn

noch immer sind die so teuer, dass die Zeit des Menschen als weniger wertvoll gilt, als die

Rechenzeit des Computers. Das Batch Processing führt dazu, dass ein direkter Zugang zu

einem Computer praktisch nicht mehr möglich ist: Man gibt seine Programmanweisungen,

meist in Form von Lochkarten ab und erhält, nach Stunden oder gar Tagen die Ergebnisse als

Ausdruck zurück. Zunehmend komplexe Programme im Lochkartenformat führen zu häufigen

Fehllochungen, sodass es oft zu vielen Wiederholschleifen kommt, bis ein Programm endlich

korrekte Ergebnisse liefert. 19 Unter anderem deshalb führt das Batch Processing insbesondere bei

den Kunden der Mainframes, den Programmierern, für Unzufriedenheit. Abhilfe schafft 1957

Bob Bemers Idee des time-sharing: Dabei bedienen mehrere Benutzer gleichzeitig über

mehrere Konsolen einen Mainframe-Rechner und teilen sich so die Rechenzeit des Computers.

Dieses Konzept lässt sich als eine frühe Form des Multitasking verstehen.

Die User beziehungsweise Kunden haben nun wieder direkten Zugriff auf den Computer und das

Gefühl, den Großrechner für sich alleine zu haben. Komplexe 20 Probleme können nun dialogisch 21

mit dem Rechner gelöst werden. Überhaupt entwickeln sich Anwendungs- und daraus folgend,

19 Vgl. Frieder Nake: »Vom Batch Processing zu Direct Manipulation: ein Umbruch im

Umgang mit Computern«, in: G. Hurrle und F.-J Jelich (Hrsg.): Vom Buchdruck in den

Cyberspace? Mensch – Maschine – Kommunikation. Dokumentation einer Tagung im

DGB-Bildungszentrum. Marburg 1993, S. 28-44

20 „One of the main aims of man-computer symbiosis is to bring the computing machine

effectively into the formulative parts of technical problems.

The other main aim is closely related. It is to bring computing machines effectively into

processes of thinking that must go on in ‚real time,‘ time that moves too fast to permit using

computers in

conventional ways.“

Vgl. Joseph C.R. Licklider: »Man-Computer-Symbiosis«, in: IRE Transactions on Human

Factors in Electronics. 1960, Bd. 1, S. 4-11

Online in: Stand 05.2010 http://www.giacomoricci.it/Man-computer%20symbiosys.pdf

21 „Bei Programmen wurde, was später ‚statement‘ heißen sollte, in der Anfangszeit als

‚order‘ bezeichnet. Im Dialogbetrieb verschmelzen die metaphorischen Reservoirs von

Militär und Sprache zur Kommandosprache.“

Jörg Pflüger: »Interaktion im Kontext«, in: Hans Dieter Hellige: Mensch-Computer-

Interface. Zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 326

21


22 computergeschichte II

entsprechende Kommunikations- beziehungsweise Interfacekonzepte, die den Computer als

„Denkhilfe“ bei Problemlöseprozessen verstehen:

„Always in full control, the user directs the mind-machine processes by

commanding the computer to function, step by step, in accord with his deepening

understanding of the problem.“ 22

In der optimistischen Aufbruchstimmung der 50er Jahre sind Zukunftsvisionen weit verbreitet23 .

Bezüglich der Computerbedienung ist, oben genanntem Trend folgend, die Idee der natürlichen

Sprachkommunikation sehr beliebt. So prophezeit Alan Turing bereits 1947, dass eine natürliche

Kommunikation zwischen Mensch und Maschine in wenigen Jahrzehnten möglich sein würde. 24

Einen völlig anderen Ansatz verfolgt IBM mit der sAge-console (Semi Automatic Ground

Environment) - einem vernetzten Radar-Interface zur militärischen Luftabwehr. Auf einem

CRT-Display werden Luftbewegungen eines bestimmten Gebiets dargestellt. Mit einer Lightgun

können Flugzeuge direkt am Display angewählt werden. Zusätzliche Schalter bieten dann die

Option, Informationen wie Höhe oder Geschwindigkeit einzublenden – sogar ein Angriffsbefehl

kann mittels der SAGE-console erteilt werden. Somit gilt sie als eines der ersten GUIs (Graphical

User Interface) überhaupt. Aus den SAGE-Komponenten CRT-Display und Lightgun entstehen

im Rahmen ziviler Computerforschung der Monitor sowie der Lightpen, was wiederum zur

Entwicklung erste CAD-Systeme beiträgt.

22 W. D. Orr: »The Culler-Fried Approach to On-Line Computing«, in: W. D. Orr (Hrsg.):

Conversational Computers. New York, London, Sydney 1968, S. 23-28

23 „Schwebende Welten im Kosmos. Unterwasserstädte für jedermann. Raketen starteten

von Bahnhöfe in ein von riesigen roten und blauen onden bhrrschtes Weltall. (...) Mutti

kommandierte mit kess-kurzer Schürze, in der Küche die Roboter (...) und ein frohgemutes

Team weißbekittelter Männer und Frauen sorgte mit Atomblitz und Hubschrauber dafür,

dass es je nach Bedarf regnete oder die Sonne schien. (...) Ach, welch wunderbare Zukunft

wir hatten!“

Matthias Horx: Das Zukunfts-Manifest. Düsseldorf, München 1997

24 Vgl. Alan Turing: „Lecture to the London Mathematical Society on 20th February“.

London 1947

Weitere Visionen gab es von Harry Huskey 1949/1950, der mit ‚ZEPHIR‘ den Bau eines

‚Dolmetscher-Gehirns‘ plante sowie vom damaligen IBM-Forschungsmanager Rex

Rice der 1959 die Übersetzung der menschlichen in Maschinensprache in 10-15 Jahren

vorraussagte.

Abb. 6: SAGE

Abb. 7: SAGE-Konsole


Joseph licklider ist einer der Schlüsselfiguren bei der Entwicklung der HCI. Hellige

bezeichnet ihn und seinen Zeitgenossen Robert taylor mit Bezug auf Friedwald als

„multidisziplinäre Gatekeeper, die als eigentlich Fachfremde zwischen den Entwicklern und

Nutzern der Technik standen und die früh die zentrale Bedeutung der Mensch-Computer-

Interaktion für die Ausweitung der Computernutzung in Denk- und Arbeitsprozessen

erkannten“. 25 Hellige konstatiert weiter:

„Es ging beiden gerade nicht um eine bloß technische Optimierung von Interfaces,

sondern um neue mediale Nutzungsweisen von Computern, bei denen nicht

mehr programmgesteuerte Berechnungen, sondern die Informationsbeschaffung

und -verarbeitung, die dynamische Repräsentation von Ideen sowie die

Kooperationsunterstützung im Mittelpunkt standen.“ 26

Licklider bringt in seinem Aufsatz „Man-Computer Symbiosis“ von 1960 seine Unzufriedenheit

bezüglich des Interface-Begriffs zum Ausdruck 27 und

25 Hans Dieter Hellige: »Kriesen und Innovationsphasen in der Mensch-Computer-

Interaktion«, in: Hans Dieter Hellige: Mensch-Computer-Interface. Zur Geschichte und

Zukunft der Computerbedienung. Bielefeld 2008, S. 37

26 Ebd.

27 „(...) we became dissatisfied with the term ‚man-machine interface‘. ‚Interface‘, with its

connotation of a mere surface (...), but not on the humen operator‘s repertory of skilled

reactions and not on the input-output programs of the computer.“

Joseph C.R. Licklider: »Man-Computer-Symbiosis«, in: IRE Transactions on Human

Factors in Electronics. 1960, Bd. 1, S. 4-11

Online in: Stand 05.2010 http://www.giacomoricci.it/Man-computer%20symbiosys.pdf


24 computergeschichte II

schlägt stattdessen den Begriff „Intermedium“ vor:

„The crucial regions for research and development seem to lie on both sides of the

literal interface. In order to remind ourselves continually that our concern

permeates the whole medium of interaction, we have avoided ‚interface‘ and have

used, instead, ‚intermedium‘.“ 28

Weiterhin formuliert er Mitte der 60er Jahre verschiedene Visionen, die entscheidenden Einfluss

auf die Forschungsanstrengungen der ArpA 29 haben: Beispielsweise eine „general-purpose

console“ als multimediales Universal-Interface mit Bildschirm, Tastatur, Lightpen, Digitalisier-

Tablett, Kamera, Projektor, Mikrophon, Lautsprecher, Telefon, Uhr und einem ‚bowling

ball‘ zur Steuerung von 3D-Anwendungen. Außerdem spricht er von visuellen Symbolen

und menügesteuerten Dialogen, die sich im Programmablauf dynamisch anpassen, sowie

differenzierte Interaktionslösungen für Anfänger und Experten: 30

„The computer should continually tell the neophyte what options are open to

him and, when an instruction is partly defined, what additional arguments are

required.“ 31

Ein weiterer Quereinsteiger und Pionier auf dem Gebiet der HCI ist Douglas C. engelbart.

Der Elektroingenieur und (während des zweiten Weltkriegs) Radartechniker entwickelt in den

frühen 50er Jahren seine Vision einer „persönlichen Arbeitsstation“,

28 Ebd.

29 Ab 1963 war Licklider Direktor der „Advanced Research Projects Agency“ - eine

Institution die 1958, nach dem erfolgreichen start des Sowjetischen Sputnik-Satelliten,

geschaffen wurde, um die technische Überlegenheit der USA insbesondere im Bereich der

Verteidigungstechnologie zu gewährleisten.

30 Vgl. Hans Dieter Hellige: »Kriesen und Innovationsphasen in der Mensch-Computer-

Interaktion«, in: Hans Dieter Hellige: Mensch-Computer-Interface. Zur Geschichte und

Zukunft der Computerbedienung. Bielefeld 2008, S. 38 f.

31 Joseph C. R. Licklider: »Graphic Input – a survey of techniques «, in: F. Gruenberger

(Hrsg.): Computer Graphics. utility, Production, Art. Washington 1967, S. 63


die Informationen leicht und schnell abrufbar und kommunizierbar macht:

„He began to envision people sitting in front of cathode-ray-tube displays, ‚flying

around‘ in an information space where they could formulate and portray their

concepts in ways that could better harness sensory, perceptual and cognitive

capabilities heretofore gone untapped. Then they would communicate and

collectively organize their ideas with incredible speed and flexibility.“ 32

Offenbar macht er sich auch bereits Gedanken über die Art und Weise der Bedienung. 1957

kommt Engelbart ans Stanford Research Center (SRI) und erhält zwei Jahre später die Genehmigung

zur Arbeit an seiner Studie „Augmenting Human Intellect: A conceptual Framework“. 33

Sein Hauptschwerpunkt liegt auf der Entwicklung eines Computersystems zur Unterstützung

jedweder Geistesarbeit:

„By ‚augmenting human intellect‘ we mean increasing the capability of a man to

32 dougengelbart.org: »A Lifetime Pursuit«, in: Stand 05.2010

http://www.dougengelbart.org/history/engelbart.html

33 Engelbart war stark von Vannevar Bushs Memex-Aufsatz inspiriert. So übernimmt er

neben dem Medienkombinatorischen Ansatz („(...) to combine lowerlevel technologies

into a sipmle machine with a higher level function“) auch das Benutzerbezogene Konzept:

„Augmenting Human Intellect“ (etwa: Erweiterung des menschlichen Intellekts) und

Memex (von Memoryextender; etwa: Gedächtniserweiterer“).

Douglas C. Engelbart: Augmenting Human Intellext: A Conceptual Framework. Stanford

1962

Abb. 8: NLS

Abb. 9: Douglas Engelbart bei der

Präsentation des NLS


26 computergeschichte II

approach a complex problem situation, to gain comprehension to suit his particular

needs, and to derive solutions to problems.“ 34

Er reicht seine Studie als Leitantrag zur Projektförderung bei der US Air Force ein und erhält ab

1963 Föredergelder von der NASA (dank Robert Taylor). So beginnt er, seine kühnen Visionen

umzusetzen und entwickelt schließlich sein nls (oN-Line-System).

„Es handelt sich um einen der seltenen Fälle, dass eine ausformulierte Vision

tatsächlich in ein funktioierendes Sstem umgesetzt wurde.“ 35

Im Gegensatz zu den Meisten seiner Zeitgenossen, verlässt sich Engelbart >>24 nicht auf die

baldige Realisierung von natürlichen Sprachinterfaces 36 sondern geht bei der Suche nach neuen

Ein- und Ausgabegeräten sehr systematisch vor:

34 Ebd.

„Much as the periodic table of the elements has characteristics which define

groups analog rows and columns, we laid out a grid of existing devices. And just as

the periodic table‘s rules have led to the discovery of certain previously unknown

elements, this grid ultimately defined the disirable characteristics of a device that

didn‘t exsist. That device was the mouse.“ 37

35 Jörg Pflüger: »Interaktion im Kontext«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-

Interface - zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 338

36 „we have no way of knowing how long it will be before a system-applicable speech

recognition machine will be able to decode full english transmission.“

Douglas C. Engelbart: Brief an Robert Taylor, 5.4.1963. Engelbart Papers, Department of

Secial Collections, Stanford University Libraries, Box 6 Folder 15, 11638

37 Douglas Engelbart in einem Interview mit „Superkids“, in: Stand 05.2010 http://superkids.

com/aweb/pages/features/mouse/mouse.html


Diese und weitere Bemühungen gipfeln 1968 im NLS und bei dessen öffentlicher Vorstellung,

der „Mother of all Demos“ 38 : Hier stellt Engelbart über 1000 Anwesenden sein neues

Computersystem mit vielen richtungsweisenden Features vor:

„* the mouse

* 2-dimensional display editing

* in-file object addressing, linking

* hypermedia

* outline processing

* flexible view control

* multiple windows

* cross-file editing

* integrated hypermedia email

* hypermedia publishing

* document version control

* shared-screen teleconferencing

* computer-aided meetings

* formatting directives

* context-sensitive help

* distributed client-server architecture

* uniform command syntax

* universal ‚user interface‘ front-end module

* multi-tool integration

* grammar-driven command language interpreter

* protocols for virtual terminals

* remote procedure call protocols

* compilable ‚Command Meta Language‘

* founding member of the first internet“ 39

38 Douglas C. Engelbart: The Mother of all Demos, in: Stand 05.2010 http://www.youtube.

com/watch?v=JfIgzSoTMOs ff

39 dougengelbart.org: »A Lifetime Pursuit«, in: Stand 05.2010

http://www.dougengelbart.org/history/engelbart.html

27


Der Computer ist nun, in den Augen vieler, vom bloßen Rechner zum mächtigen und vielseitigen

Werkzeug avanciert – die Erweiterung des menschlichen Intellekts durch vernetzte Computer

scheinbar in greifbare Nähe gerückt. Die Entwicklung des NLS leitet auch einen Paradigmenwechsel

bezüglich computergestützter Denkprozesse ein: Bis dahin sah beispielsweise Licklider

>>23 die Problemlösefähigkeiten eines Computersystems insbesondere darin begründet,

dass der Nutzer gezwungen ist sein Problem immer präziser zu formulieren. Diese, im Mensch-

Computer-Dialog begründete, ständige Reflektion der Problemstellung führe, so Licklider, zum

Erkenntnisgewinn des Benutzers. 40 Engelbart hingegen schafft mit seinem grafischen Interface

einen „workspace“, indem er die Struktur des Denkraumes selbst visualisiert. Durch kontrollierte

Symbolmanipulation ermöglicht sein System das direkte Anpassen virtueller Zustände und damit

des realen Denkraums. Pflüger fasst diesen Umbruch so zusammen:

„Strukturorganisation statt Wechselgespräch und Sehen statt Hören. Beides

bedeutet, dass der Kontext in der Interaktion eher räumlich als zeitlich gedacht

wird.“ 41

40 W. D. Orr: »The Culler-Fried Approach to On-Line Computing«, in: W. D. Orr (Hrsg.):

Conversational Computers. New York, London, Sydney 1968, S. 23-28.

41 Jörg Pflüger: »Interaktion im Kontext«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-

Interface - zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 342

Es sei hier angemerkt, dass Licklider schnell von der grafischen Wende der HCI überzeugt

ist und als Verantwortlicher der ARPA-Fördergelder den Schwerpunkt im Bereich des

Computers auf die Entwicklung neuer GUIs legt. Um diesen Schwerpunkt auch zukünftig zu

sichern benennt er Sutherland zu seinem Nachfolger.

Vgl. A. L. Norberg und J. O‘Neill: Transforming Comuter Technology: Information

Processing for the Pentagon, 1962-1986. Baltiore 1996, S. 125ff


Bereits 1963, fünf Jahre vor der Präsentation des NLS durch Engelbart, stellt Ivan

sutherland, im Rahmen seiner Disertation am MIT, sein revolutionäres

sketchpad vor. 42 Seine Vorgehensweise bei der Entwicklung ist jedoch, verglichen mit

Engelbart, allgemeiner und weniger task-orientiert. Er erkennt das bis dato übliche Kommando-

zeileninterface als Nadelöhr bei der Arbeit mit einem Computer 43 und will dem mit einer neuen

Art von Schnittstelle beikommen. Konkrete Anwendungen ergeben sich vor allem während der

Entwicklung des Systems:

„As the work has progressed, several simple and very widely applicable facilities

have been discovered and implemented. (...) As was hoped at the outset, the system

is useful in a wide range of applications, and unforseen uses are turning up.“ 44

Das Sketchpad-System erlaubt es seinem Benutzer, mit dem Computer über einen Bildschirm und

einen Lightpen zu interagieren. Diese Interaktion geht über bloßes Zeichnen weit hinaus: Das

System interpretiert die Eingaben des Benutzers und erstellt so mathematisch exakte Formen.

Diese Formen können abgespeichert und als „Instanz“ des abgespeicherten „Masters“ immer

wieder eingesetzt werden. Sutherland und sein Team erfinden so, ganz nebenbei, das Prinzip des

objektorientierten programmierens.

Mit an der Entwicklung des Sketchpad beteiligt war Alan Kay – 1963 noch als Student. Etwa

zur gleichen Zeit erfährt Kay von der Programmiersprache simula und erkennt, dass das

Sketchpad-Prinzip von „Master“ und „Instanz“ auch hier Verwendung findet:

„This was the big hit, and I have not been the same since. I think the reasons the hit

had such impact was that I had seen the idea enough times in enough different

42 Das Sketchpad inspiriert auch Douglas Engelbart bei seiner Entwicklung des NLS.

43 „(...) most inetaction beween men and computers has been slowed down by the need to

reduce all communication to written statements that can be typed; in the past we have been

writing letters to rather than conferring with our computers.“

Ivan E. Sutherland: Sketchpad: A man-machine graphical communicaion system.

Cambridge 1963, S.9

44 Ebd.

Abb. 10: Ivan Sutherland beim Bedienen

seines Sketchpads

computergeschichte II 29


30 computergeschichte II

forms that the final recognitaion was in such general terms to have the quality

of an epiphany. My math major had entered on abstract algebras with their

few operations applying to many structures. My biology major had focused on

both cell metabolism and larger scale morphogenesis with its notions of simple

mechanisms controlling complex processes and one kind of building block being

able to differentiate into all needed building blocks. The 220 file system, the B5000,

Sketchpad and finally Simula, all used the same idea for different purposes. Bob

Barton, the main designer of the B5000 and a professor at Utah, had said in one of

his talks a few days earlier, ‚The basic principle of recursive design is to make the

parts have the same power as the whole.‘“ 45

Diese Erkenntnis ermöglicht ihm später die Entwicklung der Programmiersprache

smalltalk sowie des Xerox star. Am Xerox PARC (Palo Alto Research Center)

veröffentlicht Kay 1976 seine berühmte Idee des Dynabook – eines „Dynamic Medium for

Creative Thought“; die frühe und erstaunlich treffsichere Vision eines Notebooks:

„Imagine having your own self-contained knowledge manipulator in a portable

package the size and shape of an ordinary notebook. Suppose it had enough power

to outrace your senses of sight and hearing, enough capacity to store for later

retrieval thousands of page-equivalents of reference materials, poems, letters,

recipes, records, drawings, animations, musical scores, waveforms, dyamic

simulations, and anything else you would like to remember and change.“ 46

Anders als beispielsweise Engelbart bei der Entwicklung des NLS, der die Effektivität eines

professionellen Büroanwenders steigern wollte, liegt Kays Vision in der Entwicklung eines

„universelle[n] Mikrocomputer-Lernmedium[s], das (...) Wissens- und Phantasieräume[n] aktiv

45 Alan C. Kay: »The Early History of Smalltalk«, in: T. J. Bergin und R. G. Gibson (Hrsg.):

History of Programming Languages II. New York 1996

46 Alan C. Kay: »Personal Computing«, in: Meeting on 20 Years of Comuting Science.

Instituto di Elaborazione della Informazione. Pisa 1975, S. 2

Abb. 11: Alan Kay

Abb. 12: Dynabook


und spielerisch erschließt und so die kreative Entfaltung fördert.“ 47 Das zentrale Element der

Dynabook-Vision ist die Programmiersprache Smalltalk, die auch real entwickelt und erprobt

wurde:

„(...) which (the Dynabook) could be owned by everyone and could have the power

to handle virtually all of its owner‘s information-related needs. Towards this goal

we have designed and built a communications system: the Smalltalk language,

implemented on small computers we refer to as ‚interim Dynabooks‘. We are

exploring the use of this system as a programming and problem solving tool; as an

interactive memory for the storage and manipulation of data as a text editor;

47 Hans Dieter Hellige: »Krisen- und Innovationsphasen in der MCI«, in: Hans Dieter

Hellige(Hrsg.): Mensch-Computer-Interface. Zur Geschichte und Zukunft der

Computerbedienung. Bielefeld 2008, S. 48

Auch in Sutherlands Disertation findet sich bereits die Vision einer Anwendung im Lernund

Erziehungsbereich: „What we do claim is that a graphical input coupled to some kind

of computation which is in turn coupled to graphical output is a truly powerful tool for

education and design.“

Ivan E. Sutherland: Sketchpad: A man-machine graphical communicaion system.

Cambridge 1963, S. 129


and as a medium for expression through drawing, painting, animating pictures, and

composing and generating music.“ 48

Testuser (oft Kinder) bewiesen eindrucksvoll die Einfachheit und Effektivität von Smalltalk:

„One young girl, who had never programmed before, decided that a pointing

device ought to let her draw on the screen. She then built a sketching tool without

ever seeing ours. She constantly embellished it with new features including a menu

for brushes selected by pointing. She later wrote a program for building tangram

designs.“ 49

Bereits um 1968 hat Kay >>29 die Vision, dass Computer in naher Zukunft für millionen Privatanwender

üblich sein werden und folgert, dass ein neues Vokabular zur Mensch-Computer-Interaktion

gefunden werden muss. Im Rahmen der Forschung für den späteren Xerox Star Computer ist

er maßgeblich an der Konzeption der Desktop-Metapher beteiligt. 50 In diesem System

48 Xerox Corporation Palo Alto Research Center, Learning Research Group: Personal

Dynamic Media. Paolo Alto 1975, S. 1

49 Alan Kay und Adele Goldberg: »Personal Dynamic Media«, in: Noah Wardrip-Fruin und

Nick Montfort (Hrsg.): The New Media Reader. Cambridge, London 2003, S. 399

50 Der Druckerhersteller Xerox ist daran interessiert, den Computer in die Büros seiner

Klientel zu bringen. Folglich ist bei der Entwicklung eines entsprechenden Systems die

Büroarbeit, wie etwa das Schreiben von Briefen und Rechungen oder die Kalkulation von

Bestellungen das zentraleAufgabenfeld. Die Desktop-Metapher spiegelt mit ihren Ordnern

(Folder) und Akten (Files) die Arbeitsumgebung eines Büroarbeiters wieder.


Abb. 13: Xerox Star (GUI)

Abb. 14: Apple Macintosh

debütiert unter Anderem das WYsIWYg („What You See Is What You Get“) Prinzip, 51 sowie die

Idee von WIMp (Windows, Icons, Menue, Pointer) und damit zum Beispiel das Prinzip der

direkten Manipulation 52 oder auch die Möglichkeit mehrerer, sich überlappender fenster mit

verschiedenen Inhalten.

Im Verlauf der 70er Jahre forcieren die Fortschritte in der Mikroelektronik die Verbreitung des

„Personal-Computer“ als „geschlossene Hardware-Software-Konfiguration“ und verdrängen

damit allmählich das System des Time-Sharing. Trotzdem dauert es bis 1984 bis das GUI im

Personal-Computer Verbreitung findet; 53 bis dahin war die Kommunikation mit dem Computer

über Tastatur und Drucker die Regel. Bildschirme waren noch äußerst selten.

Die Etablierung des Desktops als zentrale Metapher der Computerbedienung und das damit einhergehende

WIMP-Paradigma fordert ein Eingabemedium zur Steuerung des „P“ (Pointer). Dass

sich die Maus gegen die Alternativen aus Joystick, Stylus und Tablet durchsetzen kann, liegt, so

Hellige, an ihren „relativ günstigeren ergonomischen Eigenschaften“. Die Standardkonfiguration

eines PC-Systems besteht also 1984, bei der Vorstellung des Apple Macintosh, aus Rechnereinheit,

Monitor, Tastatur und Maus. Der kommerzielle Erfolg und die weite Verbreitung

dieses Hardware-Setups mit seiner Desktop-Software prägt das Bild des PCs nachhaltig: Einv-

Computer wird in erster Linie als Arbeitsgerät im Büro verstanden: als Werkzeug. 54

51 (Dokumente werden genau so ausgedruckt, wie sie auch auf dem Bildschirm zu sehen sind)

52 „Star users control the system by manipulating graphical elements on the screen, elements

that represent the state of the system and data created by users. (...) Users of this type of

system have the feeling that they are operating upon the data directly, rather than through

an angent (...) A related principle is that the state of the system always shows in the

display.“

t, S. 11-26

53 Bereits 1981 gibt es den Xerox Star 1810, als „office automation system“ und ersten

kommerziellen PC mit grafischer Benutzeroberfläche zu kaufen – 1983 den Apple Lisa. In

beiden Fällen verhindert der exorbitante Preis eine weite Verbreitung. 1984 folgt dann die

Vorstellung des kommerziell erfolgreichen Apple Macintosh.

54 Parallel etablierte sich bereits seit den 70er Jahren die Sicht des Computers als Spielzeug.

Vgl. John W. Maxwell: Tracing the Dynabook: A Study of Technocultural Transformations.

Vancouver 2006, S. 4

computergeschichte II 33


34

coMputergegenWArt

Über-Medium >>34 / Desktop-computing >>34 / World-Wide-Web >>34 /

Mobile-computing >>35

Die Sicht auf den Computer als solchen hat sich mit seiner kontinuierlichen Leistungssteigerung

(sowie der negativen Preisentwicklung) und den sich daraus ergebenden Möglichkeiten und

Umgangsformen dramatisch gewandelt: Aus der Rechenmaschine für rein wissenschaftlich-mathematische

Berechnungen der 40er und 50er Jahre ist zunächst ein interaktives Werkzeug und

zuletzt ein „Intermedium“, im Sinne eines Über-Mediums, welches sämtliche klassischen/

analogen Medien in sich vereint und erweitert, geworden.

Die klassische Form des Computing am Anfang des 21. Jahrhunderts ist das Desktop-

computing. Seit den 80er Jahren hat sich an der Standardkonfiguration aus Rechner, Mo-

nitor, Maus und Keyboard nichts geändert und auch die Desktop-Metapher erfreut sich nach wie

vor großer Beliebtheit. 55 Nicht zuletzt die Omnipräsenz des World-Wide-Web verändert

jedoch das Nutzerverhalten:

„Browser, Viewer, Spiele und Player sind zu den gebräuchlichsten Applikationen

geworden. Das Gros der User konsumiert schlicht Myriaden von Dokumenten und

Medienprodukten, die Verzeichnishöhlen füllen und den Desktop zumüllen. (...)

Der Browser ist zum eigentlichen ‚Betriebssystem‘ oder Interface geworden, - ein

Fenster zur digitalen Welt und nicht nur zum Hinterhof.“ 56

55 Die Weiterentwicklungen bezüglich der Software-interfaces im Desktop-Computing

sind eher Evolutionär als Revolutionär. Sie gehen insbesondere aus der beschriebenen

Veränderung der Nutzerverhaltens hervor: „(...) wird das reaktive Desktop-Interface

sukzessiv durch Mechanismen ergänzt, die die Werkstattmetaphorik durch proaktive

Aktivitäten des Computers unterlaufen. Durch inhlatsbezogene Scuhfunktionen wird die

an der Seicherung orientierte Organisation des Infromationsraumes in den Hintergrund

gedrängt.“

Jörg Pflüger: »Interaktion im Kontext«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-

Interface - zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 325

Ein Beispiel hierfür ist etwa die Spotlight-Suche ab MacOS 10.4.

56 Jörg Pflüger: »Interaktion im Kontext«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-

Interface - zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 359


Und dieses Fenster wird immer mobiler (Mobile computing). Diesen Entwicklun-

gen folgend, entstehen Marktnischen – wie beispielsweise die Ende 2007 von Asus etablierten

netbooks. Das sind sehr kleine, günstige Notebook-Computer die in der Hauptsache für den

Informationskonsum im Web gedacht sind. Diese Computer werden zunächst häufig mit Linux-

Betriebssystemen und speziell Entwickelten Oberflächen verkauft. Die damit einhergehenden

Einschränkungen bezüglich der Modifizierbarkeit des Systems und insbesondere die für den

Benutzer ungewohnte Oberfläche werden jedoch nur schlecht angenommen und zwingen die Hersteller

zum Umdenken: Mittlerweile werden die meisten Netbooks mit alten oder abgespeckten

Versionen von Microsofts Betriebssystem Windows ausgeliefert. 57

Weiterhin löst die Vorstellung des iphone 2007 einen Trend im Smartphonemarkt aus:

Die Verwendung eines Kapazitiven Multitouch-Displays ermöglicht die Entwicklung eines

gänzlich neuen Softwareinterface, welches eine intuitive Bedienung des Geräts mit dem Finger

(beziehungsweise den Fingern) ermöglicht. So können nun auch Webinhalte, die für Computerbildschirme

optimiert sind, bequem mit einem nur handgroßen Gerät konsumiert werden.

Ähnlich wie in den 80er Jahren lässt sich heute die Etablierung gewisser Hard- und Softwarekomponenten,

dieses Mal im Smartphonebereich, beobachten: Die meisten aktuellen Smartphones

besitzen als zentrales Interfaceelement einen kapazitiven Multitouch-Bildschirm und

lassen ihre User mit den Fingern durchs Web surfen.

Diese Entwicklungen etablieren eine völlig neue Wahrnehmung vom Computer an sich. Sie sind

nun nicht mehr nur am Arbeitsplatz zu finden; nicht mehr nur zu Hause auf dem Schreibtisch.

Computer sind überall.

57 Google arbeitet an Chrome OS, einem Betriebssystem auf Basis ihres Chrome-Browsers:

„Chromium OS is an open-source project that aims to build an operating system that

provides a fast, simple, and more secure computing experience for people who spend most

of their time on the web.“

In: Stand 05.2010 http://dev.chromium.org/chromium-os.

Dabei wird der Browser Wortwörtlich zum Betriebssystem. Die verwendeten Metaphern

wie etwa Tabs stammen zwar ursprünglich aus der Desktop-Ära, sind aber mittlerweile

derart adaptiert, dass es insbesondere jüngeren Anwendern kaum noch auffallen dürfte.


36 computerzukunft

coMputerZuKunft

ubiquitous computing >>38 & Mark Weiser >>38 / Augmented reality >>41 /

Wearable computing >>44 / natural user Interface >>48 / Ambient Dis-

play >>52 / Agenten >>53 / cloud computing >>54

In der wissenschaftlichen Diskussion zur Zukunft des Computing herrschen zur Zeit insbeson-

dere die Visionen des Ubiquitous Computing >>38 und damit eine Welt allgegenwärtiger Daten-

verarbeitung vor. Begründet wird diese Idee insbesondere mit Moores Gesetz und dem daraus

abgeleiteten Schluss, dass jeder Mensch eine Unmenge von Computern zur Verfügung haben

wird58. Im Zusammenhang mit „Ubiquitous Computing“ fallen meist unzählige Fachtermina

und Abkürzungen, die es in den Gesamtzusammenhang einzuordnen gilt. Zu den beliebtesten

und am meisten diskutierten zählen „Augmented Reality“ >>41 , „RFID“ >>42 , „Wearable Computing“

>>44 , „TUI“ >>46 , „NUI“ >>48 , sowie „Ambient Display“ >>52 oder „Calm Technology“ >>51 .

Bereits 1965, weit vor der Verbreitung des Personal Computer und des GUI, veröffnetlicht

Ivan Sutherland >>29 seine Vision vom Computing der Zukunft und entwirft eine Welt voller

intelligenter, vernetzter und sich selbst regelnder Gegenstände mit der positiv konnotierten Folge

einer „leisure society“:

„What I am predicting is that today‘s interest in systems in which a man and a

machine get together on-line will be replaced in the distant future by interest in

systems in which a computer gets directly on-line with the real world, sensing and

interacting with it directly thorough transducers. The ‚real world‘ with which such

systems interact will include human beings, of course.“ 59

58 „This leads to our goals for initially deploying the hardware of embodied virtuality:

hundreds of computers per room“ Mark Weiser: „The Computer for the 21st Century“

„Im Laufe der nächsten anderthalb Jahrzehnte werden aus den milliarden eingebetteter

Mikroprozessoren, die derzeit schon exisitieren, mehrere Billionen werden. Viele erhalten

die Fähigkeit zur drahtlosen Kommunikation im Nahbereich und werden sich dann (...) mit

dem Internet verbinden, was bis zum Jahre 2020 eine Billion global kommunizierender

intelligenter Objekte zur Folge hat.“

S. Wright, A. Steventon: »Smarte Umgebungen - Vision, Chancen und Herausforderungen«,

in: F. Mattern (Hrsg.): Die Informatisierung des Alltags. Leben in smarten Umgebungen.

Berlin und Heidelberg 2007, S. 18

59 Ivan Sutherland: »The Future of On-Line Systems«, in: Proceedings of the Symposium

Sponsored by the University of Clifornia at Los Angeles and Informatics, Inc. Los Angeles

1965


Abb.15: Ubiquitous Computing – Übersicht

Ubiquitous Computing

Wearable Computing

Natural User Interfaces

TUI

Ambient Display

Augmented Reality


38 computerzukunft

Der Begriff „ubiquitous computing“ wird jedoch erst 1991, im Aufsatz

„The Computer for the 21st Century“ des Xerox-PARC-Wissenschaftlers Mark Weiser,

geprägt. 60 Er beschreibt das Konzept des Personal Computer lediglich als Übergang zum

Erreichen des wahren Potentials der Informationstechnologie und begründet seine Vision nicht

mit der technischen Entwicklung und Moores Gesetz, sondern verweist immer wieder auf den

Menschen:

„Whenever people learn something sufficiently well, they cease to be aware of it.“ 31

Für die Technologie bedeutet das:

„The most profound technologies are those that disappear. They weave themselves

into the fabric of everyday life until they are indistinguishable from it.“ 61

Als Beispiel hierfür nennt er die „literacy technology“ (deutsch: Technologie der

Alphabetisierung), die heute allgegenwärtig geworden sei - etwa bei der Rezeption von

Straßenschildern, die, um wahrgenommen zu werden, nicht bewusst gelesen werden müssten.

Ein weiteres Beispiel ist für Weiser die Etablierung des Elektromotors:

„At the turn of the century, a typical workshop or factory contained a single engine

that drove dozens or hundreds of different machines through a system of shafts and

pulleys. (...) A galnce through the shop manual of a typical automobile (...) reveals

twenty-two motors and twenty-five more solenoids. (...) By paying careful attention

it might be possible to know whenever one activated a motor, but there would be no

point to it.“ 62

60 Bereits 1988 entstand die Idee, die allerdings erst 1991 mit der Veröffentlichung seines

Aufsatzes größere Bekanntheit erlangt.

Vgl. in: Stand 05.2010 http://library.stanford.edu/weiser/Ubiq.html

61 Mark Weiser: »The Computer for the 21st Century«, in: Scientific American, Vol. 265, Nr. 3

(1991), S. 66-75

Und online, in: Stand 05.2010 http://sandbox.xerox.com/want/papers/ubi-sciam-sep91.pdf

62 Ebd.


Weisers Begirff des „Ubiquitous Computing“ (deutsch: allgegenwärtige Datenverarbeitung)

ist stark geprägt von seinen früheren Arbeiten zur HCI. Der Fokus bei seinem Konzept des

„Ubiquitous Computing“ liegt demnach auch auf der Wahrnehmung und Bedienung des

Computers, oder vielmehr der Computer, durch den Menschen. Er definiert es in Abgrenzung zur

damals, auch in Zukunftsvisionen, sehr populären Virtual reality 63 als „embodied

virtuality“: Der Computer kommt zum Menschen und nicht umgekehrt.

„Perhaps most diametrically opposed to our vision is the notion of ‚virtual reality‘,

which attempts to make a world inside the computer. (...) Virtual reality focuses an

enormous apparatus on simulating the world rather than on invisibly enhancing the

world that already exists. (...) Indeed, the opposition between the notion of virtual

reality an ubiquitous, invisible computing is so strong that some of us use the term

‚embodied virtuality‘ to refer to the process of drawing computers out of their

electronic shells.“ 64

Inzwischen beschäftigen sich viele Wissenschaftler und Visionäre mit den Möglichkeiten eines

Ubiquitous Computing und definieren den Begriff mit unterschiedlichen Schwerpunkten. Das

führt zu einer zunehmenden Unschärfe des Begriffs: So ließe sich etwa aus dem reinen Wortsinn

eine hardwarezentrierte Definition ableiten, wonach wir bereits heute in einer Welt des

Ubiquitous Computing leben: Navigationssysteme, elektrische Zahnbürsten, Fernsehgeräte, Kaffeemaschienen

etc. sind bereits heute mit eingebetteten Computern ausgestattet, was sich dann

durchaus als Ubiquitäres Computing deuten ließe.

63 Virtual Reality ist als Profi-Anwendung, insbesondere in Bereichen des Rapid Prototyping

(beispielsweise in der Automobilindustrie) oder der Stadtplanung und der Architektur,

anerkannt. Aufgrund des hohen technischen Aufwands, des Platzbedarfs sowie der noch

immer horrenden Kosten kommt Virtual Reality in Konzepten zum allgemeinen Computing

der Zukunft in der Regel nicht mehr vor.

64 Mark Weiser: »The Computer for the 21st Century«, in: Scientific American, Vol. 265, Nr. 3

(1991), S. 66-75

Und online, in: Stand 05.2010 http://sandbox.xerox.com/want/papers/ubi-sciam-sep91.pdf

39


Ein schärferes Bild dessen, was die Wissenschaft unter Ubiquitous Computing versteht, bringen

Fabian und Hansen 2006 im Rahmen der Technikfolgenabschätzung des Ubiquitären Computing

für das Bundesministerium für Bildung und Forschung auf den Punkt:

• „Stetig und überall verfübare Computerunterstützung (‚ubiquitär‘).

• Stark vereinfachte Schnittstellen zwischen Mensch und Computer, die die

Aufmerksamkeit und Interaktion der Nutzer minimal einfordern

(Calm Computing und Ambient Display).

• Automatische Steuerung und Anpassung der Umgebung an Nutzerpräferenzen

oder situative Kontexte.

• Automatische Ausführung und Abwicklung wiederkehrender standardisierter

Abläufe ohne Einforderung der Nutzerinteraktion.“ 65

Daraus leiten sie folgende technische Komponenten ab, die ich wie folgt zusammenfasse:

• Eine verteilte Infrastruktur von Sensoren und Mensch-Computer-Schnittstellen.

• Eine Infrastruktur für lokale und globale Datenübermittlung.

• Rechenleistung lokal oder z.B. durch Cloud Computing.

• Datenspeicher 66

65 B. Fabian und M. Hansen: »Technische Grundlagen«, in: J. Bitzer u.a.(Hrsg.): TAUCIS –

Technikfolgenabschätzung Ubiquitäres Computing und informationelle Selbstbestimmung.

Studie im Auftrag des Bundesministeriums für Bildung und Forschung. Berlin und Kiel

2006. S..12

66 Vgl. ebd. S.13

Abb. 16: Mark Weiser. Pionier des

Ubiquitous Computing.

Abb. 17: Steven Feiner. Pionier der

Augmented Reality


Neben dem Begriff „Ubiquitous Computing“ tauchen auch immer wieder die Begriffe „Pervasive

Computing“ oder „Ambient Intelligence“ auf, die sich durch ihre jeweilige Akzentuierung

voneinander abheben. So wurde „Pervasive Computing“ von der Industrie mit dem Fokus auf

einen baldigen Einsatz, zum Beispiel im Bereich des Mobile-E-Commerce, geprägt. „Ambient

Intelligence“ entstand als europäische Reaktion auf die US-amerikanische Dominaz im

Forschungsbereich des Ubiquitous Computing und mit einem Schwerpunkt auf dem Aspekt der

künstlichen Intelligenz. 67

Der Begriff „Augmented reality“ (deutsch: erweiterte Realität) umfasst einen weiten

Bereich der HCI im Ubiquitous Computing. 1993 von Steven Feiner68 eingeführt, bezeichnet

er die Anreicherung der den User umgebenden Umwelt mit kontextabhängigen, digitalen

Informationen, welche die natürliche Wahrnehmung quasi erweitern. Dabei spielt es prinzipiell

keine Rolle wie diese Anreicherung geschieht.

Denkbar sind neben visuellen auch beispielsweise auditive, olfaktorische oder taktile Reize.

Ein typisches Beispiel sind head-up-Displays (HUD), die zunächst in

Militärflugzeugen wie dem Apache Hubschrauber zum Einsatz kamen und mittlerweile,

durch das Auto, ihren Weg in die zivile Nutzung gefunden haben. Dabei werden relevante

Informationen, wie im Falle des Automobils, Momentangeschwindigkeit, Drehzahl oder die

Anweisungen des Navigationssystems, über die Frontscheibe hinaus, direkt ins Sichtfeld des

Fahrers projiziert, sodass sich dessen Augen nicht auf einen nahen Tachometer oder LCD-

Bildschrim akkommodieren müssen. 69 Der nächste Schritt ist diesbezüglich eine (virtuelle)

Projektion in die Umgebung, sodass der Fahrer nur dem bunten Pfeil auf der Straße zu folgen

braucht. 70 Ein weiteres Beispiel sind virtuelle Museumsführer oder Tourguides, die ihren Träger

beispielsweise über das Kunstwerk informieren, vor dem er gerade steht.

67 Vgl. F. Mattern: »Die technische Basis für das Internet der Dinge«, in: E. Fleisch und F.

Mattern (Hrsg.): Das Internet der Dinge. Berlin und Heidelberg 2005, S. 40

68 S. Feiner u.a.: »Knowledge-Based Augmented Reality«, in: Communications of the ACM

36, 7 (1993), S. 51-63

69 Vgl. Spiegel Online: Head-up-Display. Alles im Blick, in: Stand. 05.2010 http://www.spiegel.de/auto/

werkstatt/0,1518,248469,00.html

70 Vgl. Wikitude: Wikitude Drive, in: Stand 05.2010 http://www.wikitude.org/category/02_wikitude/wikitudedrive

computerzukunft 41


42 computerzukunft

Interessant ist auch eine Vielzahl von Augmented-Reality-Anwendungen im Smartphonebereich.

Ein eingebauter GPS-Empfänger und ein Kompass ermöglichen die Anreicherung des

Handykamera-Bildes mit Informationen zur näheren Umgebung, wie zum Beispiel wissenswertes

über Sehenswürdigkeiten in der näheren Umgebung. 71

Stärker auf eine fließende Verbindung aus Virtualität und Realität zielt der an die Konzepte der

Augmented Reality angelehnte Begriff der „Mixed reality“ ab. Mixed-Reality-Szenarien

entstehen zum Beispiel aus der Kombination von Augmented-Reality-Ansätzen und Tangible

User Interfaces >>46 : Digitale Informationen werden über die Realität geblendet (AR) und können

durch die Interaktion mit den entsprechenden realen Objekten manipuliert werden (TUI).

Exemplarisch für die zuvor angemerkte „verteilte Infrastruktur von Sensoren“ als technische

Vorraussetzung für Ubiquitous Computing >>38 sind so genannte rfID-Tags oder Drahtlose

Funketiketten. Die radio-frequency-identification-Etiketten dienen in erster Linie, ähnlich dem

bekannten Barcode, der Identifikation etikettierter Gegenstände, weisen im Vergleich jedoch

signifikante Vorteile auf:

„1. Automatisierung: Während Barcodes eine Sichtverbindung zum lesegerät

benötigen, (...) können Funketiketten prinzipiell ohne besondere Ausrichtung (...)

gelesen werden.

2. Identifizierung: Funketiketten ermöglichen es, mehr Informationen auf

kleinerem raum unterzubringen und können dadurch nicht nur eine Produktklasse

identifizieren (‚Dies ist eine Packung Margarine‘), sondern auch individuelle

Seriennummern (‚Dies ist Margarinen-Packung #94810394‘), die beispielsweise

durch Verknüpfung mit einer Herstellerdatenbank weitere Detailinformationen

verfügbar machen können (z.B. ‚produziert am 11.6.2006 in Werk 4‘).

3. Integration: Infolge der drahtlosen kommunikation zwischen Lesegerät und

Funketikett können Hersteller RFID-Tags beinahe beliebig in ein Produkt

integrieren, wodruch nicht nur die Robustheit des Etiketts verbessert werden kann

(...), sondern auch das Produktdesign unabhängiger gestaltet werden kann.“ 72

71 Vgl. Ben Parr: Top 6 Augmented Reality Mobile Apps, in: Stand 05.2010 http://mashable.

com/2009/08/19/augmented-reality-apps/

72 Marc Langheinrich: »RFID und die Zukunft der Privasphäre«, in: Alexander Roßnagel

u.a. (Hrsg.): Digitale Visionen. Zur Gestaltung allgegenwärtiger Informationstechnologien.

Berlin, Heidelberg, New York 2008, S. 45


Technisch besteht ein RFID-System generell aus den RFID-Tags und (mindestens) einem Le-

segerät. Im Detail unterscheiden sich die verschiedenen Systeme jedoch erheblich. So kommen

beispielsweise unterschiedliche Techniken zur Energieversorgung (unterschieden werden aktive,

semi-aktive oder passive RFID-Tags) und zur Datenübertragung zum Einsatz, die jeweils spezifische

Vor- und Nachteile mit sich bringen. 73

Anwendungen finden sich aktuell inbesondere im Bereich der Logistik, aber auch zum Beispiel

bei der Autobahn-Maut. 74 Im medizinischen Bereich werden Medikamentenpackungen mit

RFID-Tags ausgestattet, um Missbrauch und falsche Einnahme (etwa durch die Kombination mit

ungeeigneten anderen Medikamenten oder durch Verwendung nach Ablauf des Verfallsdatums)

zu vermeiden. Naheliegend sind auch Anwendungen in Supermärkten, wo dann auf das lästige

Einscannen der Ware verzichtet werden könnte und der Betreiber jederzeit weiß, welches Kontingent

eines Produkts noch im Regal steht. 75 Die RFID-Technik lässt sich also als frühe Version der

Hardware für ein wahres Ubiquitous Computing interpretieren, bei dem die Etiketten dann nicht

mehr nur programmiert und ausgelesen werden können.

73 Vgl. ebd. S.45ff

74 A. Frankfurth, U. Winand: »Neue Geschäftsfelder, wirtschaftliche Impulse und Risiken«,

in: Alexander Roßnagel u.a. (Hrsg.): Digitale Visionen. Zur Gestaltung allgegenwärtiger

Informationstechnologien. Berlin, Heidelberg, New York 2008, S.78 f

75 Einzelne Pilotprojekte wie der „Extra Future Store“ der Metro-Gruppe stießen aufgrund

von Datenschutzbedenken auf breite Ablehnung.

Vgl. Katherine Albrecht und Liz McIntyre: Spychips, in: Stand 05.2010 http://www.

spychips.com/

Abb. 18: Prototyp eines HUD-Systems

von General Motors.

Abb. 19: Pranav Mistry mit dem von

ihm entwickelten Sixth Sense

System.


44 computerzukunft

Vielmehr werden sie aktiv Daten erfassen, untereinander kommunizieren und aus den so gewon-

nenen Informationen einen Mehrwert schaffen, der dann gegebenenfalls zu aktivem Agieren des

Systems führen kann.

„Wearable computing“ oder „WearComp“ bezeichnet die Verwendung von Informationstechnologie

in der Kleidung oder als Kleidung. Der Fokus liegt hier auf der physischen Nähe

zum Körper des Nutzers. In vielen Ubiquitous-Computing-Konzepten ist es eng verknüpft mit

Augmented Reality. So werden beispielsweise halbtransparente HMDs (Head Mounted Display

– deutsch: Am Kopf fixiertes Display – oft in Form einer Brille) und ein entsprechender Micro-

Computer, wie etwa ein Smartphone, getragen um kontextrelevante Informationen einzublenden.

76 Forscher wie Mann und Starner streben mit WearComp ein ultimatives Interface

76 Im Gegensatz dazu sieht Rügge das Wearable Computing in scharfer Abgrenzung zum

Ubiquitous Computing:

„Während in der Vision vom Ubiquitous Computing von einer Allgegenwart der

Computertechnologie ausschließlich in der Umgebung und in den benutzen Gegenständen

ausgegangen wird, favorisiert das Paradigma des Wearable Computing als Ideal eine

fast persönliche Beziehung zwischen der BenutzerIn und ihrem mobilen Computersystem,

das völlig unabhängig von allen Infrastruktureinrichtungen der Umgebung funktioniert.

(...) So wie Ubiquitous Computing eine konzeptionelle Idealform hat - die Umgebung

ist computerisiert, der Mensch bleibt völlig unbelastet - so beinhaltet auch Wearable

Computing eine Vision: Der Mensch ist der alleinig Handelnde, er ist Träger und Steuerer

der Technik.“

Ingrid Rügge: »Wege und Irrwege der Mensch-Maschine-Kommunikation beim Wearable

Computing« , in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur

Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 223 ff

Rügges Idee vom Wearable Computing wird beispielsweise von einem am Körper

fixierten Smartphone erfüllt. Die meisten Szenarien des Ubiquitous Computing jedoch

verstehen Wearable Computing als Möglichkeit, den Menschen in seine Umgebung

einzubetten um etwa relevante Informationen unaufdringlich zugänglich zu machen oder

Handlungsmöglichkeiten anzubieten.

„Die Kleidung wird Eingabemedium, Daten verarbeitendes System, Ausgabemedium und

Kommunikationsschnittstelle. (...) Neben einer optimalen Anpassung der Kleidung an

aktuelle Umgebungsparameter und das Verhalten des Trägers lassen sich auf diese Weise

auch zusätzliche Funktionen wie die eines Mobiltelefons oder eines PDAs in die Kleidung

integrieren.“

B. Fabian und M. Hansen: »Technische Grundlagen«, in: J. Bitzer u.a.(Hrsg.): TAUCIS –

Technikfolgenabschätzung Ubiquitäres Computing und informationelle Selbstbestimmung.

Studie im Auftrag des Bundesministeriums für Bildung und Forschung. Berlin und Kiel

2006, S. 17f

Von links nach rechts:

Abb. 20/21: Urp System


in Form eines „intelligent assistant“ beziehungsweise eine „visual memory prosthetic“ an, das

den Nutzer im Sinne Mc Luhans erweitert und ihm so neue Fähigkeiten verleiht. 77 Hellige merkt

hierzu noch an, dass „die Erwartungen, mit WearComp ein ultimatives Interface zu schaffen,

das den stationären PC ersetzt und endlich Lickliders >>23 Vision der ‚Man-Computer Symbiosis‘

verwirklicht“, 78 bisher nicht eingetroffen sind. Aktuelle Anwendungen des Wearable Computing

finden sich jedoch im Bereich des Assisted Living 79 und beim Sport 80 , wo Körperfunktionen mit-

hilfe smarter Kleidung beobachtet werden können.

77 Vgl. Steve Mann: »Humanistic Computing: ‚Wear Comp‘ as a Framework and Application

for Intelligent Signal Processing«, in: Proceedings of the IEEE 86, 11, S.2123-2151. 1998

sowie

Vgl. T. Starner: »The Challenges of Wearable Computing: Part 1«, in: IEEE MICRO, 21, 4

(2001), S. 44-52

sowie

Vgl. T. Starner: »The Challenges of Wearable Computing: Part 2«, in: IEEE MICRO, 21, 4

(2001), S. 54-67

78 Hans Dieter Hellige: »Krisen- und Innovationsphasen in der Mensch-Computer-

Interaktion«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur Geschichte

und Zukunft der Computerbedienung. Bielefeld 2008, S. 66

79 Vgl. Bundesministerium für Bildung und Forschun: Ambient Assisted Living Deutschland,

in: Stand 05.2010 http://www.aal-deutschland.de/

80 Vgl. Apple: Nike + iPod, in: Stand 05.2010 http://www.apple.com/de/ipod/nike/


46 computerzukunft

Darüber hinaus gibt es interessante Forschungen im Bereich von smarten Textilien, die Umwelt-

bedingungen, wie etwa Themperaturschwankungen, wahrnehmen und darauf reagieren können. 81

Weiterer Forschungsgegenstand im Bereich der smart textiles ist die Idee, daten- oder

energieleitender Textilien. 82

Der Begriff tangible user Interface (tuI) (etwa: fühlbare Benutzerschnitt-

stelle) beschreibt die Idee, digitale Informationen physisch anfassbar und so manipulierbar zu

machen. Praktisch werden dafür reale Objekte mit digialen Informationen verknüpft. Ändert der

Benutzer nun etwa die Orientierung oder Position eines so verknüpften Objekts („token“), manipuliert

er die entsprechende digitale Information. Der Token repräsentiert real einen virtuellen

Zustand und schlägt so eine Brücke zwischen Realität und Virtualität. 83

Eines der bekanntesten Beispiele ist das am MIT vom TUI-Pionier Hiroshi Ishii und dessen

„Tangible Media Group“ entwickelte urp („Urban Planning-System“), das etwa Stadtplaner

oder Architekten bei der Planung von Gebäudekomplexen unterstützen soll. 84 Umrissmodelle der

Gebäude werden auf einem Tisch platziert. Das System projeziert dann entsprechend Licht und

Schattenwurf der Gebäude sowie eine Darstellung der Luftströmung. Bewegt man die Modelle

(Tokens), passt sich die Licht/Schatten-Berechnung, sowie die Darstellung des Luftstroms in

Echtzeit an. Berührt man eine Wand eines Gebäudetokens mit einem „Zauberstab“, lässt sich

das der Simulation zugrunde liegende Material ändern. So lässt sich direkt erkennen wie sich die

Lichtverhältnisse ändern, wenn eine Fassade nicht mehr aus Stein sondern etwa aus Glas besteht.

81 Vgl. Ahmed Danish: „Hybridization of Smart Textiles in Medical and Healthcare

Management“. İzmir 2009

Online in: Stand 05.2010 http://danishchandna.files.wordpress.com/2009/12/paper-link.pdf

sowie

Vgl. Ingrid Rügge: »Wege und Irrwege der Mensch-Maschine-Kommunikation beim

Wearable Computing« , in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur

Geschichte und Zukunft der Computerbedienung. Bielefeld 2008

83 Vlg. Hiroshi Ishii und Brygg Ullmer: Tangible Bits: Towards Seamless Interfaces between

People, Bits and Atoms. Cambridge 1997

84 Hiroshi Ishii und John Underkoffler: Urp: A Luminous-Tangible Workbench for Urban

Planning and Design. Cambridge 1999

Online in: Stand 05.2010 http://tangible.media.mit.edu/papers/Urp_CHI99.php


Die Vorteile von Tangible-User-Interfaces liegen also insbesondere in ihrer großen Nähe zur rea-

len (Um)welt. Evolutionsbiologisch wird argumentiert, dass Menschen es seit jeher gewöhnt sind,

mit Gegenständen umzugehen. Sie haben so, ausgehend von Form, Gewicht oder Größe des Gegenstandes,

eine grundsätzliche Idee von den Handlungsoptionen, die er eröffnet (Affordances).

Im Falle von TUIs laden beispielsweise runde, Puck-förmige Token zum Drehen ein, wohingegen

längliche, rechteckige Tokens eher verschoben werden wollen. 85 norman beschreibt dieses

Pinzip anhand einer Schere:

„Selbst, wenn Sie noch nie eine gesehen oder benutzt haben, können Sie feststellen,

daß die Anzahl der möglichen Handlungen beschränkt ist. Die Löcher dienen

eindeutig dazu, daß man etwas hineintut, und das einzige, was logischerweise

hineinpaßt, sind die Finger. (...) Sie können herausfinden, wie die Schere bedient

wird, weil ihre funktionierenden Teile sichtbar und die Implikationen klar sind.“ 86

Entsprechend wird anhand der Form auch deutlich was das Objekt nicht leisten kann (Constraints).

So ergibt sich im Idealfall ein Interface, welches, allein durch die Eigenschaften seiner

Token und der Reaktionen des Systems, direkt verstanden und natürlich bedient werden kann.

Das oben beschriebene Urp ist typisch für viele TUI-Systeme: Eine Fläche dient als Interaktionsfeld,

auf dem der beziehungsweise die Benutzer87 mit den Token agieren. Das System identifiziert

und verortet die Token und projiziert passende Informationen an die dementsprechende Stelle. 88

Dieser Ansatz wird von Hornecker in Bezugnahme insbesondere auf den Produktdesigner

85 Vgl. Lauritz L. Lipp: Interaktion zwischen Mensch und Computer im Ubiquitous

Computing. Alternative Ein- und Ausgabemöglichkeiten für allgegenwärtige

Informationstechnologien. Münster 2004, S. 71 f

86 Donald A. Norman: Dinge des Alltags: gutes Design und Psychologie für

Gebruachsgegenstände. New York und Frankfurt am Main 1989, S. 24

87 TUIs sind oft Mehrbenutzersysteme, bei denen etwa Arbeitsgruppen gemeinsam Probleme

lösen (wie zum Beispiel im Falle des Urp)

88 Vgl. auch Microsoft: Surface, in: Stand 05.2010 http://www.microsoft.com/surface/

und Sony: atrac Table, in: Stand 05.2010 http://www.engadget.com/2010/05/03/sonys-35inch-atractable-to-be-industrialized-in-june-show-m/

47


48 computerzukunft

Djajadiningrat 89 dahingehend kritisiert, dass TUIs hier „als Alternative zu einer graphischen

Schnittstelle für die Interaktion mit digitalen Daten verstanden“ werden, was sie als eine „

‚daten-orientierte‘ Sichtweise“ bezeichnet. Dabei werden „Daten oder digitale Funktionen (...)

als gegeben vorrausgesetzt und (...) nachträglich greifbar gemacht (...)“. 90 Sie kritisiert weiterhin,

wieder mit Bezug auf Djajadiningrat, dass so „das volle Potential physikalischer Interaktion nicht

ausgeschöpft (‚everything looks and feels the same‘)“ und die konventionelle GUI-Denke nur in

zweeinhalb Dimensionen 91 übersetzt werde. 92 Demgegenüber prägt sie den Begriff

tangible Interaction bei dem „nicht mehr die Schnittstelle oder ihre technische

Gestaltung im Vordergrund [steht], sondern die Interaktion (...) zum Gegenstand der Gestaltung“

wird. So bezeichnet „Tangible Interaction“ nicht nur die Steuerung der digialen Daten eines

Computers, sondern umfasst, ganz im Sinne des Ubiquitous Computing, die Interaktion mit ganz

alltäglichen Gegenständen wie Weckern oder Anrufbeantwortern 93 .

Als natural user Inerface (nuI) bezeichnet man die HCI mithilfe natürlicher

Kommuniktationstechniken wie Sprechen (Speech Interfaces), Gestikulieren (Gesture

Interfaces), Blicken (Eye-Tracking Interfaces) oder sogar Denken (Brain Interfaces).

Auch anfassen und berühren und damit die oben beschriebenen TUIs können zu den Natural

User Interfaces gezählt werden.

89 T. Djajadiningrat u.a.: »Augmenting Fun and Beauty: A Pamphlet«, in: Proceedings of

DARE 2000 on Designing augmented reality environments. New York 2000, S. 131-134

sowie

T. Djajadiningrat u.a.: »Tangible Products: Redressing the Balance Between Appearance

and Action«, in: Personal and ubiquitous Computing 8,5 (2004), S. 294-309

90 Eva Hornecker: »Die Rückkehr des Sensorischen: Tangible Interfaces und Tangible

Interaction«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur Geschichte

und Zukunft der Computerbedienung. Bielefeld 2008, S. 250

91 „Zweieinhalb“ in Anspielung auf oben beschriebenes Modell, bei dem (dreidimensionale)

Tokens auf einer Fläche platziert und zweidimensional verschoben werden.

92 Der Begriff „Phicon“ (für Physical Icon), mit dem bei vielen TUI-Systemen die Tokens

benannt werden, belegt diese These.

93 Siehe z.B. Durrell Bishop: „Marble Answering Machine“, in: Stand 05.2010

http://design.cca.edu/graduate/uploads/pdf/marbleanswers.pdf


NUIs und insbesondere die Idee der Sprach-Interfaces haben eine lange Tradition: Bereits 1947,

beschreibt etwa Alan turing „dass in wenigen Jahrzehnten eine quasi natürliche Konversation

zwischen Mensch und Maschine möglich würde“. 94 Eine Vision die in den folgenden Jahren

oft wiederholt, kritisch hinterfragt 95 und bis heute, trotz einiger Anwendungen zur Sprachsteuerung

beispielsweise im Auto oder bei Smartphones96 Mobil nicht ganz eingelöst werden konnte.

Eine ähnlich lange Tradition hat die Idee der Handschrifterkennung, die mittlerweile ausreichend

gut funktioniert. 97 Man musste jedoch schließlich erkennen, dass diese Technik nicht für einen

breiten Einsatz im Bereich der HCI geeignet ist. Und auch Sprachinterfaces stellen keine Patentlösung

für die HCI dar:

„Human-human relationships are rarely a good model for designing effective user

interfaces. Spoken language is effective for human-human interaction but often has

94 Alan Turing: Lecture to the London Mathematical Society on 20th February. London 1947,

S. 122

95 zum Beispiel von Alan Kay, als er sagt: „nobody knows whether artificial intelligence is a

10-year-problem or a 100-year-problem.“

Alan Kay und N. Postman: »The Last Word. Distant Thunder«, in: Contextmagazine Juli

1999

Online in: Stand 05.2010 http://www.contextmag.com/setFrameRedirect.asp?src=/

archives/199907/TheLastWord.asp

96 zur Steuerung von Fahrzeugfunktionen (siehe Jorin Verges: Das Raumschiff. Audis neuer

A8, in: Stand 05.2010 http://www.bz-berlin.de/ratgeber/auto/audis-neuer-a8-article810824.

html) zur Steuerung eines Mobiltelefons (Apple: Sprachsteuerung, in: Stand 05.2010 http://

support.apple.com/kb/HT3562?viewlocale=de_DE)

97 Einsatzgebiete finden sich beispielsweise im Bereich der Briefverteilung (handschriftlich

aufgebrachte Adressen werden gescannt und die Briefe dann automatisch geordnet und

sortiert) aber auch bei Smartphones und Tablet-PCs zur Texteingabe. Die Texteingabe ist

jedoch, verglichen mit der üblichen Eingabe per Hard- oder Sofwaretastatur, sehr langsam

und, insbesondere auf dem kleinen Display eines Smartphones, mühsam.

Abb. 23: Microsoft Kinect Hardware


50 computerzukunft

severe limitation when applied to human computer interaction.“ 98

Insbesondere im öffentlichen Raum sind Sprachinterfaces, schon allein aus Datenschutzgründen,

kaum vorstellbar.

Einen weiteren Ansatzpunkt für die natürliche Interaktion mit Computersystemen sind Gesten-

Interfaces, bei denen Körperbewegungen des Users erkannt und interpretiert werden. 1980 wird

das erste Gesten-Interface am MIT vorgestellt: Bolts „put that there-system“ 99

ermöglicht es dem Benutzer angezeigte Objekte per Fingerzeig und Sprachbefehl auszuwählen

und ebenso zu kontrollieren. Allerdings funktioniert das System nur in einem abgedunkelten

Raum und ist, obgleich als Büro der Zukunft 100 geplant, eher realitätsfern. So fühlt sich Hellige an

die militärischen „Command-and Control-Interfaces der SAGE-Ära“ erinnert. 101

Die neusten Entwicklungen im Gesture-Interface-Bereich kommen hingegen aus dem Spiele- und

Entertainmentbereich. So stellt Nintendo 2006 seine Wii-Konsole vor, bei der man den

Controller real im Raum bewegen muss, um eine entsprechende Aktion auszulösen. 102 Microsoft

geht noch einen deutlichen Schritt weiter und bringt vorraussichtlich im November 2010 sein

kombiniertes Voice-Gesture-Interface Kinect, auf den Markt. Das System kann mithilfe eines

Infrarot-Projektors unter beliebigen Lichtverhältnissen sehr exakt den vor sich befindlichen Raum

erkennen. So nimmt das System auch äußerst präzise jede Bewegung wahr. In den von Microsoft

gezeigten Live-Demonstrationen funktioniert das System bemerkenswert gut. 103

98 Ben Shneiderman: »The Limits of Speech Recognition«, in: Communications of the ACM

Jahrgang 43 Heft 9 (2000), S. 63

99 Richard A. Bolt: ‚Put That There‘: Voice and Gesture at the Graphics Interface. Cambridge

1980

100 Ebd. S. 263

101 Hans Dieter Hellige: »Krisen- und Innovationsphasen in der Mensch-Computer-

Interaktion«, in: Hans Dieter Hellige: Mensch-Computer-Interface - zur Geschichte und

Zukunft der Computerbedienung. Bielefeld 2008, S. 57

102 Vgl. Nintendo: Wii. Die neue Videospiele-Bewegung, in: Stand 05.2010 http://www.

nintendo.de/NOE/de_DE/wii_54.html

103 Vgl. Microsoft: Kinect, in: Stand 05.2010 http://www.xbox.com/de-DE/kinect/


Deutliche Fortschritte bei Eye-Tracking-Methoden und Brain-Interfaces sind, von einem Nutzer-

standpunkt aus, bisher nicht zu beobachten. 104 Trotzdem gibt es äußerst interessante Ansätze wie

zum Beispiel text 2.0 des Deutschen Forschungszentrums für Künstliche Intelligenz. 105

Hier wird, mittels Eye-Tracking, die Blickposition des Users während des Lesens ermittelt.

Daraus ergeben sich Möglichkeiten, wie das zeitgenaue Einblenden von Bildern beim Lesen

bestimmter Textstellen oder das Ausblenden irrelevanter Wörter beim Überfliegen eines Textes.

Ein erstes Brain-Interface befindet sich vor der Markteinführung; wenn auch nur mit geringem

Nutzen, hohem Aufwand (Anbringen einer Elektroden-Haube) und horrendem Preis. 106

Bereits in seinem 1991 erschienenen Aufsatz „The Computer for the 21st Century“ entwickelt

Weiser >>38 im Zuge seiner Ubiquitous-Computer-Vision die Idee von einer nahezu unbewussten,

am Rande der Aufmerksamkeit ablaufenden Computerbenutzung. 107 In weiteren Forschungen

präzisiert er die Idee und prägt den Begriff der calm technology (deutsch: ruhige

Technologie). 108 Weiser beschreibt zunächst das Kunstwerk „Dangling String“ von Natalie Jeremijenko:

Eine etwa 2,5 m lange Plastikschnur ist an einen Elektromotor gebuden, der an der Decke

hängt. Er erhält seine Energie direkt von einem Netzwerkkabel. Ist der Datendurchsatz hoch,

bewegt sich die Schnur deutlich, ist er gering, bewegt sie sich kaum merklich. Die Installation

informiert ohne sich aufzudrängen. Weiser und Brown nennen das „periphery“: Information

am Rande der Aufmerksamkeit, die sich aber sofort ins Zentrum der Aufmerksamkeit drängt,

wenn Unregelmäßigkeiten auftreten. Als Beispiel nennen sie das Motorengeräusch eines Autos,

welches in der Regel kaum wahrgenommen wird. Sobald wir jedoch zusätzlich beispielsweise ein

ungewohntes Quietschen wahrnehmen, konzentrieren wir uns darauf und können reagieren.

104 Eye-Tracking wird zur Zeit in der Hauptsache für Marktforschungen eingesetzt.

105 Vgl. German Research Center for Artificial Intelligence: Text 2.0, in: Stand 05.2010 http://

text20.net

106 Vgl. J. Flatley: G-Tec Intendix brain-computer interface ready for consumers, in: Stand

05.2010 http://www.engadget.com/2010/03/10/g-tec-intendix-brain-computer-interfaceready-for-consumers-vid/

107 Mark Weiser: »The Computer for the 21st Century«, in: Scientific American, Vol. 265, Nr. 3

(1991), S. 66-75

Und online, in: Stand 05.2010 http://sandbox.xerox.com/want/papers/ubi-sciam-sep91.pdf

108 Mark Weiser und John S. Brown: Designing Calm Technology. Palo Alto 1995

51


52 computerzukunft

Der Begriff des „Ambient Display“ greift diese Idee auf. Als Beispiel wird oft das Wet-

ter beschrieben: Obwohl wir uns nicht bewusst darauf konzentrieren wissen wir etwa durch die

Lichtverhältnisse, wie wir uns kleiden müssen, wenn wir das Haus verlassen. Darauf spielen auch

Ishii und Ullmer in ihrem bereits oben erwähnten Aufsatz „Tangible Bits“ an:

„Tangible Bits also enables users to be aware of background bits at the periphery

of human perception using ambient display media such as light, sound, airflow, and

water movement in an augmented space.“ 109

Hier wird überdeutlich, wie eng die verschiedenen Schlagworte des Ubiquitous Computing >>38

ineinander verwoben sind. Als weiteres Beispiel möchte ich auf ein von Ischii und Ullmer entwickeltes

Ambient Display hinweisen, welches den Besucherstrom einer Website abbildet: Ein

Schwimmer in einer Wasserschale kann mit einem Elektromagneten nach unten gezogen werden.

Das geschieht jedes mal wenn ein Benutzer die Website besucht. Eine Lichtquelle projiziert die

entstehenden Wellen an die Decke.

Die ständig komplexer werdenden Computersysteme werden auch immer schwerer zu kontrol-

lieren. Als greifbares Beispiel dient die ständig steigende Kapazität der Speichermedien die den

User zu einem Messietum verleitet. In der so angehäuften Datenmenge fällt es immer schwerer

einzelne, unter Umständen schon jahrealte Daten wiederzufinden.

Die 2005 eingeführte Spotlight-Suche des Mac-Betriebssystems ist die Lösung für dieses Problem.

Der User tippt Teile des Dateinamens oder des Dateiinhalts in das Suchfeld und das System

findet aus seiner ständig aktuellen Datenbank110 die entsprechenden Einträge. Spotlight ist ein

Assistenzsystem, das dem User den Umgang mit dem Computer erleichtert, indem es

ihn von der Aufgabe entbindet, immer genau wissen zu müssen wo sich seine Dateien befinden.

Ein weiteres Beispiel für ein solches System stellt Apples „Data Detectors“ dar. Dieses System

erkennt bestimmte Informationen innerhalb eines Textes und macht Vorschläge wie weiter damit

zu verfahren ist. So wird beispielsweise vorgeschlagen, Adressen oder Telefonnummern dem

109 Hiroshi Ishii und Brygg Ullmer: Tangible Bits: Towards Seamless Interfaces between

People, Bits and Atoms. Cambridge 1997.

Online in: Stand 05.2010 http://old.sigchi.org/chi97/proceedings/paper/hi.htm

110 Ein Crawler scannt in regelmäßigen Abständen das System und hält die Indexdatenbank so

auf dem aktuellsten Stand.


Adressbuch hinzuzufügen. Ein ständig „mitlesender“ Parser ist damit quasi proaktiv und erfüllt

bereits Libermans rudimentäre Definition eines Agenten:

„An agent is any program that can be considered by the user to be acting as an

assistant or helper, rather than as a tool in the manner of a conventional direct

manipulating interface. An agen should display som (but perhaps not all) of the

charateristics that we associate with human intelligence: learning, inference,

adaptibilty, independence, creativity, etc. The user can be said to delegate a task to

an agent rather than command the agent to perform the task.“ 111

Komplexere Agentensysteme fordern den Einsatz von künstlicher Intelligenz.

„a fundamental rethink is needed about the nature of the interaction between

computer and user. It must becoma an equal partnership - the machine should not

just act as a dumb receptor of task descriptions, but should cooperate with the user

to achieve their goal.“ 112

In Zukunft sollen also nicht mehr die einzelnen Aufgaben deligiert werden – wie, um bei obigem

Beispiel zu bleiben: „Finde diese Datei!“. Sondern das Gesamtziel: „Mein Freund Max Muster

braucht diese Datei.“ Um ein so formuliertes Ziel zu erreichen, muss der Agent den Kontext kennen,

verstehen, mitdenken um dann gegebenenfalls proaktiv zu handeln.

Pflüger meint dazu:

„heute deutet vieles darauf hin, dass ‚intelligente Agenten‘ fabelwesen bleiben

werden, weil die fabelhaften kreativen und sozialen Eigenschaften, die man ihnen

zuschreibt, inzwischen in den sozialen Welten des Web 2.0 durch die Kooperation

vieler Individuen eingelöst werden. Das Agentendasein beschränkt sich dann auf

111 H. Lieberman: »Autonomous Interface Agents«, in: Proceedings of the ACM Conference on

Computers and Human Interface. Cambridge 1997

112 N. R. Jennings und M. J. Wooldridge: »Applications of Intelligent Agents«, in: N. R.

Jennings und M. J. Wooldridge (Hrsg.): Agent Technology. Foundations, Applications, and

Markets. Berlin, Heidelberg, New York 1998, S. 7

53


54 computerzukunft

selbsttätige Programme wie RSS-Feeds, die Aktuelles zugänglich machen und

Webseiten oder Tools, die die ‚Wisdom of the Crowds‘ sondieren und verdaulich

aufbereiten.“ 113

cloud computing bezeichnet die Idee, informationstechnische Ressourcen, wie Rechenleistung

oder Speicherplatz online zur Verfügung zu stellen. Google stellt seinen Nutzern so

beispielsweise aufwendige Anwendungen wie Google Docs (Office-Anwendung) oder Google-

Mail bereit, die ihrer konventionellen Desktop-Konkurrenz kaum nachstehen. Das Wort „Cloud“

(Wolke) beschreibt dabei treffend die Diffusität des „Wo“ und „Wie“: Zwar ist es im Web aufgrund

seiner Architektur normal, Wege nicht nachvollziehen zu können. Im Cloudcomputing aber

wirkt dies befremdlich – schließlich sind wir es gewohnt genau zu wissen: das ist MEIN Office-

Paket und in diesem Ordner sind MEINE Dokumente gespeichert.

Die rasche Verbreitung von immer schnelleren Internetzugängen ermöglicht es auch komplexeste

Anwendungen „Just-In-Time“ bereitzustellen. So geht Im Juni die Spieleplattform onlive

online. 114 OnLive stellt Videospiele auf Abruf in der Cloud zur Verfügung. Die aufwendigen

Berechnungen finden dabei ausschließlich serverseitig statt. Beim Spielen schickt der Nutzer dem

Server lediglich seine Tastatur- und Mauseingabe und erhält sofort die vom Server berechneten

Bilder. Auf teure Hardware kann auf Seiten der Nutzer also verzichtet werden. Die neusten 3D-

Spiele lassen sich so sogar auf einem Smartphone flüssig spielen.

Dieser Trend unterstützt die Vision des Ubiquitous Computing, denn die ubiquitären Sensoren

müssen so im Idealfall nicht mit zusätzlichen Speicher oder Rechenleistung ausgerüstet werden,

sondern können die ermittelten Daten direkt in die Cloud senden, die diese dann ubiquitär

verfügbar machen kann. Das Abfragen und Managen der Datenströme kann so von überall und

ständig erfolgen.

113 Jörg Pflüger: »Interaktion im Kontext«, in: Hans Dieter t: Mensch-Computer-Interface.

Zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 371.

114 Vgl Onlive: Just Play, in: Stand 05.2010 http://www.onlive.com


hoffnungen unD Ängste

56 hoffnungen und Ängste

Kontrollverlust >>56 / technikpaternalismus >>56 / rückeroberung

menschlicher lebensstile >>57 / glück per Zwang >>58

Die Visionen eines omnipräsenten, unsichtbaren und intelligenten Computing schürt, auch fernab

aller Hollywood-Untergangsphantasien, begründete Ängste:

„Given a few billion human users, each of whom is able to generate a sizable agent

constituency, we should anticipate interaction spaces involving many trillions

of agents. Since these agents will interact with each other as they go about our

business, we need to invent technologies that sustain human control over agentbased

systems, yet allow agents to autonomously negotiate with each other in ways

that honor overall systems objectives and constraints.“ 115

Mattern und Langheinrich stellen fest:

„In einer Welt, die von immer mehr selbstständig handelnden Dingen

bevölkert wird, überträgt der Mensch einen Teil seiner Entscheidungs- und

Handlungskompetenz and computergesteuerte Gegenstände und gibt daimt bewusst

ein Stück seiner Autonomie auf.“ 116

Das ist zwar bequem, macht den Menschen aber auch noch abhängiger von der Technik, was

„eine wesentlich höhere Anfälligkeit im Krisenfall nach sich zieht und damit unsere Gesellschaft

insgesamt gefährden kann.“ 117 Befürchtungen eines Kontrollverlusts spiegeln sich

auch in Spiekermanns Begriff des technologiepaternalismus wider. Danach tritt

die Technologie als „Pater“, also als bestimmendes Familienoberhaupt auf, der seinen (untergebenen)

Benutzern vorschreibt, wie sie sich zu verhalten haben. Als Beispiel führt sie Autos an,

115 David Tennhouse: »Proactive Computing«, in: Communications of the ACM. Jahrgang 43.

Heft 5 (2000), S. 43

116 Friedmann Mattern und Marc Langheinrich: »Eingebettete, vernetzte und autonom

handelnde Computersysteme: Szenarien und Visionen«, in: Albert Kündig und Danielle

Bütschi (Hrsg.): Die Verselbstständigung des Comuters. Zürich 2008, S. 73

117 Ebd. S. 72


die bereits heute „unüberhörbar piepen, sobald wir sie - wie von entsprechenden Sensoren

festgestellt - ohne Anlegen des Sicherheitsgurtes von der Stelle bewegen möchten.“ 118 Pflüger

schreibt zum Kontrollverlust im Ubiquitous Computing auch in Bezug auf Weiser: 119

„In der großen weiten Welt steht zu befürchten, dass die Hintergründigkeit der

verteilten Automaten schlicht bedeutet, dass ‚the people shared by the computers‘

unauffällig kontrolliert werden und nicht registrieren, wie und was diese

registrieren.“ 120

Darüber hinaus wird auch heute schon breit über die Gefahr des Cyberkriminalismus und des

Datendiebstahls diskutiert. Diese Problematik bekommt in einer vernetzten Welt im Sinne des

Ubiquitous Computings >>38 eine ganz neue Dimension. Andere sehen die Entwicklung

optimistischer:

„Die radikale Verdrängung von Computertechnologie in den Hintergrund,

eingebettet und versteckt in Alltagsgegenständen sowie zur Übernahme von

Routinetätigkeit kultiviert, wahrt die Hoffnung auf rückeroberung

‚menschlicher lebensstile‘ durch Pervasive Computing -

zumindest aus technologischer Sicht.“ 121

118 Sarah Spiekermann und Frank Pallas: »Technologiepaternalismus - Soziale Auswirkungen

des Ubiquitous Computing jenseits von Privatsphäre «, in: Friedmann Mattern (Hrsg.): Die

Informatisierung des Alltags. Leben in smarten Umgebungen. Berlin und Heidelberg 2007

119 „If the computational system is invisible as well as extensive, it becomes hard to know

what is controlling what, (...) and what are the consequences of any given action (including

simply walking into a room).“

Mark Weiser u.a.: »The origins of ubiquitous computing research at PARC in the late

1980s«, in: IBM Systems Journal, Jahrgang 38. Heft 4, S. 693-696

120 Jörg Pflüger: »Interaktion im Kontext«, in: Hans Dieter Hellige: Mensch-Computer-

Interface. Zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 381

121 Alois Ferscha: »Pervasive Computing: connected > aware > smart«, in: Friedmann

Mattern (Hrsg.): Die Informatisierung des Alltags. Leben in smarten Umgebungen. Berlin

und Heidelberg 2007, S. 3

57


58 prognostik

Ganz ähnlich sieht das der Mathematiker und Philosoph Gunter Dueck, wenn er davon träumt

wie Computer und ihre Messungen die Welt retten. 122 Ausgegangen wird von einer Ambient

Intelligence, die den Menschen auf Glück trimmt, da sie (also das System) versteht, „dass sie mit

glücklichen Menschen profitablere Mitarbeiter [hat].“ 123 Er fügt hinzu:

„Notfalls per Zwang werden sie unser Leben so regeln, dass alles in Ordnung

kommt.“ 124

Diese Hoffnungen und die oben beschriebenen Befürchtungen sind natürlich von den tatsächlichen

technischen Entwicklungen der nächsten Jahre abhängig. Hellige sieht in den beschriebenen

Visionen intelligenter Umgebungen im Ubiquitous Computing lediglich eine Wiederholung der

„frühere[n] Illusionen einer vollständigen Berechenbarkeit und raschen Automatisierung von Alltagsabläufen“.

Letztere seien nämlich derart komplex, dass „proaktive Anwendungsprogramme

in eine kaum zu beherrschende Komplexitätsfalle“ liefen: 125

„The sophistication of commonsense reasoning and context awareness that is

required is daunting, given the current state of our understanding of these fields.

(...) No matter how hard the system designer tries to program contingency plans

for all possible contexts, invariably the system will sometimes frustrate the home

occupant and perform in unexpected and undesirable ways. A learning algorithm

would also have difficulty because a training set will not contain examples of

appropriate decisions for all possible contextual situations.“ 126

122 Vgl. Gunter Dueck: Wild Duck. Empirische Philosophie der Mensch-Computer-Vernetzung.

Berlin, Heidelberg 2008, S. 18

123 Ebd. S.VII

124 Ebd.

125 Hans Dieter Hellige: »Krisen- und Innovationsphasen in der Mensch-Computer-

Interaktion«, in: Hans Dieter Hellige: Mensch-Computer-Interface - zur Geschichte und

Zukunft der Computerbedienung. Bielefeld 2008, S. 73f

126 B. N. Schilit u.a.: »Context-aware Computing Applications«, in: Proceedings of the 1st

International Workshop on Mobile Computing Systems and Applications. Santa Cruz 1994,

S. 85-90


Dementsprechend fordert Hellige unter Anderem eine „Absage an überzogene KI- und NUI-

Visionen“ bei der Entwicklung zukünftiger HCI-Modelle.

59


60 prognostik

prognostIK

Demographie >>60 / technikfolgeabschätzung >>61 /

Komplexitätsforschung >>62

Es gibt verschiedene Herangehensweisen zukünftige Entwicklungen vorherzusehen.Zum

Beispiel die Demografie, mit der sich zukünftige Gesellschaftsstrukturen sehr genau

vorhersagen lassen — schließlich werden die heute 40-Jährigen in 20 Jahren sehr wahrscheinlich

60 sein. Aus diesen Daten lassen sich wiederum andere Vorhersagen, wie zum Beispiel eine

dann nötige Umstrukturierung des Arbeitsmarktes und Schwierigkeiten bei der Einhaltung des

Generationenvertrags, ableiten. Diese Ableitungen sind dann zwar wissenschaftlich fundiert,

sicher sind sie jedoch nicht, denn Zukunftsforschung ist in der Regel Soziologie und somit

eine weiche Wissenschaft. Besonders in der der Wirtschaft, wo das Er- und Verarbeiten von

Zukunftsprognosen eine lange Tradition hat, kommt dies zum Tragen. So basiert beispielsweise

das System der Börsen grundlegend auf dem Prinzip, zukünftige Entwicklungen und die

Reaktionen darauf abschätzen zu können. Wie wird sich ein neues Produkt verkaufen und wie

wird das Gros der Anleger darauf reagieren? Ein weiteres Beispiel aus der Wirtschaft sind

Berater. Sie unterstützen Unternehmen durch ökonomische prognosemethoden wie

Regressions- oder Zeitreihenanalysen, die zwar mit harten Daten gefüttert werden, grundlegend

jedoch auf der Intuition des Modellbenutzers beruhen:

„Der Prognoseerfolg eines ökonometrischen Modells hängt wesentlich von der

richtigen Vergabe der exogenen Variablen ab, die Ausdruck des Modellbenutzers

und nicht des Modells ist“ 127

Deshalb macht sich trotz der langen Tradition, einem „hohen Institutionalisierungsgrad“, sowie

einer „beeindruckenden Fülle prognostischer Instrumente“ eine „geringe Treffsicherheit der

Wirtschaftsprognosen auf ökonometrischer Grundlage bemerkbar“. 128

127 W. Frerichs und K. Kübler: Gesamtwirtschaftliche Prognoseverfahren. München 1980,

S. 31

128 Günther Frederichs und Anja Hartmann: »Technikfolgen-Abschätzung und Prognose im

Wandel«, in: T. Petermann. (Hrsg.): Technikfolgen-Abschätzung als Technikforschung und

Politikberatung. Frankfurt 1992, S. 73-94

Online in: Stand 05.2010 http://www.itas.fzk.de/deu/Itaslit/frha92a.pdf


Parallel zur etablierten Wirtschaftsprognostik entwickeln sich seit einigen Jahren

„‚Agenturen‘ und ‚ThinkTanks‘, ‚Büros‘ und ‚Institute‘, ‚Scouts‘, ‚Coolhunter‘, ‚Futurists‘

und ‚Forschungsteams‘, die Informationen über Trends und Zukünfte anbieten.“ 129 Rust,

selbst Soziologe, bescheinigt in seiner Expertise den „strategischen Opportunismus, [den]

rhetorischen Konstruktivismus und [die] methodologische Scharlatanerie der boulevardesken

Trend- und Zukunftsforschung (...)“. 130 Ein weiterer Bereich der Prognostik stellen

technikfolgeabschätzungen dar. Deren Ziel ist es nicht eine „ ‚Kalkulation‘

der tatsächlich eintretenden Folgen“, sondern vielmehr eine „ ‚Abschätzung‘ in dem Sinne, dass

ihnen durch heutiges Handeln begegnet werden kann“, zu entwickeln. 131 Die Technikentwicklung

wird dabei ebenfalls als sozialer „Prozeß mit gesellschaftlichen Antriebskräften“ aufgefasst. 132

Die Prinzipien der Technikentwicklung werden wie folgt zusammengefasst:

• „Technik wird nicht nur durch ihre Maschinen, Anlagen usw.

beschrieben, sondern auch durch die Ideen, Entwicklungsprinzipien,

programmatischenVorstellungen, prototypischen Erfahrungen einer

wissenschaftlich-technischen Community und ihrer Institutionen.

• Die gesellschaftlichen Antriebskräfte für die Gestaltung und Anwendung

der Technologie lassen sich durch Orientierungen und Ziele charakterisieren,

die sowohl in der Gesellschaft generell vorhanden sind als auch von einzelnen

Akteuren vorangetrieben werden. (...) Sie unterliegen einem ständigen Wandel, so

daß heute gutgeheißene Technologien morgen auf mehrheitliche Ablehnung stoßen

können.

• Die Technikgestaltung besteht in der Auswahl bestimmter (und gleichzeitigem

Verwerfen alternativer) Optionen und der Methoden ihrer Implementation in

bestehende soziale Systeme (Betrieb, Büro, Labor usw.) unter dem Einfluß

129 Holger Rust: Zukunftsillusionen. Kritik der Trendforschung. Wiesbaden 2008, S. 17

130 Ebd. S. 29

131 Günther Frederichs und Anja Hartmann: »Technikfolgen-Abschätzung und Prognose im

Wandel«, in: T. Petermann. (Hrsg.): Technikfolgen-Abschätzung als Technikforschung und

Politikberatung. Frankfurt 1992, S. 75

Online in: Stand 05.2010 http://www.itas.fzk.de/deu/Itaslit/frha92a.pdf

132 Ebd. S. 90

61


62

beteiligter Akteure.

• Die Technikpotentiale und -folgen betreffen vor allem Veränderungen in den

umgebenden (evolutionär entstandenen) Systemen, die sich unter Gewinn,

Kosten und Risiken vollziehen. Unerwünschte Folgen können und sollen zu

Korrekturen des Technikentwurfs führen, andernfalls haben sie verlustreiche

Anpassungsprozesse der betroffenen Systeme zur Folge.“ 133

Angesichts der sich daraus ergebenden Komplexität des Systems „Technologieentwicklung“ wird

deutlich, dass keine Prognose als definitiv, sondern vielmehr als vage Vorstellung dessen, was

sein könnte, zu betrachten ist. Einen recht jungen Ansatz zur Betrachtung ebensolcher komplexer

Systeme stellt die Komplexitätsforschung dar:

„It is an interdisciplinary methodology to explain the emergence of certain

macroscopic phenomena via the nonlinear interactions of microscopic elements in

complex systems.“ 134

Entgegen der bisher gängigen, vom französischen Mathematiker Laplace geprägten

Vorstellung, man könne aus dem präzisen Wissen aller Anfangsbedingungen und der

Naturgesetze Zukunft (und Vergangenheit) errechnen („Laplacescher Dämon“), weist die

Komplexitätsforschung auf eine nicht-deterministische und nonlineare

Entwicklung bei komplexen Systemen hin. Komplexe Systeme entstehen dann, wenn mindestens

drei Körper miteinander wechselwirken. Man spricht von komplexer Dynamik. Ein Beispiel

für ein komplexes System ist das Klima: Das Verhalten aller Komponenten ist hochlinear und

berechenbar. Die Komplexität entsteht durch die Kombination der Komponenten, was das

Gesamtsystem Klima kaum prognostizierbar macht. Typisch für komplexe Systeme ist, dass

geringste Abweichungen in den Anfangsbedingungen unter Umständen enorme Auswirkungen

auf die Ergebnisse der Prognose haben. 135 Nicht zuletzt dank stetig höherer Rechenleistung

133 Ebd.

134 Klaus Mainzer: Thinking in Complexity: The Computational Dynamics of Matter, Mind

and Mankind. Berlin und Heidelberg 2007, S. 1

135 Vgl. 3sat Scobel: Komplexität, in: Stand 05.2010 http://hstreaming.zdf.de/3sat/veryhigh/

scobel_080515_komplexitaet.mov


moderner Computer wurde die Theorie nichtlinearer, komplexer Systeme zum erfolgreichen und

anerkannten Lösungsansatz in der Naturwissenschaft. 136 Mehr noch: Die Theorie komplexer

Systeme stellt sich als ein interdisziplinär anwendbares Verfahren dar, mit dessen Hilfe sich zum

Beispiel meteorologische, chemische, biologische, ökonomische aber auch soziologische Systeme

modellieren lassen. 137 So gibt es auch Modelle zur Abschätzung zukünftiger Entwicklungen,

insbesondere im Bereich der Wissenschaft: Diese sind geprägt durch die komplexe Dynamik

von Ideen und Gruppen, die im komplexen Netzwerk der Gesellschaft eingebettet sind.

Weiterhin ziehen, über bestimmte Zeiträume, Forschungsgegenstände und Themen weitere

Forscher an. Wird die Forschung instabil, etwa wenn sich keine Erfolge abzeichnen, splitten

sich die Forschergruppen in Untergruppen auf und so weiter. Die Interdisziplinarität des

Prinzips komplexer Systeme wird erneut deutlich, wenn Mainzer die komplexe Dynamik des

so beschriebenen Wissenschaftsbetriebs mit den Gleichungen zum komplexen Verhalten einer

Flüssigkeit vergleicht. 138 Und Trotzdem:

„Today, nonlinear forecasting models do not always deliver better and more effiient

predictions than the standard linear procedures.“ 139

So bezeichnet Mainzer die Vorhersagemodelle auf Basis der Komplexitätsforschung auch als

Instrument, erstrebenswerte Ziele und ihre Chance auf Realisierung zu bewerten. 140 Er stellt klar:

„No prediction is possible.“ 141

136 Vgl. Klaus Mainzer: Thinking in Complexity: The Computational Dynamics of Matter,

Mind and Mankind. Berlin und Heidelberg 2007, S. 1

137 Vgl. ebd. S. 14 f

138 Vgl. ebd. S. 425

139 Ebd. S. 423

140 Vgl. ebd. S. 430

141 Ebd. S. 417

63


64 raumnutung 2020

rAuMnutZung 2020

personal Device >>64 / sensoren >>67 / spiele >>68 / persönliche

präferenzen >>71 / Deckenkamera >>71 / Augmented reading >>71 / tuI-herd >>72

und Koch-programme >>72 / Interface-Arbeitsplatz >>74 / Intelligente

türklingel >>76 / tV >>76

In meinem Konzept zur Computer(be)nutzung im Jahr 2020 versuche ich, im Sinne Helliges, auf

eine übertriebene KI-Gläubigkeit zu verzichten. Stattdessen berufe ich mich auf bereits heute

verfügbare, oder zumindest in Entwicklung befindliche Technologien und deren

rekombination. Da sich die Entwicklung zur ubiquitären Computernutzung nicht schlagartig,

sondern vielmehr als schleichender Prozess vollzieht, ist auch die Möglichkeit des Nachrüstens

neuer Elemente, sowie die Verwendung bereits etablierter Standards miteinzubeziehen.

So ist im Falle der lokalen, kabellosen Datenübertragung (beispielsweise innerhalb eines Hauses)

von einer Kombination aus WiFi- und Bluetoothfolgetechnologien auszugehen. 142 Beim mobilen

Internet sollte sich 2020 die LTE-Technologie als Standard etabliert haben. 143

In diesem Sinne gehe ich, mit Bezug auf immer leistungsfähigere Mobil-Computer (wie etwa

Smartphones) sowie auf die Konzepte des Cloud-Computing, von einem Personal Device (im

Folgenden kurz PD) aus, den die Menschen stets bei sich tragen. Das PD verbindet sich mit den

Geräten in seiner Umgebung und dient so als informationstechnologische Schnittstelle zwischen

den sich in der Umgebung befindlichen Sensoren und Geräten und dem einzelnen User. Sicherlich

können viele Ideen des Konzepts auch ohne einen solchen PD gedacht werden. Er bietet jedoch

diverse Vorteile:

• PD als sicherer Ort der persönlichen Daten. Der PD könnte so konfiguriert werden, dass

Daten, zum Beispiel zur Identifikation, nur wenn unbedingt nötig und mit dem expliziten

142 Relevant für die (kabellose) Verbindung der Komponenten ist auch die Middleware, die die

Organisation der so verbundenen Elemente auf der Softwareseite regelt.

Weitere Informationen dazu bei:

Thomas Schoch: »Middleware für Ubiquitous-Computing-Anwendungen«, in: Elgar

Fleisch und Friedmann Mattern: Das Internet der Dinge. Ubiquitous Computing und RFID

in der Praxis. Berlin, Heidelberg 2005

143 Vgl. etwa Stefan Schultz: Funkfrequenz-Auktion. Milliardenpoker ums mobile Internet, in:

Stand 05.2010 http://www.spiegel.de/wirtschaft/unternehmen/0,1518,688040,00.html


Einverständnis des Benutzers in die Umgebung abgegeben werden. Das schafft Transparenz

und ermöglicht es der Technik, sich zu etablieren.

• Um Personen in einem Raum zu erkennen müssen keine Kameras verbaut werden.

• PD als persönliches Display wenn sonst keines vorhanden ist (etwa im öffentlichen Raum).

Abgesehen wird hier von Head-Mounted-Displays (kurz: HMD) in Form von Brillen, Kontaktlinsen

oder gar Implantaten.

• PD als gewohntes Universalinterface etwa im Umgang mit Multimediageräten als Fernbedie-

nung. 144

Diesbezüglich ist weiterhin zu beachten:

„Die Gestaltung interaktiver Systeme geschieht heute nicht mehr in einem

‚luftleeren Raum‘. Es existieren bereits viele Systeme, die die Benutzer kennen

und aus denen sie Wissen und Erfahrungen sinnvollerweise auf neue Systeme

übertragen möchten.“ 145

144 Vgl. Florian Dusch: Universal Remote – Entwicklung eines standardisireten Interfaces für

eine geräteübergreifende Fernbedienung. Stuttgart 2008

145 Horst Oberquelle: »Benutzergerechte MCI in einer dynamischen Welt - eine

Gestaltungsaufgabe.«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface. Zur

Geschichte und Zukunft der Computerbedienung. Bielefeld 2008, S. 160

Abb. 24: Grafik Personal Device (PD)


66 raumnutzung 2020


Nach und nach installierte sensoren erleichtern unseren Alltag.

Sie nehmen Zustände ihrer Umgebung sowie unseres Körpers wahr und

reagieren entsprechend. Das allmorgentliche Aufstehen könnte so deutlich

angenehmer werden: Sensoren (etwa in der Matraze, der Bettdecke oder

unserer Kleidung) überwachen die Körperfunktionen und erkennen so den

optimalen Weckzeitpunkt innerhalb eines vorher angegebenen Zeitraums. 146

Letzteres übernimmt automatisch das PD >>64 , welches auch unsere Termine

verwaltet. Selbstverständlich kennt unser PD auch die Musik, die wir zur

Zeit am liebsten hören und weckt uns mit sanft ansteigender Lautstärke. 147

Diese Sensoren kontrollieren auch unsere Vitalfunktionen und schlagen

gegebenenfalls Alarm. Dies ist insbesondere für ältere Menschen interessant

aber auch Diabetiker können so ruhiger schlafen.

Ein integriertes Projektorsystem projiziert Optionen für die Wahl der

Kleidung, die das PD aufgrund des zu erwartenden Tagesverlaufs und der

Wettervorhersage, sowie unter Berücksichtigung aktueller Mode, errechnet.

Entscheidet man sich für eine der empfohlenen Optionen, werden die Kleidungsstücke

im Schrank entsprechend markiert.

146 Vgl. Sleeptracker, in: Stand 05.2010 http://www.sleeptracker.de

147 Um zu verhindern, dass noch weitere Personen geweckt werden,

könnte auf Lautsprecher zurückgegriffen werden, die den Ton

punktgenau projizieren. Vgl. dazu: Holosonics, in: Stand 05.2010

http://www.holosonics.com

67


68 raumnutzung 2020

Auch im Boden des Badezimmers könnten Sensoren verbaut sein. So ist

etwa eine aktive Fläche vor dem Waschbecken denkbar, die zum Beispiel

das Körpergewicht und andere relevante Daten erhebt. Diese könnten dann

über ein im Badspiegel integriertes Display zugänglich gemacht werden.

Letzteres könnte außerdem ein Zahnputz-Programm als eine Art spiel148 implementieren, welches nicht nur Kinder motivieren dürfte gründlicher die

Zähne zu putzen.

148 Vgl. Jesse Schell, in: Stand 05.2010 http://g4tv.com/videos/44277/dice-

2010-design-outside-the-box-presentation/


78,4 kg

Fett: 13,8 %

Wasser: 45,0 %

Blutdruck ok

Blutzucker ok

Vitalfunktionen ok

-15s

-1 :23min

69


70 raumnutzung 2020


Dank des PDs >>64 könnten die einzelnen Räume stets darüber informiert

sein, wer sich gerade in ihnen befindet. Ist der private Wohnbereich in-

formationstechnisch ein, bis auf wenige kontrollierte Ausnahmen (etwa

das WWW), abgegrenzter Bereich, ist die Erfassung dieser Informationen

unproblematisch. Das ermöglicht es den Systemen die persönlichen

präferenzen der einzelnen Bewohner (User) gezielt zu bedienen:

Kommt beispielsweise Person A in den Wohnbereich und stehen keine

weiteren Termine an, möchte er in der Regel über die Nachrichten des Tages

informiert werden. Kommt Person B in den selben Raum könnte beispielsweise

eine bestimmte Musik spielen. Treffen beide Personen aufeinander

wird das System nicht automatisch reagieren.

Unsichtbar installierte Deckenkameras, insbesondere in den Auf-

enthaltsbereichen wie Küche, Ess- und Wohnbereich erkennen, wenn zum

Beispiel eine Zeitung gelesen wird. Möchte man dann mehr zu einem gedruckten

(und somit womöglich nicht mehr ganz aktuellen Artikel) erfahren,

zeigt man das dem System mittels Fingerzeig an. Ein installiertes Projektorsystem

blendet dann direkt zusätzliche Informationen, wie Videos, weitere

Bilder oder ausführlichere Texte ein. 149 Mit Bezugnahme auf den Begriff der

Augmented Reality >>41 möchte ich das als Augmented reading

bezeichnen. Das vielbeschworene verschwinden gedruckter Medien wäre

damit passé.

149 Vgl. Rick Kjeldsen u.a.: »Dynamically Reconfigurable Vision-Based

User Interfaces.« New York 2003

Online in: Stand 05.2010 www.research.ibm.com/ed/publications/

icvs03.pdf

Diese Einbelndung geschieht, unabhängig von Beschaffenheit und

Farbe der Oberfläche, auf die projiziert wird, scharf und farbecht.

Vgl. Smart Projecting, in: Stand 05.2010 http://www.vioso.com/de/

profi-tools/vioso-presenter-pro/

Insbesondere das Feature „Projektion auf ungewöhnliche

Oberflächen“

71


72 raumnutzung 2020

Die Bedienung eines Herds könnte durch ein Tangible User Interface >>46

funktionieren (tuI-herd): Das mit Induktionsspulen ausgestattete

Kochfeld erhitzt den Inhalt eines Topfes abhängig von dessen Position auf

dem Feld. Steht er etwa sehr nahe beim Koch, so ist davon auszugehen, dass

er sich in dessen Sicht- und Aufmerksamkeitsfeld des Koches befindet. Viel

Energie und damit schnelles Erhitzen des Inhalts. Soll nur warm gehalten

werden, schiebt man den Topf weit von sich weg. Natürlich muss zusätzlich

ein optisches Feedback gegeben werden, sodass die Energiezufuhr auch

manuell geregelt werden kann (etwa durch Drehen des Topfes). Weiterhin

sind Koch-programme für Standardprozeduren, wie etwa Nudeln

kochen, vorstellbar: Das System erkennt über die Deckenkamera >>71 die

Packung der Nudeln, wiegt die Portion, die man ins Wasser gibt, empfiehlt

die Salzmenge und sorgt für die optimale Kochdauer.


74 raumnutzung 2020

Wie aber werden wir computerzentrierte Aufga-

ben, wie etwa Textverarbeitung, Tabellenkalku-

lation, Grafik- und Webdesign erledigen?

„Ubiquitäre Informationssysteme

haben neue Qualitäten und

unterscheiden sich in vielerlei

Hinsicht vom PC. Es ist daher

wichtig zu verstehen, dass die

Anwendungsbereiche solcher

Systeme größtenteils nicht

diejenigen Bereiche sind, in denen

heute PCs eingesetzt werden. Es

ist insofern unwahrscheinlich,

dass Anwendungen, für welche

heute PCs optimiert sind (...),

in naher Zukunft durch andere

Systeme ersetzt werden.“ 150

Dank äußerst schneller Internetverbindung und

verbreitetem Cloud Computing >>54 könnten

heute übliche Desktop- und Notebookcomputer

trotzdem zum Relikt werden: So könnten besagte

Aufgaben an „Interface-

Arbeitsplätzen“,

150 Albrecht Schmidt: »Eingebettete

Interaktion – Symbiose von Mensch und

Information«, in: Friedmann Mattern

(Hrsg.): Die Informatisierung des Alltags.

Leben in smarten Umgebungen. Berlin,

Heidelberg, New York 2007, S. 81


die ausschließlich aus Ein- und Ausgabegeräten

bestehen. Zur Eingabe ist zum Beispiel eine

aktive Fläche denkbar, die, je nach Anwendung,

ein entsprechendes Interface bereitstellt. Auch

ergänzende Sprach- und/oder Gesteninterfaces

sind denkbar. Um den Arbeitsplatz zu aktivieren,

müsste man sich einfach in dei Nähe

begeben und sein PD >>64 mit sich führen. Dieses

verbindet sich mit den vorhandenen Ein- und

Ausgabegeräten und greift online auf die entsprechende

Software zu. Sämtliche Rechenarbeit

und der überwiegende Teil der Speicherung

erfolgt serverseitig in der Cloud. Das PD dient

als informationstechnische Schnittstelle.

Bezüglich der Arbeits- und Bürowelt ist es

weiterhin vorstellbar, Konferenzen, Meetings

oder Brainstorming-Sessions, deren Ergebnisse

etwa auf Flip-Chart-großen, aktiven Flächen

festgehalten werden, direkt mit den PDs der

Teilnehmer zu synchronisieren. Auch könnten

die besprochenen Inhalte automatisch mitgeschnitten

und auf den PDs gespeichert und bei

Bedarf wieder abgerufen werden.

75


Betrachtet man die bisherige Entwicklung der Mobilfunknet-

ze und -technologien, liegt die Vermutung Nahe, dass immer

mehr Haushalte weitestgehend auf einen konventionellen

Festnetzanschluss verzichten werden. Benötigt würde lediglich

eine Internetverbindung um etwa von außerhalb auf Überwachungskamerabilder,

Energiedaten, Heizungs- und Jalousiesteuerung

zugreifen zu können.

Auch die Kommunikation innerhalb des Hauses, etwa die

türklingel, könnte über die PDs >>64 abgewickelt werden.

Je nachdem wer vor der Tür steht, würden nur bestimmte

Bewohne benachrichtigt: Bekommt beispielsweise Person A

ein Päckchen geliefert, erhält auch nur Person A das Türsignal

auf das PD. Ebenso könnten, mittels der PDs, viele Geräte im

Haus (an-)gesteuert werden: Musik würde etwa auf im Raum

integrierte Boxen übertragen, die vielfältigen Funktionen des

tV151 wären komfortabel mit dem Touchscreen des PDs zu

steuern und Lichter schalteten sich (rechtzeitig und automatisch)

ein und passten die Beleuchtung der Situation an.

151 Schon heute ist Internetfunktionalität bei TV-Geräten

gängig. Denkbar wären, dieser Richtung folgend,

Fernsehsender, die lediglich als Rahmen für ihr

Programm dienen. Die Zuschauer könnten sich zu

beliebigen Zeitpunkten beliebige Sendungen oder Filme

abrufen. Denkt man noch weiter, könnten TV-Sender zu

reinen Inhaltsgeneratoren entwickeln, deren Angebot

über einen zentralen Dienst in die Wohnzimmer der

Zuschauer kommt. Für diese Entwicklung gibt es bereits

heute einige Beispiele:

Vgl. Google TV in: Stand 05.2010 http://www.google.

com/tv/

Vgl. Boxee, in: Stand 05.2010 http://www.boxee.tv/

76 raumnutzung 2020


Schaut man etwa einen Film, fährt die

Beleuchtung entsprechend herunter. Ein

neues Fernseherlebnis verspricht, zusätzlich

zur sich bereits heute etablierenden

3D-Technologie, die Erweiterung des

Fernsehbildes in den Raum, mithilfe des

integrierte Projektorsystems.

Für alle besprochenen Ideen sind etablier-

te, funktionierende Standards zur draht-

losen Verbindung der angesprochenen

Geräte zentral. Diesbezüglich konstatiert

Friedwald:

„Die Vision einer

nahtlos funktionierenden

einheitlichen Infrastruktur

ist also bestenfalls das

Trugbild einer niemals

realisierbaren Welt.“ 152

152 Michael Friedwald: „Ubiquitous

Computing: Ein neues Konzept

der Mensch-Computer-Interaktion

und seine Folgen“. In: Hellige,

Hans Dieter: „Mensch-Computer-

Interface. Zur Geschichte und

Zukunft der Computerbedienung“.

Bielefeld 2008. S.265

77


78

schluss

Wir leben in einer Zeit der „Gegenwartsschrumpfung“ 153 : Veränderungen finden immer schneller

statt, sodass die Zukunft immer näher an die Gegenwart heran rückt. Wir wissen zwar immer

mehr, aber trotzdem (oder gerade deshalb) immer weniger über unsere Zukunft. 154

In der vorliegenden Arbeit habe ich dennoch einige Ideen zur Zukunft des Computing und dessen

Bedienung skizziert. Die eingehende Untersuchung der Computer- und Interfacegeschichte >>12

zu Beginn der Arbeit zeigte erwartungsgemäß, dass im Bereich des Computing Vorhersagen

nicht möglich sind. Die Entwicklung verlief (und verläuft) äußerst sprunghaft und unter zahlreichen

Einflüssen. Weiter wurde gezeigt, dass die Entwicklung des WWW >>34 , die damit eng

verknüpfte Verbreitung des Computers als Medium >>34 , sowie die damit einhergehende Adaption

des User-Begriffs >>10 zu einer stark veränderten Wahrnehmung des Computers geführt hat. Zu

technischen wirken nun zunehmend auch gesellschaftliche und wirtschaftliche Aspekte auf die

Entwicklung des Computing ein. Meine differenzierte Beschäftigung mit konventionellen Prognosemethoden

>>59 und der diesbezüglich vielversprechenden Komplexitätsforschung >>62 stellte

erneut klar, dass echte Prognosen, insbesondere im Bereich der Technologieentwicklung, nicht zu

treffen sind.

Deshalb stützen sich die von mir beschriebenen Ideen auf bereits heute vorhandene Technik,

beziehungsweise deren Rekombination. 155 Die so erarbeitete Vision >>63 stellt einen realistisch

begründeten Möglichkeitsraum, keinesfalls jedoch eine Vorhersage, dar.

153 Vgl. H. Lübbe: Im Zug der Zeit. Berlin 1994

154 Vgl. t

155 Vgl. dazu auch Helliges Konzept der „Medienkombinatorik“ etwa in:

Hans Dieter Hellige: » „Kriesen und Innovationsphasen in der Mensch-Computer-

Interaktion«, in: Hans Dieter Hellige: Mensch-Computer-Interface. Zur Geschichte und

Zukunft der Computerbedienung. Bielefeld 2008


80

lIterAtur

bücher & wissenschaftliche Veröffentlichungen

J. Bitzer u.a. (Hrsg.): TAUCIS – Technikfolgenabschätzung Ubiquitäres Computing und informa-

tionelle Selbstbestimmung. Studie im Auftrag des Bundesministeriums für Bildung und For-

schung. Berlin und Kiel 2006

Henning Black und Rolf Kreibich (Hrsg.): Evolutionäre Wege in die Zukunft. Wie lassen sich

komplexe Systeme managen? Weinheim 1991

Gerhard M. Buurman: Total Interaction. Theory and practice of a new paradigm for the design

disciplines. Basel, Boston, Berlin 2005

Wolfgang Coy: »Auf dem Weg zum ‚Finalen Interface‘. Ein medienhistorischer Essay«, in Hans

Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur Geschichte und Zukunft der Computerbedienung.

Bielefeld 2008

Ahmed Danish: „Hybridization of Smart Textiles in Medical and Healthcare Management“. İzmir

2009

Online in: Stand 05.2010 http://danishchandna.files.wordpress.com/2009/12/paper-link.pdf

Gunter Dueck: Wild Duck. Empirische Philosophie der Mensch-Computer-Vernetzung. Berlin,

Heidelberg 2008

Florian Dusch: Universal Remote – Entwicklung eines standardisireten Interfaces für eine geräte-

übergreifende Fernbedienung. Stuttgart 2008

José L Encarnação u.a.: »Die Interaktion des Menschen mit seiner intelligenten Umgebung The

Human-Environment-Interaction (HEI)«, in Hans Dieter Hellige (Hrsg.): Mensch-Computer-

Interface - zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008

T. Djajadiningrat u.a.: »Augmenting Fun and Beauty: A Pamphlet«, in: Proceedings of DARE

2000 on Designing augmented reality environments. New York 2000, S. 131-134


Douglas C. Engelbart: Augmenting Human Intellext: A Conceptual Framework. Stanford 1962

Douglas C. Engelbart: Brief an Robert Taylor, 5.4.1963. Engelbart Papers, Department of Secial

Collections, Stanford University Libraries, Box 6 Folder 15, 11638

B. Fabian und M. Hansen: »Technische Grundlagen«, in: J. Bitzer u.a.(Hrsg.): TAUCIS – Tech-

nikfolgenabschätzung Ubiquitäres Computing und informationelle Selbstbestimmung. Studie im

Auftrag des Bundesministeriums für Bildung und Forschung. Berlin und Kiel 2006

Alois Ferscha: »Pervasive Computing: connected > aware > smart«, in: Friedmann Mattern

(Hrsg.): Die Informatisierung des Alltags. Leben in smarten Umgebungen. Berlin und Heidelberg

2007

A. Frankfurth, U. Winand: »Neue Geschäftsfelder, wirtschaftliche Impulse und Risiken«, in:

Alexander Roßnagel u.a. (Hrsg.): Digitale Visionen. Zur Gestaltung allgegenwärtiger Informationstechnologien.

Berlin, Heidelberg, New York 2008

Michael Friedwald: »Ubiquitous Computing: Ein neues Konzept der Mensch-Computer-Interak-

tion und seine Folgen«, in Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur Ge-

schichte und Zukunft der Computerbedienung. Bielefeld 2008

Heiko Ernst u.a. (Hrsg.): Lebenswelten 2020. 36 Zukunftsforscher über die Chancen von morgen.

Berlin, Düsseldorf 2000

Hans Dieter Hellige: »Kriesen und Innovationsphasen in der Mensch-Computer-Interaktion«, in:

Hans Dieter Hellige: Mensch-Computer-Interface. Zur Geschichte und Zukunft der Computerbedienung.

Bielefeld 2008

Ludolf Herbst: Komplexität und Chaos. Grundzüge einer Thorie der Geschichte. München 2004

Eva Hornecker: »Die Rückkehr des Sensorischen: Tangible Interfaces und Tangible Interaction«,

in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur Geschichte und Zukunft der

Computerbedienung. Bielefeld 2008

81


82

Matthias Horx: Das Zukunfts-Manifest. Düsseldorf, München 1997

Hiroshi Ishii und Brygg Ullmer: Tangible Bits: Towards Seamless Interfaces between People,

Bits and Atoms. Cambridge 1997

Hiroshi Ishii und John Underkoffler: Urp: A Luminous-Tangible Workbench for Urban Planning

and Design. Cambridge 1999

Online in: Stand 05.2010 http://tangible.media.mit.edu/papers/Urp_CHI99.php

N. R. Jennings und M. J. Wooldridge: »Applications of Intelligent Agents«, in: N. R. Jennings

und M. J. Wooldridge (Hrsg.): Agent Technology. Foundations, Applications, and Markets. Berlin,

Heidelberg, New York 1998

Michael F. Jischa: »Gedanken zur Wahrnehmung der Zukunft«, in: Reihnhold Popp und Elmar

Schüll (Hrsg.): Zukunftsforschung und Zukunftsgestaltung. Beiträge aus Wissenschaft und Praxis.

Berlin, Heidelberg 2009

Marc Jongen (Hrsg.): Philosophie des Raumes. Standortbestimmungen ästhetischer und politi-

scher Theorie. München 2008

Alan C. Kay: »Personal Computing«, in: Meeting on 20 Years of Comuting Science. Instituto di

Elaborazione della Informazione. Pisa 1975

Alan C. Kay und Adele Goldberg: »Personal Dynamic Media«, in: Noah Wardrip-Fruin und Nick

Montfort (Hrsg.): The New Media Reader. Cambridge, London 2003

Alan C. Kay: »The Early History of Smalltalk«, in: T. J. Bergin und R. G. Gibson (Hrsg.): History

of Programming Languages II. New York

Rick Kjeldsen u.a.: »Dynamically Reconfigurable Vision-Based User Interfaces.« New York 2003

Online in: Stand 05.2010 www.research.ibm.com/ed/publications/icvs03.pdf


Daniela Kloock und Angela Spahr: Medientheorien. Eine Einführung. München 2007

Joseph C. R. Licklider: »Graphic Input – a survey of techniques «, in: F. Gruenberger (Hrsg.):

Computer Graphics. utility, Production, Art. Washington 1967

Joseph C. R. Licklider: Libraries of the Future. Cambridge, Massachusetts 1965

Joseph C.R. Licklider: »Man-Computer-Symbiosis«, in: IRE Transactions on Human Factors in

Electronics. 1960,

Bd. 1

H. Lieberman: »Autonomous Interface Agents«, in: Proceedings of the ACM Conference on

Computers and Human Interface. Cambridge 1997

Marc Langheinrich: »RFID und die Zukunft der Privasphäre«, in: Alexander Roßnagel u.a.

(Hrsg.): Digitale Visionen. Zur Gestaltung allgegenwärtiger Informationstechnologien. Berlin,

Heidelberg, New York 2008

Lauritz L. Lipp: Interaktion zwischen Mensch und Computer im Ubiquitous Computing. Alter-

native Ein- und Ausgabemöglichkeiten für allgegenwärtige Informationstechnologien. Münster

2004

H. Lübbe: Im Zug der Zeit. Berlin 1994

F. Mattern: »Die technische Basis für das Internet der Dinge«, in: E. Fleisch und F. Mattern

(Hrsg.): Das Internet der Dinge. Berlin und Heidelberg 2005

Günther Frederichs und Anja Hartmann: »Technikfolgen-Abschätzung und Prognose im Wan-

del«, in: T. Petermann. (Hrsg.): Technikfolgen-Abschätzung als Technikforschung und Politikbe-

ratung. Frankfurt 1992

Online in: Stand 05.2010 http://www.itas.fzk.de/deu/Itaslit/frha92a.pdf

W. Frerichs und K. Kübler: Gesamtwirtschaftliche Prognoseverfahren. München 1980

83


84

Friedmann Mattern und Marc Langheinrich: »Eingebettete, vernetzte und autonom handelnde

Computersysteme: Szenarien und Visionen«, in: Albert Kündig und Danielle Bütschi (Hrsg.): Die

Verselbstständigung des Comuters. Zürich 2008

Michael Friedwald: „Ubiquitous Computing: Ein neues Konzept der Mensch-Computer-Interakti-

on und seine Folgen“. In: Hellige, Hans Dieter: „Mensch-Computer-Interface. Zur Geschichte und

Zukunft der Computerbedienung“. Bielefeld 2008

Klaus Mainzer: Thinking in Complexity: The Computational Dynamics of Matter, Mind and

Mankind. Berlin und Heidelberg 2007

John W. Maxwell: Tracing the Dynabook: A Study of Technocultural Transformations.

Vancouver 2006

Frieder Nake: »Zeigen, Zeichnen und Zeichen«, in Hans Dieter Hellige (Hrsg.): Mensch-Compu-

ter-Interface - zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008

Frieder Nake: »Vom Batch Processing zu Direct Manipulation: ein Umbruch im Umgang mit

Computern«, in: G. Hurrle und F.-J Jelich (Hrsg.): Vom Buchdruck in den Cyberspace? Mensch –

Maschine – Kommunikation. Dokumentation einer Tagung im DGB-Bildungszentrum. Marburg

1993

A. L. Norberg und J. O‘Neill: Transforming Comuter Technology: Information Processing for the

Pentagon, 1962-1986. Baltiore 1996

Donald A. Norman: Dinge des Alltags: gutes Design und Psychologie für Gebruachsgegenstände.

New York und Frankfurt am Main 1989

Horst Oberquelle: »Benutzergerechte MCI in einer dynamischen Welt - eine Gestaltungsaufga-

be.«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface. Zur Geschichte und Zukunft

der Computerbedienung. Bielefeld 2008


W. D. Orr: »The Culler-Fried Approach to On-Line Computing«, in: W. D. Orr (Hrsg.): Conversa-

tional Computers. New York, London, Sydney 1968

Jörg Pflüger: »Interaktion im Kontext«, in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Inter-

face - zur Geschichte und Zukunft der Computerbedienung. Bielefeld 2008

Ingrid Rügge: »Wege und Irrwege der Mensch-Maschine-Kommunikation beim Wearable

Computing« , in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur Geschichte und

Zukunft der Computerbedienung. Bielefeld 2008

Holger Rust: Zukunftsillusionen. Kritik der Trendforschung. Wiesbaden 2008

Theodore R. Schatzki: Martin Heidegger Theorist of space. Stuttgart 2007

B. N. Schilit u.a.: »Context-aware Computing Applications«, in: Proceedings of the 1st Internatio-

nal Workshop on Mobile Computing Systems and Applications. Santa Cruz 1994

Albrecht Schmidt: »Eingebettete Interaktion – Symbiose von Mensch und Information«, in:

Friedmann Mattern (Hrsg.): Die Informatisierung des Alltags. Leben in smarten Umgebungen.

Berlin, Heidelberg, New York 2007

Burghart Schmidt: Kritik der reinen Utopie. Stuttgart 1988

Sarah Spiekermann und Frank Pallas: »Technologiepaternalismus - Soziale Auswirkungen des

Ubiquitous Computing jenseits von Privatsphäre «, in: Friedmann Mattern (Hrsg.): Die Informatisierung

des Alltags. Leben in smarten Umgebungen. Berlin und Heidelberg 2007

Ivan E. Sutherland: Sketchpad: A man-machine graphical communicaion system. Cambridge

1963

Djamshid Tavangarian u.a.: Intelligent interactive assistance and mobile multimedia computing.

International Conference, IMC 2009 Rostock-Warnemünde, Germany, Novermber 2009, Proceedings.

Berlin, Heidelbarg 2009

85


86

Alan Turing: „Lecture to the London Mathematical Society on 20th February“. London 1947

Mark Weiser und John S. Brown: Designing Calm Technology. Palo Alto 1995

Mark Weiser: »The Computer for the 21st Century«, in: Scientific American, Vol. 265, Nr. 3

(1991), S. 66-75

Und online, in: Stand 05.2010 http://sandbox.xerox.com/want/papers/ubi-sciam-sep91.pdf

S. Wright, A. Steventon: »Smarte Umgebungen - Vision, Chancen und Herausforderungen«, in:

F. Mattern (Hrsg.): Die Informatisierung des Alltags. Leben in smarten Umgebungen. Berlin und

Heidelberg 200

Xerox Corporation Palo Alto Research Center, Learning Research Group: Personal Dynamic

Media. Paolo Alto 1975,

Jonathan Zittrain: The Future of the Internet and how to stop it. New Haven, London 2009

Online unter: http://futureoftheinternet.org/download

Horst Zuse: »Die ergonomischen Erfindungen der Zuse-Maschinen im internationalen Kontext«,

in: Hans Dieter Hellige (Hrsg.): Mensch-Computer-Interface - zur Geschichte und Zukunft der

Computerbedienung. Bielefeld 2008

Zeitschriften und Magazine

Gregory D. Abowd und Elizabeth D. Mynatt: »Charting Past, Present and Future Research in

Ubiquitous Computing«, in: ACM Transactions on Computer-Human Interaction, 7, 1 (03.2000),

S. 29-58

Durrell Bishop: „Marble Answering Machine“, in: Stand 05.2010 http://design.cca.edu/graduate/

uploads/pdf/marbleanswers.pdf


Vannevar Bush: »As We May Think«, in: The Atlantic Monthly. Juli (1945).

Online in: Stand 05.2010: http://www.theatlantic.com/doc/print/194507/bush/

T. Djajadiningrat u.a.: »Tangible Products: Redressing the Balance Between Appearance and

Action«, in: Personal and ubiquitous Computing 8,5 (2004), S. 294-309

German Research Center for Artificial Intelligence: Text 2.0, in: Stand 05.2010 http://text20.net

Hans Dieter Hellige: Medienkonstrukte in Technikutopien, Science Fiction-Romanen und in

Zukunftsszenarien von Computer Scientists: Vorüberlegungen für eine Medienkombinatorik, in:

FIFF Kommunikation 24 (2007) 3, S.9-14

J. Flatley: G-Tec Intendix brain-computer interface ready for consumers, in: Stand 05.2010 http://

www.engadget.com/2010/03/10/g-tec-intendix-brain-computer-interface-ready-for-consumers-vid/

J. Johnson. u.a.: »The Xerox Star: A Retrospective«, in: IEEE Computer, Jahrgang 22, Heft 9

(1989)

Alan Kay und N. Postman: »The Last Word. Distant Thunder«, in: Contextmagazine Juli 1999

Online in: Stand 05.2010 http://www.contextmag.com/setFrameRedirect.asp?src=/archives/199907/TheLastWord.asp

Steve Mann: »Humanistic Computing: ‚Wear Comp‘ as a Framework and Application for Intelli-

gent Signal Processing«, in: Proceedings of the IEEE 86, 11, S.2123-2151. 1998

Gordon E. Moore: »Cramming more componens onto integrated circuits«, in: Electronics, Nr. 8

(1965)

Jakob Nielsen: »Noncommand User Interfaces«, in Communications of the ACM. 36, 4 (1993)

Online in: Stand 05.2010 www.useit.com/papers/noncommand.html

T. Starner: »The Challenges of Wearable Computing: Part 1«, in: IEEE MICRO, 21, 4 (2001), S.

44-52

87


88

T. Starner: »The Challenges of Wearable Computing: Part 2«, in: IEEE MICRO, 21, 4 (2001), S.

54-67

David Tennhouse: »Proactive Computing«, in: Communications of the ACM. 43, 5 (2000)

Mark Weiser u.a.: »The origins of ubiquitous computing research at PARC in the late 1980s«, in:

IBM Systems Journal, 38. 4, S. 693-696

onlitne

3sat Scobel: Komplexität, in: Stand 05.2010 http://hstreaming.zdf.de/3sat/veryhigh/scobel_080515_komplexitaet.mov

Apple: Sprachsteuerung, in: Stand 05.2010 http://support.apple.com/kb/HT3562?viewlocale=de_

DE

Apple: Nike + iPod, in: Stand 05.2010 http://www.apple.com/de/ipod/nike/

Boxee, in: Stand 05.2010 http://www.boxee.tv/

Katherine Albrecht und Liz McIntyre: Spychips, in: Stand 05.2010 http://www.spychips.com/

Bundesministerium für Bildung und Forschun: Ambient Assisted Living Deutschland, in: Stand

05.2010 http://www.aal-deutschland.de/

Douglas Engelbart in einem Interview mit „Superkids“, in: Stand 05.2010 http://superkids.com/

aweb/pages/features/mouse/mouse.html

Douglas C. Engelbart: The Mother of all Demos, in: Stand 05.2010 http://www.youtube.com/

watch?v=JfIgzSoTMOs ff


dougengelbart..org: »A Lifetime Pursuit«, in: Stand 05.2010 http://www.dougengelbart.org/histo-

ry/engelbart.html

Google: Chrome OS, in:: Stand 05.2010 http://dev.chromium.org/chromium-os.

Google TV in: Stand 05.2010 http://www.google.com/tv/

Holosonics, in: Stand 05.2010 http://www.holosonics.com

IBM Archives: »Herman Hollerith«, in: Stand 05.2010 http://www-03.ibm.com/ibm/history/exhi-

bits/builders/builders_hollerith.html

Jesse Schell, in: Stand 05.2010 http://g4tv.com/videos/44277/dice-2010-design-outside-the-boxpresentation/

Ray Kurzweil: »The Law of Accelerating Returns«, in: Stand 05.2010 http://www.kurzweilai.net/

artivles/art014.html

Microsoft: Kinect, in: Stand 05.2010 http://www.xbox.com/de-DE/kinect/

Microsoft: Surface, in: Stand 05.2010 http://www.microsoft.com/surface/

Nintendo: Wii. Die neue Videospiele-Bewegung, in: Stand 05.2010 http://www.nintendo.de/NOE/

de_DE/wii_54.html

Onlive: Just Play, in: Stand 05.2010 http://www.onlive.com

Ben Parr: Top 6 Augmented Reality Mobile Apps, in: Stand 05.2010 http://mashable.

com/2009/08/19/augmented-reality-apps/

Sleeptracker, in: Stand 05.2010 http://www.sleeptracker.de

Sony: atrac Table, in: Stand 05.2010 http://www.engadget.com/2010/05/03/sonys-35-inch-atractab-

89


90

le-to-be-industrialized-in-june-show-m/

Spiegel Online: Head-up-Display. Alles im Blick, in: Stand. 05.2010 http://www.spiegel.de/auto/

werkstatt/0,1518,248469,00.html

Stefan Schultz: Funkfrequenz-Auktion. Milliardenpoker ums mobile Internet, in: Stand 05.2010

http://www.spiegel.de/wirtschaft/unternehmen/0,1518,688040,00.html

Jorin Verges: Das Raumschiff. Audis neuer A8, in: Stand 05.2010 http://www.bz-berlin.de/ratge-

ber/auto/audis-neuer-a8-article810824.html

Wikitude: Wikitude Drive, in: Stand 05.2010 http://www.wikitude.org/category/02_wikitude/

wikitude-drive

Ähnliche Magazine