Virtual Reality - Staatliche Hochschule für Gestaltung Karlsruhe
Virtual Reality - Staatliche Hochschule für Gestaltung Karlsruhe
Virtual Reality - Staatliche Hochschule für Gestaltung Karlsruhe
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
VIRTUAL REALITY<br />
von<br />
Malte Paetsch<br />
<strong>Hochschule</strong> <strong>für</strong> <strong>Gestaltung</strong><br />
Lorenzstraße 15<br />
76135 <strong>Karlsruhe</strong> © 2004
1. Definition der Virtuellen Realität<br />
2. Projektionen-Kommunikation<br />
2a. Beispiel: Habitat<br />
Inhaltverzeichniß<br />
3. Projektion-Wissenschaft<br />
3a. Beispiel: Numerische Berechnungsverfahren<br />
4. Projektion-Unterhaltung<br />
5. Kommunikation mit der virtuellen Realität / Techniken des Daten- in/outputs<br />
6. Der Wunsch der Schöpfung / der Geist in der Maschine<br />
7. Grundgedanken der VR / Gefahren / Droge der Zukunft<br />
a. Bioadapter:<br />
b. Cyberpunk:<br />
8. Pioniere der <strong>Virtual</strong> <strong>Reality</strong>:<br />
a. Jaron Lanier<br />
b. Ivan Sutherland<br />
c. Scott S. Fischer:<br />
9. Verschiedene Arten von VR Systemen:<br />
a. Desktop VR Systeme<br />
b. Video Mapping<br />
c. Immersive Systeme<br />
d. Telepräsenz<br />
e. Mixed <strong>Reality</strong><br />
f. Fish Tank VR<br />
10. Drei Stufen von <strong>Virtual</strong> <strong>Reality</strong> (VR) können unterschieden werden<br />
a. Passiven Ebene<br />
b. Aktiven Ebene<br />
c. Interaktiven Ebene<br />
10a. Zusatz<br />
a. Spaceball<br />
b. 3-D-Maus<br />
c. Datenhandschuh<br />
11. Zu den wichtigsten Ausgabe- oder Darstellungsgeräten von VR Systemen zählen<br />
a. 3-D-Ton- und Musikausgabe:<br />
b. Stereodarstellung:<br />
c. Head Mounted Display:<br />
d. Verarbeitung haptischer Informationen:
12. Werkzeuge zur Visualisierung<br />
12a. 1.Stereoskopische Helme:<br />
a. die Shutterbrille:<br />
b. Sichtgeräte der NASA<br />
c. UNC-Monitor:<br />
d. Eyephone von VPL:<br />
e. CAE-faseroptisches System:<br />
f. Die Cave Automatic <strong>Virtual</strong> Environment (CAVE)<br />
2. Monukolare Systeme:<br />
a. Das Privat Eye<br />
3. Freie Monitore:<br />
a. Sutherlands Damoklesschwert<br />
b. BOOM (Binukolar Omni Orientation Monitor) :<br />
13. Wichtige Punkte zur Verstärkung der Immersion<br />
a. Das Gesichtsfeld:<br />
b. Die Bildwechselrate:<br />
c. Blickortung:<br />
14. Räumliche Ortung / Tracking<br />
a. Mechanische Ortung<br />
b. Magnetische Ortung<br />
c. Ultraschall-Ortung<br />
d. Optische Ortung<br />
e. Ortung durch Bildauszug<br />
15. Haptische Systeme<br />
1. Die Mechanorezeptoren<br />
2. Die Propriozeptoren<br />
15a. Kraftrückkoplungsgeräte:<br />
a. Der ARM<br />
b. Das TeleTact - Rückkoplungssystem<br />
c. Der Portable Dextrous Master<br />
d. Das Tini Alloy Rückkopplungsystem<br />
16. Akustische Richtungsbestimmung / virtueller Sound<br />
a. Interauraler Zeitunterschied<br />
b. Interaurale Lautstärke<br />
c Schallschatten<br />
d. Echoortung
17. 3D -Ton / Virtueller Klang<br />
1. System<br />
2.System<br />
18. Werkzeuge zur Eingabe<br />
a. Tastaturen<br />
b. 2-D-Maus<br />
c. 2-D-/6-D- Maus<br />
d. Der Spaceball<br />
e. Datenhandschuh<br />
f. Der DataGlove<br />
g. Der PowerGlove<br />
h. Körpereingabe<br />
19. Künstler /künstlerische Anwendungen der VR: Pioniere der VR-Kunst<br />
a. Nicole Stenger<br />
b. Matt Mullican<br />
19b. Home of the brain (1991/92)<br />
19c. Perceptual Arena (1993)<br />
19d. Dancing with the <strong>Virtual</strong> Dervish <strong>Virtual</strong> Bodies (1994)<br />
20. Künstlerische CAVE Anwendungen<br />
a. Crayoland (1995)<br />
b. Inside out (1999)<br />
c. PAAPAB (2000)<br />
d. Citycluster (2002)<br />
e. Auqaricon (2001)<br />
21. Anmerkung<br />
22. Anhang<br />
23. Quellen
<strong>Virtual</strong> <strong>Reality</strong><br />
Referat von Malte Paetsch<br />
1. Definition der Virtuellen Realität<br />
Vor knapp 200 Jahren definierte der Philosoph Friedrich Bouterwek die Realität als lebendige<br />
Kraft. Weil eine Kraft aber immer eine Gegenkraft braucht, um mit ihr in ein gegenseitiges<br />
Verhältnis treten zu können, und die Realität sich nicht selbst entgegensetzen kann, definiert<br />
Bouterwek diese Gegenkraft als <strong>Virtual</strong>ität. Bei dieser Denkweise, der miteinander ringenden<br />
Kräfte, kam Bouterwek zu der Erkenntnis, daß die Wirklichkeit nicht als statische Gegebenheit<br />
zu betrachten sein sollte.<br />
Mit der modernen Physik des frühen 20. Jahrhunderts, also mit der Relativitäts- und Quantentheorie<br />
und der nichtlinearen Dynamik, beschreibt man die <strong>Virtual</strong>ität als einen vorübergehenden<br />
Zustand. Man könnte sagen, als einen fünften Aggregatzustand.<br />
Ein physikalisches System (die <strong>Virtual</strong>ität) wird nun mit physikalischen Mitteln (einer alles berechnenden<br />
Maschine) geschaffen. <strong>Virtual</strong>ität ist also kein übergreifendes Verhältnis, wie bei<br />
Bouterwek, sondern ein aus berechneten Bausteinen bestehendes System, daß von der Wirklichkeit<br />
getrennt gehalten werden sollte.<br />
Der Begriff "Virtuelle Realität" verbindet aber diese getrennt zu haltenden Aspekte wieder.<br />
Daraus läßt sich schließen, daß in der virtuellen Realität die Wirklichkeit in den Zustand der<br />
<strong>Virtual</strong>ität übergeht. Für einen Gegenstand ist diese Denkweise noch gut nachvollziehbar.<br />
Seine Form, Farbe und materielle Eigenschaften werden in die <strong>Virtual</strong>ität übertragen und dort<br />
ebenso abgebildet. Versucht man aber sein eigenes Ich / Denkmuster in die <strong>Virtual</strong>ität zu<br />
spiegeln, ergibt sich die Vorstellung von geklonter Intelligenz, die nun in der virtuellen Realität<br />
weiter lebt.<br />
Dirk Vaihinger :<br />
"<strong>Virtual</strong>ität ist die Objektwelt, die verspricht Wirklichkeit zu sein, ohne es zu müssen." 1<br />
Von der technischen Seite her betrachtet ist VR eine Mensch-Maschine-Schnittstelle, also ein<br />
Interface ähnlich einer Mouse oder Tastatur. Sie ermöglicht dem Benutzer den optimalsten Informationsaustausch<br />
und die bestmöglichsten Steuerung der Maschine. Ziel der Nutzung von VR als<br />
Interface ist die Verbesserung der Wirksamkeit und Wirkungskraft des Benutzers.<br />
Man kann aber nicht einfach nur von einer Schnittstelle zwischen Mensch und Maschine<br />
sprechen, denn der Benutzer ist aktiver Teil der generierten Welt. Für ihn ist VR eine dreidimensionale<br />
Simulation, in die er alles gewünschte hinein projizieren kann und dadurch einen<br />
größeren Handlungsfreiraum und Möglichkeiten als in der realen Welt erhält.Man kann die virtuelle<br />
Realität in drei Arten gliedern. In der passiven VR erhält der Benutzer nur Einsicht<br />
(und "Einfühl") und kann in keiner Weise agieren. Bei der aktiven VR kann der Beobachter sich<br />
frei nach den Gegebenheiten der jeweiligen künstlichen Welt bewegen und umschauen.<br />
Er hat die Möglichkeit, Gegenstände genauer zu betrachten oder sich um sie herum zu bewegen.<br />
Diese Gegenstände verschieben oder mit anderen Benutzern der künstlichen Welt zu kommunizieren<br />
ist in der interaktiven VR möglich. Hier sind quasi alle Freiheiten der "wahren" Realität<br />
vorhanden und, je nach Beschaffenheit der virtuellen Welt, auch darüber hinaus.<br />
1 Holger Krapp, Künstliche Paradiese-Virtuelle Realitäten, Seite 23, München 1997
Die virtuelle Realität ist nicht materiell existent, das heißt man kann sie nur mit entsprechenden<br />
Hilfsmitteln sehen, anfassen oder betreten. Die Qualität, mit der sie die künstlichen Welt darstellen,<br />
läßt sich anhand der Immersion und Interaktion messen und beschreiben. Unter<br />
Immersion versteht man den Grad der Wahrnehmung des Benutzer, der die künstliche Umwelt<br />
erlebt. Das heißt: Wie echt sind die Sinneseindrücke ?<br />
Ein Bild das nur mit eine Farbtiefe von 256 Farben dargestellt wird, hat eine deutlich niedrigere<br />
Immersion, als das Selbige mit 16 Millionen Farben. Die Interaktion umschreibt die Möglichkeiten<br />
des Benutzers auf die künstliche Umgebung, möglichst in Echtzeit<br />
("What you see - is what you get"/Das Prinzip der der direkten Manipulation), einzuwirken.<br />
Zum Beispiel bei einem Film im Fernsehen kann man nichts wesentliches beeinflussen. Bei<br />
einem Film der von einem Videorekorder abgespielt wird, läßt sich die Wiedergabegeschwindigkeit<br />
einstellen und man kann zumindest vorspulen!<br />
Für die künstlichen Welt bedeutet das -- je höher die Immersion und je höher die Interaktivität -desto<br />
näher befindet sie sich an der Virtuellen Realität. Immersion und Interaktion sind nicht<br />
unabhängig voneinander. So erhöht eine natürliche Steuerung (Interaktion) die psychische<br />
Eingebundenheit (Immersion). Wenn man also in einem Immersion-Interaktivität-Diagramm auf<br />
den Punkt der höchstmöglichen Immersion und Interaktivität schaut, kann man dort die Virtuelle<br />
Realität (und Realität!) einzeichnen.<br />
Howard Rheingold:<br />
"Stellen wir uns ein Bildsystem vor, das uns völlig umschließt und dreidimensionale Bilder erzeugt,<br />
mit scheinbar vorhandenen Objekten, die wir anfassen und manipulieren sowie mit Händen<br />
und Fingern spüren. können. Stellen wir uns weiter vor, wir würden in diese künstliche Welt<br />
eintauchen und sie aktiv durchstreifen, statt sie nur von einem festem Standpunkt aus auf einer<br />
flachen Leinwand, einem Fernsehschirm oder Computerdisplay anzustarren. Denken wir uns,<br />
wir wären zugleich die Schöpfer und die Konsumenten unserer künstlichen Erfahrungen. Wir<br />
selbst können die Welt, die wir sehen, hören und fühlen, mittels einer Geste oder eines Wortes<br />
umgestalten..." 2<br />
2 (Quelle: H.Rheingold, Virtuelle Welten. Reisen im Cyberspace. Reinbeck bei Hamburg 1995, S.15)
Man kann also sagen: Die <strong>Virtual</strong>ität umschreibt den Zustand, in dem sich ein Objekt oder eine<br />
Person befindet. Die Virtuelle Realität ist der "Ort". Verbindet man einen virtuellen "Ort" mit<br />
vielen Anderen, entsteht ein Netzwerk aus virtuellen "Orten". Zwischen diesen verknüpften<br />
Welten können nun Informationen ausgetauscht werden. Es entsteht eine riesige Kommunikationsplattform,<br />
die man als “Cyberspace“ bezeichnet. Der Cyberspace ist also ein Netzwerk aus<br />
virtuellen Realitäten, in dem sich die Benutzer treffen und Daten austauschen können.<br />
2. Projektionen-Kommunikation<br />
Grundlage <strong>für</strong> eine Kommunikation ist das Vorhandensein einer Verbindung zwischen den<br />
Kommunikationspartnern. Für die <strong>Virtual</strong>ität bedeutet das Cyberspace. In den Cyberspace wird<br />
eine Kommunikationsplattform hineinprojiziert, die je nach technischen Gegebenheiten völlig<br />
unterschiedliche Funktionalitäten besitzen kann. Weit verbreitet sind zum Beispiel Chaträume,<br />
die ausschlieslich auf Textkommunikation beruhen. Hier ist das Interface zwischem<br />
dem Benutzer und dem Cyberspace ein Computer, der die Eingabe und Ausgabe von geschriebener<br />
Sprache ermöglicht und mit anderen Computern vernetzt ist. In diese Chaträume wird nun<br />
jeder einzelne Teilnehmer ebenfalls projiziert, um <strong>für</strong> die anderen Benutzer sichtbar zu sein. Das<br />
heißt, man benötigt vorerst eine Oberfläche oder Umgebung, in der sich die Kommunikationspartner<br />
treffen können. Da diese Umgebung kein wirklich vorhandener Raum ist, muß sie erst in<br />
der <strong>Virtual</strong>ität geschaffen werden.<br />
Der Benutzer wird in der <strong>Virtual</strong>ität durch einen Avatar, eine Art Icon, vertreten.<br />
Unter einem Avatar versteht man einen Repräsentanten dieser Person. Einen Avatar benötigt man<br />
um sich in einer virtuellen Welt bewegen und interagieren zu können. Die meisten Avatare werden<br />
durch ein einfaches Bild (meistens wird nur der Kopf der Person gewählt) und eine Beschreibung<br />
der Person (Charakteristiken, Hobbies, usw.) dargestellt. In manchen virtuellen Welten wird<br />
der Avatar durch eine komplexe dreidimensionale Person repräsentiert. Hierzu wird allerdings ein<br />
leistungsfähiger Rechner und ein schneller Netzzugang benötigt.<br />
2a. Habitat<br />
Habitat wurde 1984 <strong>für</strong> den C64 entwickelt, und kam aufgrund seiner reduzierten Grafik mit der<br />
sensationellen Bandbreite von 300 Baud aus. Es gilt als das erste grafische Echtzeit-Kommunikationssystem.<br />
Habitats Welten sehen aus wie Zeichentrickfilme oder Jump&Run-Videospiele.<br />
Belebt werden diese Welten von animierten Figuren, die von ihren Benutzern vor gemalten Hintergründen<br />
gesteuert werden. Die Steuerung erfolgt per Kommando-Eingabe<br />
über die Tastatur, sehr ähnlich den ersten grafischen Adventure Games, aber eben Online, also<br />
vernetzt mit der Absicht, in diesem System zu kommunizieren. Die Benutzer bilden sich ab, sie<br />
hinterlassen Spuren, sie erkennen sich und andere wieder, und instinktiv werden Begriffe wie<br />
Besitz und Verantwortung projiziert.<br />
Habitat (wie auch die LambdaMOO) haben eigene Gesetze, Benimmregeln, Ordnungshüter und<br />
eine Art basisdemokratisches Rechtssystem. Gleichzeitig haben die Entwickler von Habitat auch<br />
den nötigen Humor bewiesen, den man benötigt, wenn man keine digitale Schrebergartensiedlung<br />
produzieren möchte. Das beliebteste Sammlerstück in Habitat ist der Kopf eines anderen<br />
Benutzers. 3<br />
3 Ole Lütjens, „Habitat->WorldsAway+Club Caribe“, in: Rendezvous im Drahtrahmengarten,<br />
http://www.scara.com/~ole/projects/Habitat.html, 04.11.2004
World Chat ist ein Online-Dienst, der von Worlds Inc. mit Unterstützung von IBM, Steven Spielberg<br />
und Visa den Internetbenutzern zur Verfügung gestellt wird. Das Konzept hinter der Applikation<br />
basiert auf einer Raumstation. Die Benutzer müssen sich, bevor sie sich verbinden können,<br />
einen zweidimensionalen Avatar auswählen. Sie geben sich einen Namen, der auf den Köpfen<br />
ihrer Avatare zu sehen ist.Navigiert wird mit der Tastatur und die Kommunikation findet durch<br />
Eintippen des Textes statt. Durch Anklicken eines anderen Benutzers sind auch private Unterhaltungen<br />
möglich. Man kann das Szenario als visualisiertes Multi-User-Dungeon bezeichnen; der<br />
Unterschied zu MUDs ist jedoch, das es keine Hintergrundgeschichte in dieser Welt gibt. Es ist<br />
eigentlich nichts weiter als ein optischer Chatraum.<br />
Alphaworld basiert auf dem Idee von World Chat, jedoch steckt hier ein Konzept dahinter.<br />
Das Ziel bei Alphaworld ist es, "Cyberground" zu errichten. Die Benutzer haben die Aufgabe,<br />
sich ihr eigenes Besitztum aufzubauen.<br />
Alphaworld basiert auf VRML+, einer Weiterentwicklung von VRML. 4<br />
Activeworlds, http://www.activeworlds.com/<br />
The Palace.com, http://thepalace.com<br />
3. Projektion-Wissenschaft<br />
In vielen Gebieten der Wissenschaft, Design und Industrie kommt die <strong>Virtual</strong>ität zum Einsatz.<br />
So lassen sich Autoprototypen, Anatomie des Menschen, Möbel und Architektur, Geographie<br />
und Wetter, Lehrmittel, Landkarten sowie komplexe physikalische oder chemische Prozesse in<br />
die <strong>Virtual</strong>ität projizieren. Die so vorhanden Informationen lassen sich aus beliebigen Perspektiven<br />
betrachten oder bearbeiten. Man kann Daten überlagen und vergleichen und und so Statistiken<br />
erstellen, zum Beispiel die Veränderung des Klimas im Verlauf von 100 Jahren. Es ist durch<br />
den Einsatz der Telepräsenz möglich, chirurgische Eingriffe aus großer Entfernung durchzuführen.<br />
Der Arzt überträgt die Bewegung seiner Hände in die <strong>Virtual</strong>ität, dort wird sie zum Ort des<br />
Patienten weitergeleitet und von einem Roboterarm ausgeführt. Die Bewegung des<br />
Armes wird sozusagen über den Cyberspace auf den künstlichen Arm projiziert.<br />
Eine ähnliche Übertragungsweise könnte/kann auch das Militär nutzen, z.B. indem ein Pilot in<br />
einem Simulator sitz und ein virtuelles Flugzeug steuert. Dessen Flugdaten werden auf ein reales<br />
Flugzeug übertragen und der Pilot geht <strong>für</strong> sich keinerlei Risiko ein. Nützlich wäre ein derartige<br />
Steuerung auch bei Forschungsarbeiten (z.B. Flug durch eine Gewitterwolke).<br />
In der Designindustrie wird bereits die dreidimensionale Darstellungsweise genutzt. Hier wird<br />
zum Beispiel ein Auto am Computer entworfen und in eine 3-D-Umgebung projeziert. Nun kann<br />
der Entwickler oder Betrachter in die 3-D-Umgebung eintreten und das Objekt genau studieren<br />
und verändern. Diese Produktionsweise ist sehr Kosten sparend und die Entwickler können<br />
etwaige Design- oder Sicherheitsmängel frühzeitig entdecken.<br />
4 „Home of the 3D Chat, <strong>Virtual</strong> <strong>Reality</strong> Building Platform“, in: activeworlds, http://www.activeworlds.com/,<br />
05.11.0 4
3a. Beispiel:<br />
Numerische Berechnungsverfahren zur Vorhersage des Crashverhaltens einer Fahrzeugkarosserie<br />
haben im Laufe der letzten Jahre sowohl in ihrer Komplexität als auch in der Prognosesicherheit<br />
ihrer Ergebnisse zugenommen. Im Fall der Crashberechnung lassen sich die traditionellen Methoden<br />
des Postprozessing durch den Einsatz von Techniken der virtuellen Realität signifikant<br />
verbessern. In einem "Virtuellen Crash Labor" besteht die hauptsächliche Zielsetzung darin, die<br />
Kommunikation innerhalb des Entwicklungsteames zu vereinfachen sowie ein schnelleres Problemverständnis<br />
zu ermöglichen.<br />
Der Einsatz von sogenannten Finite Elemente-Berechnungsmethoden in der Fahrzeugentwicklung<br />
soll möglichst frühzeitige Aussagen zum Crashverhalten und den Gesamtfahrzeugeigenschaften<br />
im Bereich der passiven Sicherheit ermöglichen und zugleich die Aufwände <strong>für</strong> reale Versuchsträger<br />
minimieren. Zur Ermittlung und Optimierung des Crashverhaltens und der Gesamtfahrzeugeigenschaften<br />
im Bereich der passiven Sicherheit kommt bei der BMW AG u.a. das FEM<br />
Paket PAM-CRASH zum Einsatz. Die großen numerischen Ergebnisse führen zu FE-Modellen,<br />
die im allgemeinen aus bis zu 400.000 Elementen bestehen. Der Crashvorgang selbst wird unterteilt<br />
in bis zu 60 Zeitschritte.<br />
Um diese riesigen Datenmengen optimal zu nutzen bedarf es ebenfalls eines VR-Systemes.<br />
Auf Basis der Geometriedaten sowie der berechneten physikalischen Größen wie Spannungen,<br />
Verschiebungen, Beschleunigungen und Kräfte wird eine Echtzeitanimation des Fahrzeugverhaltens<br />
im Zusammenspiel mit Insassen, Airbag, Rückhaltesystemen und anderen Komponenten<br />
<strong>für</strong> unterschiedliche Lastfälle wie etwa Frontal- oder Seitenaufprall projiziert. Der Benutzer kann<br />
sich in diese virtuelle Umgebung hineinbegeben, eine beliebige Betrachterposition innerhalb oder<br />
außerhalb des Fahrzeugs einnehmen, die Animation direkt kontrollieren und mit beliebigen Fahrzeugkomponenten<br />
interagieren. Das <strong>Virtual</strong> Crashtesting Environment ist eine <strong>für</strong> den Anwender<br />
immersive Umgebung. Als Interaktionsgeräte können ein Fakespace BOOM 3C und ein<br />
CyberGlove verwendet werden, alternativ stehen eine Großbildprojektion und eine 3-D Maus zur<br />
Verfügung. Der zeitliche Ablauf des Crashvorgangs und der Karosserieverformung läßt sich in<br />
Echtzeit kontrollieren. Beliebige Fahrzeugkomponenten können selektiert werden, um sie einer<br />
Detailuntersuchung zu unterziehen. Objekte, die sich gegenseitig verdecken, können<br />
entfernt oder transparent gemacht werden. Des weiteren steht dem Anwender ein virtuelles<br />
Werkzeug in Form einer Schnittebene zur Verfügung. Diese Schnittebene ist beliebig positionierbar<br />
und ermöglicht dynamische Schnitte durch beliebige Fahrzeugkomponenten.<br />
4. Projektion-Unterhaltung<br />
Die virtuelle Realität beginnt nicht, wie oft angenommen, erst mit einem Cyberhelm, einem<br />
Cyberhandschuh mit haptischer Ausgabe oder gleich einem ganzen Datasuit. Sie beginnt<br />
vielmehr schon bei jedem Spiel, welches wir am Computer oder auf einer Konsole spielen. Diese<br />
vermitteln uns genau wie der Cyberspace, nur auf eine andere Art und Weise, eine andere Welt.<br />
Diese können wir oftmals mit Hilfe eines Helden betreten, um dann gegen ausserirdische Wesen<br />
oder dämonische Monster anzutreten, welche mittlerweilse über eigene primitive Intelligenzen<br />
(KI) verfügen. Und dies alles, um die Welt vor schlimmeren zu retten. Die heutige Spiele - und<br />
Konsolenwelt hält uns auch die Möglichkeit offen, unsere eigenen Welten zu bauen, um uns dann<br />
später liebevoll um deren Bewohner zu kümmern oder ihr Dasein zu beenden. All dies sind<br />
Projektionen fiktiver, virtueller Realitäten. In wie weit wir uns selbst in diese Szenerie zu
projizieren vermögen, hängt von dem jeweiligen Benutzer ab. Im allgemeinen kann man jedoch<br />
sagen, daß ein gutes Spiel mit einem hohen Realitätsgrad, jeweils bezogen auf die in ihm<br />
dargestellte Szenerie, auch eine nicht zu verachtene Immersion auf den Spieler ausübt. Die<br />
Immersion der virtuellen Realität hängt eben auch davon ab, in wie weit sich der Benutzer auf die<br />
ihm vorgeführte Projektion einlässt, in welchen Maß er bereit ist, sein "Ich" in diese Welt hinein<br />
zu projizieren. Somit wird die Projektion zu einem Kreislauf. Erst das Verschmelzen beider<br />
Projektonsebenen ergeben die virtuelle Realität.<br />
Aber warum versucht der Mensch sich in eine andere Realität zu projizieren?<br />
Auf diese Frage gibt es eine Menge Antworten. Eine davon wäre der Gedanke der Realitätsflucht.<br />
Stellen wir uns einen üblichen Arbeitstag vor: Acht Stunden harte körperliche Arbeit, meist mit<br />
einem unausstehlichen Vorgesetzten, aufgebauter Frust und Wut. Was wäre also besse als ein<br />
paar Stunden Krieg zu spielen. Zum Held zu avancieren, der die Welt vor dem Untergang rettet.<br />
Oder das innere Gefühl, etwas erschaffen zu müssen. Warum nicht seine eigene kleine Welt, in<br />
der man gottgleich über dessen Bewohner richten kann. Spiele und Simulationen stellen eine<br />
Pforte zu einer anderen Welt dar, in der man ungestraft töten, Gott spielen oder sein<br />
Lieblingswagen, den man sich im wirklichen Leben niemals leisten könnte, zu Schrott fahren<br />
dürfte. Und dies so oft man möchte.<br />
Man könnte sagen, dass die Unterhaltungsindustrie in diesem Fall uns ein Stück Kindheit zurück<br />
gegeben hat. Mit ihrer Hilfe ist es endlich möglich, all die Dinge zu tun, von denen man schon<br />
immer geträumt hat, bevor die harte Realität uns unserer Träume berauben und weismachen<br />
wollte, dass all die Dinge, an die man als Kind glaubte, unmöglich seien.<br />
Und genau aus diesem inneren Verlangen nach der virtuellen Entspannung erlebt diese Branche<br />
auch einen beachtlichen Aufschwung.<br />
5. Kommunikation mit der virtuellen Realität / Techniken des Daten- in/outputs :<br />
Da die Unterhaltungsindustrie eine Massenproduktmaschinerie darstellt, versucht sie ihre<br />
"virtuellen Welten" auch <strong>für</strong> jederman zugänglich zu machen. Dabei benutzt sie eine optische<br />
Ausgabe, über die fast alle Haushalte verfügen, den Fernseher. Als Eingabemittel werden<br />
sogenannte Gamepads bzw. Joysticks benutzt, welche von Konsole zu Konsole verschieden sind.<br />
Ähnlich verhält es sich auch bei den Computern. Dort ist die Software zumeist auf PC-User<br />
zugeschnitten, da ein herkömmlicher PC wesentlich günstiger ist als ein gleichwertiges Produkt<br />
von Apple. Auch hier gibt es eine Vielfalt von Eingabegeräten, die denen der Konsolen aber stark<br />
ähneln, wenn nicht teilweise sogar baugleich sind.<br />
Seit ein paar Jahren beschäftigt sich die Unterhaltungsindustrie damit, dem Spieler Kräfte mit<br />
Hilfe von sogenannten Rumblepacks, welche zusätzlich an die Gamepads angeschlossen werden<br />
können, oder Force Feedback - Joysticks zu suggerieren. Somit wird jede Maschinengewehrsalve,<br />
deren Rückschlag man hautnah zu spüren bekommt, oder die holprige Straße, über die man in<br />
seinem Porsche mit 180 Kmh hinwegschießt, wesentlich realistischer.<br />
Es ist auch vorstellbar, daß in naher Zukunft die Nerven- und Sinneszellen des Benutzers direkt<br />
mit elektrischen Impulsen stimuliert werden. Der dadurch erreichbare Immersionsgrad wäre<br />
extrem hoch und dem der wirklichen Realität gleich zu setzen. Mit dieser Technik könnte man<br />
perfekte Illusionen, Gefühle, Rauschzustände projizieren. Der Benutzer wäre vollkommen in die<br />
Virtuelle Realität integriert. Sogar Zeitreisen und Identitätsänderungen wären denkbar.
6. Der Wunsch der Schöpfung / der Geist in der Maschine :<br />
Seit dem es Menschen gibt, werden sie durch den Wunsch des Erschaffens beflügelt. Dieser mag,<br />
je nach Religion und Lebensraum, durch unterschiedliche Gründe und Absichten hervorgerufen<br />
werden, er hat jedoch schon manches Mal Unvorstellbares hervorgebracht. Der Mensch versucht,<br />
über sich hinaus zu wachsen. Man könnte beim Anblick dieses Bestrebens von einem göttlichen<br />
Instinkt sprechen. Er bewirkt den Wunsch nach dem Erschaffen oder der bedingungslosen<br />
Vernichtung. Es ist dem menschlichen Sein inne, die Welt nach seinen Vorstellungen zu<br />
verändern, welches widerum durch "heilige Schriften"gerechtfertigt wird. Damit war es nur eine<br />
Frage der Zeit, wann der Mensch beginnen würde, seine eigene Welt nach seinen Vorstellungen<br />
von Grund auf neu zu erschaffen. Der Schlüssel hierzu scheint die Virtuelle Realität zu sein.<br />
Dabei wird die totale Projiktion des "Ichs", geistig wie körperlich, angestrebt. Durch optisch,<br />
haptische und audiovisuelle Projektionsmethoden versucht er sich in die eigene, selbstkreierte<br />
Realität zu transferieren. Und dies gelingt, bedingt durch den raschen Fortschritt der Technik,<br />
erstaunlich gut. So könnten Zukunftsvisionen, wie sie in dem Film " Der Rasenmähermann "<br />
bereits angedacht wurden, bald schon Realität sein. In " Der Rasenmähermann " transferierte sich<br />
Jobe, einer der Hauptakteure des Films, mittels spezieller Geräte seinen Geist in die Maschine.<br />
Dort wurde er zu Cyberjobe, einem Wesen, welches aus binärischen Zahlen bestand. Cyberjobe<br />
war in dieser Welt Gott, da er sie mit einem bloßen Gedanken nach seinen Vorstellungen<br />
verändern konnte. Dies mag vielleicht heutzutage noch nicht realisierbar sein, aber dennoch gibt<br />
es medizinische Arbeiten auf dem Gebiet der VR, die einigen Grundgedanken dieses Filmes<br />
schon sehr nahe kommen.<br />
So gibt es bereits Schnittstellen, welche Gehirnströme messen und diese als Steuereinheit <strong>für</strong><br />
Rechner verwenden. Dies wird möglich durch die Tatsache, dass unser Gehirn eigentlich nur ein<br />
großer "Superrechner" ist, welcher mit Synapsen und Botenstoffen arbeitet. Dies geschieht<br />
ebenfalls auf einem elektromagnetischem Wege. Dementsprechend verändern sich auch unsere<br />
Hirnströme, wenn wir an bestimmte Dinge denken. Diese Veränderung kann man sich als<br />
Eingabedaten zunutze machen, um Rechner zu steuern.<br />
Viele Anhänger der virtuellen Realität träumen bereits von Datenbuchsen, welche in das<br />
Rückenmark implantiert werde könnten. Über diese, so die Idee, könnte man dann in direkten<br />
Kontakt mit dem Rechner treten und seine Gedanken direkt in die Maschine projizieren, um sie<br />
dort Wirklichkeit werden zu lassen. Dies wäre eine Weiterentwicklung des "Tagträumens", da der<br />
Rechner anhand der gelieferten Daten wiederum Synapsen stimulieren könnte, und somit die<br />
Gedanken mit dem Gefühl der körperlichen Empfindung unterstreichen könnte.Weiterhin<br />
könnten Informationen, welche wir als "Wissen" bezeichnen, einfach in unser Gehirn<br />
hochgeladen werden. Bis dahin ist es allerdings noch ein weiter Weg der Erforschung des<br />
neuralen Netzes unseres Gehirns. Ebenso wären Rechner mit enormer Rechenleistung von nöten,<br />
welche vielleicht mit dem Erscheinen des ersten "Atomcomputers" in greifbarer Nähe kämen.<br />
7. Grundgedanken der VR / Gefahren / Droge der Zukunft :<br />
Die VR ist der Schlüssel zu einer neuen Dimension. In ihr ist alles möglich, alles machbar. Der<br />
eigene Geist ist die Grenze. Andere Grenzen gibt es nicht. Jede Art der körperlichen Grenzen<br />
werden hier spielend überwunden.<br />
Der Mensch gelangt durch den Cyberspace, durch die perfekte selbstgeschaffene Simulation, und<br />
somit auch die perfekte Projektion, auf eine neue, höhere Ebene des eigen Ichs. Die Welt nach<br />
seinen Wünschen zu formen zu erbauen, um dann in ihr zu leben, sie zu erleben, dass hat einen<br />
göttlichen Beigeschmack.VR ist eine hochkomplexe Art der Bewusstseinserweiterung. So ist es
auch nicht weiter verwunderlich,<br />
dass viele Pioniere dieser Technik Patrone und Anhänger der Drogenkultur der 60ger Jahre<br />
waren und sogar Begründer der sogenannten Tripp Festivals waren. Dennoch wird es nach Aussagen<br />
einiger Kritker niemals den "perfekten Cyberspace" geben, da die "wirkliche Realität" so<br />
komplex und unberechenbar sei, daß sie aus eben aus diesen und aus chaostheoretischen Gründen<br />
niemals in dem Maße von einer Maschine berechnet werden könne. Im Gegenzug dazu<br />
könnte man sagen, dass der Mensch auch nur eine bestimmte Grenze an Auffassungsgabe besitzt<br />
und somit bestimmte Dinge, wie z.B. die Schmetterlingstheorie nicht berechnet werden bräuchte.<br />
Es handelt sich hier außerdem um eine völlig neue Welt, mit anderen physikalischen Gesetzen,<br />
Umgebungen und Lebewesen.<br />
Da in naher Zukunft die Rechnerleistung im privaten Haushalt weiter steigen wird und moderne<br />
Grafikkarten eine verblüffend reale Umgebung schaffen können wird der Unterschied zwischen<br />
virtueller und realer Welt immer fließender. Dadurch wird der Trip in den Cyberspace mehr als<br />
nur eine Betrachtung einer anderen Welt. Der Benutzer hat das Gefühl mit ihr zu verschmelzen<br />
und es besteht die Gefahr sich in ihr zu verlieren. Dadurch geht die eigene Identität verloren oder<br />
der Benutzer weiß nicht mehr was real und was virtuell ist. Er leidet unter Realitätsverlust.<br />
Weiterhin kann er in der virtuellen Welt sich hinter einer Maske verstecken und sich eine<br />
"Wunsch"-Identität aufbauen, aus der er einfach nicht mehr aussteigen möchte. Oder das Gefühl<br />
in der Virtuellen Welt ist so überwältigend (der Benutzer nimmt die Identität eines Vogels, Dämons,<br />
Gebäudes etc. an), daß er psychisch abhängig wird. Die virtuelle Realität könnte sich zu<br />
einer unkontrollierbaren Droge entwickeln, zumal es vielleicht möglich sein wird herkömmliche<br />
Rauschzustände durch neurale Stimulation, hervorzurufen und zwischen diesen Rauschzuständen<br />
nach Belieben zu wechseln.In einer Virtuellen Realität, die eine identische Kopie der Realität<br />
wäre, könnte man davon ausgehen, daß auch alle realen Probleme in die <strong>Virtual</strong>ität projiziert<br />
würden.<br />
7a. Bioadapter:<br />
Oswald Wiener beschreibt in seinem Text "Bioadapter" seine Vision der perfekten Symbiose von<br />
Mensch und Maschine. Der sogenannte Bioadapter stellt hierbei die perfekte Schnittstelle dar, mit<br />
welcher der Mensch in den wiederum vom Bioadapter geschaffenen virtuellen Raum eintauchen<br />
kann.<br />
Um diese totale Immersion zu erfahren, muss der Nutzer des Bioadpters allerdings in eine<br />
vollkommende Symbiose mit der Maschine eingehen, wodurch er ohne die Maschine nicht mehr<br />
lebensfähig ist. Oswald Wieners Vision des Bioadapters sowie dessen unterschiedlichen<br />
Adaptionsstufen sind im Anhang aufgeführt.<br />
7b. Cyberpunk:<br />
Der Cyberpunk ist eine Literatur- und Kulturform, die in der erste Hälfte der achtziger Jahre<br />
entstand. William Gibson gilt mit seinen Kurzgeschichten "Johnny Mnemonic" und "Burning<br />
Chrome" sowie mit seinem Buch "Neuromancer" als Begründer dieser Gattung. Auch der Film<br />
"Blade Runner" hat geholfen, die Regeln <strong>für</strong> den Cyberpunk festzulegen. Meist ist die Handlung<br />
der Geschichten in der Mitte des einundzwanzigsten Jahrhundert angelegt. Diese nahe Zukunft<br />
wird eher düster und chaotisch gezeichnet. Die Umwelt ist stark geschädigt, die alten<br />
Gesellschaftsstrukturen sind zerstört und die meisten Menschen leben in Sprawls. Das sind<br />
riesige, geschlossen besiedelte Ballungsräume, die sich über hunderte von Kilometern ausbreiten<br />
können. Die Macht der Staaten ist völlig ausgehöhlt und liegt nun in der Hand einiger<br />
gigantischer Firmen. In der Regel gilt Firmenrecht vor Staatenrecht. Die Instanzen des Staates
sind nur noch Erfüllungsgehilfen der Unternehmen, die aber auch eigene Armeen unterhalten, um<br />
ihre Interessen so durchsetzen.<br />
Die Hauptrolle in den Geschichten spielen Cyberspace-Cowboys. Ihre Heimat ist die Matrix. Das<br />
ist eine virtuelle Welt, in der Daten als geometrische Formen zu erkennen sind. Mit der Hilfe von<br />
implantierten Chips wird bei den Hackern die Illusion erzeugt, sich direkt in ihr zu bewegen.<br />
Hat man keine Zugangsberechtigung, sieht man nur die Formen. Die Daten sind aber durch<br />
Sicherheitsprogramme geschützt, die EIS (Elektronisches Invasionsabwehr-System) genannt<br />
werden. Die Hacker kämpfen sich mit Hilfe ihrer Computer und darauf gespeicherter Programme<br />
durch dieses EIS, um an die gewünschten Informationen zu gelangen. Oft riskieren sie dabei ihr<br />
Leben, da die Programme durchaus nicht nur in der Matrix ihre Wirkung entfalten. Es gibt drei<br />
verschiedene Arten von EIS, die nach dem Umfang ihrer Wirkung und Gefährlichkeit <strong>für</strong> den<br />
potentiellen Eindringling unterteilt sind. Das weiße EIS ist eher harmlos, es kann weder dem<br />
Hacker noch seiner Ausrüstung schaden. Das Graue hingegen ist schon gefährlicher. Kann man es<br />
nicht überwinden, wird zumindest die Technik stark beschädigt sein. Scheitert man hingegen am<br />
schwarzen EIS, ist das eigene Leben auf jeden Fall in Gefahr. Die Idee der Matrix basiert sicher<br />
auf den Computernetzwerken, die es schon in den achtziger Jahren in großer Zahl gab. Auch das<br />
EIS scheint wie eine gedanklich logische Weiterentwicklung der heutigen Sicherheitsprogramme.<br />
Seitdem Computer vernetzt wurden, gab es immer Probleme, sie vor Eingriffen von Außen zu<br />
schützen. 5<br />
8. Pioniere der <strong>Virtual</strong> <strong>Reality</strong>:<br />
8a. Jaron Lanier<br />
Jaron Lanier wurde 1960 geboren. Lanier ist vermutlich bestens bekannt <strong>für</strong> seine Arbeit auf dem<br />
Gebiet der virtuellen Realität. Er prägte die Bezeichnung "<strong>Virtual</strong> <strong>Reality</strong>".In den frühen achtziger<br />
Jahren war er an der Entwicklung des ersten Cyberhandschuhs <strong>für</strong> die Kommunikation in<br />
der virtuellen Welt beteiligt und war der erste, der dir Interaktion mit virtuellen Gegenständen<br />
untersuchte.In den späten 80er leitete er die Gruppe, die die ersten Implementierungen der<br />
virtuellen Welten <strong>für</strong> mehrere Personen, basierend auf Cyberbrillen, entwickelte. Er war ebenfalls<br />
an der Entwicklung der ersten Anwendungen der virtuellen Realität in den Bereichen der<br />
chirurgischen Simulation, des Prototyping der Innenausstattung von Fahrzeugen und in anderen<br />
Gebieten beteiligt.Seine 1983 gegründete Firma VPL Research war die erste Firma, die Produkte<br />
<strong>für</strong> die virtuelle Realität einführte.VPL stellte die ersten kommerziellen Cyberhandschuhe (1984),<br />
Cyberbrillen (1987) und vernetzten virtuellen Systeme vor (1989). 6<br />
8b. Ivan Sutherland<br />
Ivan Sutherland, geboren am 16.Mai 1938, Hastings, Nebraska (USA), ist ein Pionier der<br />
Computergrafik. Sein Programm Sketchpad (TX2), das er im Rahmen seiner Doktorarbeit 1963<br />
am MIT entwickelte, gilt als eine der ersten interaktiven Grafikanwendungen. Er entwickelte<br />
zudem auch das erste Head Mounted Display und den Cohen-Sutherland-Algorithmus. Ivan<br />
Sutherland erhielt 1988 den Turingpreis. Wichtige Stationen seiner Karriere waren das Programm<br />
Sketchpad (1963), welches auf einem TX-2 Computer lief und der von ihm 1996<br />
entwickelte erste HMD (Head Mounted Display) namens Damoklesschwert. 7<br />
5Volker Krüßel, „Hacker im Cyberpunk“, http://www.erzwiss.unihamburg.de/comenius/Material/04/Kruessel/Cyberpunk.htm,<br />
Jahr 2000,<br />
6Jaron Lanier, „What remains to be done with <strong>Virtual</strong> <strong>Reality</strong>“, http://hci.stanford.edu/cs547/abstracts/03-04/040213lanier.html,<br />
2.2004<br />
7ABOWD Team, „Biography of a Luminary“,<br />
http://www.cc.gatech.edu/classes/cs6751_97_fall/projects/abowd_team/ivan/ivan.html, 4.1997
8c. Scott S. Fischer:<br />
Scott S. Fischer ist ein Medienkünstler und Interaktionsdesigner, dessen Arbeit sich hauptsächlich<br />
auf immersive Umwelten und Technologien der Echttzeit fokussiert. S.Fischer ist<br />
Präsident von Telepresence Research,Inc., eine Produktionsfirma, welche sich auf die Kunst<br />
und das Design eben dieser Schwerpunkte fokussiert hat.<br />
Wichtige Stationen:<br />
VIEW:<br />
Von 1985 bis 1990 war S. Fischer Direktor und nebenbei auch Gründer des <strong>Virtual</strong> Environment<br />
Workstation Projekts (VIEW), welches von der NASA finanziert wurde. Ziel dieses Projektes<br />
war der Bau eines multisensorischen virtuellen Raumes, welcher in "Space Station teleoperation",<br />
"telepresence" und "automation activities" seine Anwendung finden sollte.<br />
Das Design und die Technik des "goggle and glove" Systems, welches aus "VIEW" hervorging,<br />
war wegweisend und inspirierend <strong>für</strong> viele weitere VR-Systeme, welche HMDs, Datagloves<br />
und 3-D-Sound beeinhalten.<br />
<strong>Virtual</strong> Explorer:<br />
Von1997 bis 1999 war S. Fischer Leiter und Gründer des “<strong>Virtual</strong> Explorer“-Projektes.<br />
"the <strong>Virtual</strong> Explorer" versucht, eine interaktive virtuelle Umgebung zu schaffen.<br />
Eine immersive Wissenschaft, die Erfahrungen lehrt, die unmöglich mit Lehrbüchern<br />
zu vermitteln wären. Das jetzige System stellt alle wichtigen Themen auf Basis der<br />
grundlegenden Immunologie dar. Studenten navigieren durch den Blutkreislauf, das<br />
Lymphensystem, das erkrankte Gewebe eines Patienten und erleben aus der Ich-Perspektive die<br />
jewiligen zugeteilten Aufgaben und Funktionen des Immunsystems. Dies dient zum besseren<br />
Vertsändnisses dieses komplexen Systems.<br />
"The <strong>Virtual</strong> Explorer" simuliert den “viewscreen“ eines “nanobots“, der in einen menschlichen<br />
Körper eingespritzt worden ist. Es schließt ausführliche, biologisch genaue Modelle von Zellen<br />
und Eiweißen vom Immunsystem und dem Blutkreislauf mitein, die in Echtzeit während der<br />
Simulation gerendert werden. 8<br />
9. Verschiedene Arten von VR Systemen:<br />
9a. Desktop VR Systeme<br />
Die Verwendung eines konventionellen Computermonitors zur Darstellung virtueller Welten<br />
nennt man Desktop VR- oder 'Window on World Systeme' (WoW). Diese am häufigsten<br />
verwendete Darstellungsform <strong>für</strong> VR wurde bereits 1965 von I. Sutherland definiert.<br />
9b. Video Mapping<br />
Die auch unter 'Artificial <strong>Reality</strong>' bekannte Variation des WoW-Systems verbindet die<br />
Aufzeichnung des Video Mapping Benutzers mittels Video mit einer 2-D-Computergrafik.<br />
Der Benutzer dieses Systems kann so am Bildschirm seine Interaktion mit der virtuellen Welt<br />
sehen.<br />
8 Autor unbekannt, „Scott Fischer Biography“, http://www.itofisher.com/PEOPLE/sfisher/, Jahr unbekannt
9c. Immersive Systeme<br />
Die 'state of the art' VR-Systeme verschieben den Sichtpunkt (Viewpoint) des Benutzers komplett<br />
in das Innere einer virtuellen Welt.<br />
Diese VR-Systeme sind häufig mit einem Visualisierungshelm (Head Mounted Display)<br />
ausgerüstet. Eine Variation von immersiven Systemen stellt der 'Cave' dar. Ein Cave ist ein<br />
Raum, an dessen Wänden virtuelle Bilder projiziert werden. Innerhalb dieses Raumes<br />
hat man das Gefühl sich in der realen Welt zu befinden.<br />
9d. Telepräsenz<br />
Telepräsenz ist eine weitere Variation der Visualisierung von computergenerierten Welten.<br />
Diese Technologie verknüpft einen Sensor der realen Welt mit den Sinnen eines menschlichen<br />
Operators. Beispielsweise können Kampfpiloten ferngesteuerte Flugzeuge benutzen, um sehr<br />
gefährliche Situationen zu meistern oder Chirurgen benützen sehr kleine, mit Video ausgerüstete<br />
Instrumente, um Operationen durchzuführen.<br />
9e. Mixed <strong>Reality</strong><br />
Wenn Telepräsenz und <strong>Virtual</strong> <strong>Reality</strong> Systeme zusammen genutzt werden, spricht man von<br />
Mixed <strong>Reality</strong>. Ein Beispiel da<strong>für</strong> ist, dass einem Kampfpiloten die computergenerierten<br />
Landschaften und Daten direkt in seinen Helm oder auf das Cockpit-Display projiziert werden.<br />
9f. Fish Tank VR<br />
Fish Tank VR kombiniert die stereoskopische Darstellung durch LCD-Shutter-Brillen mit einem<br />
mechanischen Positionstracker. Man spricht hier auch von einem “Stereo-WoW-System“.<br />
10(a-c). Drei Stufen von <strong>Virtual</strong> <strong>Reality</strong> (VR) können unterschieden werden:<br />
In einer passiven Ebene kann der Benutzer sehen, hören und evtl. fühlen, was um ihn herum<br />
passiert. Die künstliche Welt bewegt sich und läßt den Benutzer glauben, er bewege sich in ihr,<br />
sie ist aber nicht steuerbar. In der aktiven Ebene kann der Benutzer den Raum um sich herum<br />
erkunden. Er sieht z.B. nicht nur einen Tisch im Raum stehen, sondern kann auch um ihn<br />
herumgehen.<br />
In der interaktiven Ebene ist der Raum um den Benutzer interaktiv veränderbar. Der Tisch kann<br />
also an eine andere Stelle verschoben werden. Für all diese Szenarien benötigt es leistungsstarke<br />
Hard- und Softwarekomponenten die im folgenden beschrieben werden.<br />
Die Hardwarekomponenten zur Bildgenerierung stehen im Mittelpunkt eines jeden VR-Systems.<br />
Die Darstellung virtueller Szenen muß eine möglichst verzögerungsfreie und realitätsnahe<br />
Darstellung der virtuellen Welt ermöglichen. Um dies zu erreichen sind dedizierte<br />
Grafiksubsysteme erforderlich. Die hohen Bildwiederholraten werden durch Grafikalgorithmen<br />
wie Transformation, Projektion, 'Clipping', etc. erreicht, die direkt auf der Hardware<br />
implementiert sind. Zur VR Hardware zählen zudem die speziellen Ein- und Ausgabegeräte, um<br />
diese virtuellen Welten besonders realitätsnah begehbar zu machen. Zu den wichtigsten<br />
Eingabegeräten zählen:
10a/a. Spaceball<br />
Dieses 3D Eingabegerät erlaubt das Navigieren des Begehens der virtuellen Welt (Walk-<br />
Throughs) in sechs Freiheitsgraden.<br />
10a/b. 3-D-Maus<br />
Die 3-D-Maus ist wie der Spaceballs zur Navigation von Walk-Throughs in sechs Freiheitsgraden<br />
geeignet, besitzt aber zusätzlich ein Positionstracker.<br />
10a/c. Datenhandschuh<br />
Mit dem Datenhandschuh sind Zeige- und Haptik-Funktionen auf Objekte in der virtuellen Welt<br />
möglich. Damit in einem 3D Raum etwas korrekt gefasst werden kann, wird ein Positionstracker<br />
verwendet.<br />
11. Zu den wichtigsten Ausgabe- oder Darstellungsgeräten von VR Systemen zählen:<br />
11a. 3-D-Ton- und Musikausgabe:<br />
Zur Unterstützung der Interaktion mit virtuellen Umgebungen ist der Einsatz von akustischen<br />
Signalen unabdingbar. Diese können in Form von Sprache, Musik, Ton oder Geräuschen<br />
präsentiert werden. Mittels audiogestützter Interaktion mit der virtuellen Welt wird eine<br />
verbesserte Wahrnehmung von visuell dargestellten Informationen erzielt.<br />
11b. Stereodarstellung:<br />
Ausgabegeräte wie Stereo Display/Brille unterstützen eine Auflösung von bis zu 1280x1024<br />
Bildpunkten und sind mit einer Infrarotsteuerung <strong>für</strong> die Stereobrille ausgerüstet.<br />
11c. Head Mounted Display:<br />
Das Head Mounted Display ist ein Monitorhelm, der die Bilder von hochauflösenden<br />
Kathodenstrahl-Röhren (CRT) oder Flüssig-Kristall Anzeigen (LCD) direkt vor die Augen<br />
projiziert. Dieser Visualisierungshelm, der oft mit einem Positionstracker ausgerüstet ist, erlaubt<br />
das komplette Eintauchen (Immersion) in virtuelle Welten.<br />
11d. Verarbeitung haptischer Informationen:<br />
Die Systeme zur Verarbeitung von haptischen (Kraft- und taktile Rückkopplung) Informationen<br />
sind bis heute meist nur als Forschungsprototypen verfügbar.<br />
12. Werkzeuge zur Visualisierung<br />
(optische Geräte / Hardware)<br />
Optische Geräte im Bereich der virtuellen Realität machen sich die Netzhautdisparität unserer<br />
Augen zu nutzte. Aus den von unseren Augen in 2-D aufgenommenen Informationen generiert<br />
unser Gehirn ein dreidimensionales Abbild unserer Umgebung. Diese Fähigkeit zum räumlichen<br />
Sehen nennt man auch Stereopsis. Der Beginn der virtuellen Realität war somit auch der Beginn<br />
der ersten beweglichen Stereogramme.
Bei diesen optischen Geräten unterscheidet man unter drei grundsätzlichen Methoden:<br />
1. Stereoskopische Helme<br />
2. Monukolare Helme<br />
3. Freie Monitore<br />
12a. 1. Stereoskopische Helme:<br />
a. die Shutterbrille:<br />
Die Shutterbrille, auch LCD-Brille genannt, ist im engeren Sinne kein Helm, war und ist aber<br />
denoch ein gutes Beispiel <strong>für</strong> die Benutzung beweglicher Stereogramme. Die erste dieser Brillen<br />
wurde von Lenni Lipton erfunden und nannte sich “Crystal Eyes“. Sie funktioniert wie folgt:<br />
Die Darstellung der Daten erfolgt wie gewohnt über einen Monitor. Die Gläser der Brille sind<br />
durch kleine LCD (Liquid Cristal Display)-Glasfenster ersetzt worden, welche die Sicht <strong>für</strong> nicht<br />
genutzte Bilder <strong>für</strong> das jeweilige Auge blockieren können. Dabei wird auf dem Monitor jeweils<br />
ein Bild <strong>für</strong> das linke, dann <strong>für</strong> das rechte Auge dargestellt. Parallel dazu wird jeweils das<br />
ungenutzte Auge durch das LCD abgedunkelt, die Sicht wird blockiert. Die Synchronisation mit<br />
dem Computer erfolgt über ein Kabel bzw. über eine Infrarotschnittstelle.<br />
Wie genau funktioniert aber so ein LCD?<br />
Ein LCD besteht aus zwei kleinen Glasscheiben zwischen denen sich unzählige Zellen (Pixel)<br />
befinden, welche mit einer FLüssigkristalsubstanz gefüllt sind. Durch kleine Stromstöße können<br />
diese in ihrer räumlichen Ausrichtung manipuliert werden und Licht kann durch das Pixel fallen.<br />
Das gleiche Prinzip wird auch bei LCD-Displays verwand. Diese haben zusätzlich aber noch<br />
Farbfilter zwischen den Glasscheiben liegen, um alle RGB-Werte darstellen zu können.Weiterhin<br />
wird das durchfallende Licht durch einen phosphorisierenden Hintergrund ersetzt.<br />
Der Vorteil solcher Displays liegt zum einen im Kostenpunkt, denn sie sind erheblich günstiger<br />
als Kathodenstrahlröhren (bekannt aus Fernsehern), zum anderen in ihrer einfachen Handhabung<br />
bzw. Einsatzmöglichkeit. Weiterhin brauchen LCDs erheblich weniger Energie als eine<br />
Kathodenstrahlröhre. Diese produziert ihr eigenes Licht, indem durch eine Vakuumröhre ein<br />
Elektrodenstrahl geschossen wird, welcher dann, nachdem er mehrmals durch Magneten<br />
abgelenkt wurde, Leuchtpunkte auf einem mit Phosphor beschichteten Schirm (Mattscheibe)<br />
sichtbar macht.<br />
Die Elektronen legen etwa eine Strecke von 650 Metern in der Sekunde zurück und erzeugen<br />
damit eine wesentlich höhere Auflösung als ein LCD-Display.<br />
Shutterbrille
. Sichtgeräte der NASA:<br />
1984 bauten Wissenschaftler der NASA unter Leitung von Scott Fischer einen VR-Helm aus<br />
zwei kleinen LCD-Fernsehern oder besser gesagt, aus deren LCD-Displays und deren<br />
phosphorisierenden Rückbeleuchtung.<br />
Diese produzierten eine Auflösung von immerhin 76.800 Pixel, was allerdings entscheidend zu<br />
wenig <strong>für</strong> eine scharfe Darstellung ist. Eine weitere Verschlechterung der Bildqualität brachte die<br />
Montage der LCDs nahe der Augen mit sich, denn je geringer der Abstand zwischen den Augen<br />
und den Bildschirmen ist, desto sichtbarer werden die einzelnen Pixel und damit verschlechtert<br />
sich logischerweise auch die Schärfe bzw. die Detailtreue des Bildes. Man stellte fest, dass ein<br />
geeigneter Abstand von ca. 50 cm vonnöten ist, damit die einzelnen Pixel zu einem scharfen Bild<br />
zusammenfließen.<br />
c. UNC-Monitor:<br />
UNC steht <strong>für</strong> die Universität von North Carolina. Dort entwickelte man 1989 einen ganz<br />
besonderen Helm in Zusammenarbeit mit der amerikanischen Luftwaffe. Das Grundgerüst zu<br />
diesem Helm lieferte ein ordinärer Fahrradhelm, welcher mit zwei LCDs, fluoreszierenden<br />
Hintergründen und Speziallinsen ausgestattet wurde. Das besondere an diesem Helm war die<br />
Tatsache, dass die LCDs schräg angebracht wurden. Dies geschah, damit der Benutzer genug<br />
Platz <strong>für</strong> seine Nase hatte.<br />
Die dadurch erzeugt Verzerrung wurde mit Hilfe einer Speziallinse wieder korrigiert.<br />
Einige Jahre später wurde das System weiterentwickelt.Die LCDs wurden nun waagerecht in<br />
Höhe der Augenbrauen angebracht (man kann sich das wie hochgeklappte Sonnengläser<br />
vorstellen).<br />
Das Bild wurde nun mit Vergrößerungsgläsern abwärts auf halbversilberte Spiegel projiziert,<br />
welche in einem 45-Gradwinkel zu den Augen des Benutzers angebracht wurden. Somit konnte<br />
der Betrachter zum einen das computererzeugte Bild als auch die reale Umgebung wahrnehmen.<br />
Dies nennt man auch das Sutherlandsche Prinzip, auf das ic nachher noch näher eingehen werde.
d. Eyephone von VPL:<br />
VPL, gegründet von Jaron Lanier , bekannt als ein Pionier der virtuellen Realität, war die erste<br />
Firma, welche stereoskopische Helme zur kommerziellen Nutzung herausbrachte.<br />
Das Eyephone überzeugte durch seine farbigen Displays, welche immerhin eine Auflösung von<br />
320 x 240 Pixel schaften. Ebenfalls neu, obwohl eigentlich sehr simpel, war das Aussehen des<br />
Eyephones. Es glich mehr einer Taucherbrille als einem Datenhelm. Diese Form wurde gewählt,<br />
damit diffuses Licht nicht in den Helm dringen konnte.Kurze Zeit später erschien die Visette von<br />
W-Industries, welche noch heute in VR- Cafés eingesetzt wird.<br />
Eyephone<br />
e. CAE-faseroptisches System:<br />
Die Firma CAE brachten den ersten Datenhelm heraus, welcher nicht mit LCD-Displays, sondern<br />
mit Kathodenstrahlröhrren arbeitete. Die Bilder, welche die Röhren erzeugten, wurden mit Hilfe<br />
von Glasfaserbündeln zum Helm transportiert, durchliefen dort ein spezielles Linsensystem und<br />
wurden letztlich auf halbversilberte Spiegel projiziert. Somit konnte der Betrachter genau wie bei
dem UNC-Helm zum einen das Computerbild, zum anderen die "wirkliche Umgebung"<br />
wahrnehen.<br />
Neu bei diesem System war zum einem die Verwendung von Glasfaserbündeln als auch die<br />
Benutzung von Eyetracking. Eine Infrarotkamera innerhalb des Helmes trackte die Bewegung der<br />
Augen. Anhand dieser Daten wurden nur die Objekte bzw. Bilder, welche mit dem Auge direkt<br />
fokussiert wurden, scharf dargestellt. Dadurch erreichte man eine erheblich Rechenauslastung der<br />
Computer.<br />
CAE System<br />
f. Die Cave Automatic <strong>Virtual</strong> Environment (CAVE)<br />
Ein Cave Automated <strong>Virtual</strong> Environment (CAVE) ist ein Raum zur Projektion einer<br />
dreidimensionalen Illusionswelt der virtuellen Realität. Das NCSA definiert CAVE als "an<br />
immersive virtual reality facility designed for the exploration of and interaction with spatially<br />
engaging environments". Die Bezeichnung "Cave" rekurriert bewußt auf das Höhlengleichnis in<br />
Platons Republik, das sich mit dem Verhältnis von Wahrnehmung und Erkenntnis sowie Realität<br />
und Illusion beschäftigt.<br />
Der Prototyp eines Geräts zur Echtzeit-Visualisierung in Kunst und Wissenschaft <strong>für</strong> mehrere<br />
Menschen in einem Raum wurde von dem Kunstprofessor Daniel Sandin und den<br />
Computerwissenschaftlern Tom DeFanti und Carolina Cruz-Neira an der University of Illinois in<br />
Chicago entwickelt und 1992 auf der SIGGRAPH vorgestellt. Im Ars Eletronica Center in<br />
Linz ist eine solche CAVE seit September 1996 installiert und der Öffentlichkeit zugänglich.<br />
Neuere vergleichbare VR-Systeme sind “ImmersaDesk“ und der “IWall“.<br />
Der CAVE erlaubt die Echtzeitvisualisierung von interaktiven, hochkomplexen Grafikdaten in<br />
einem begehbaren Raum. Die Grafikdarstellung erfolgt durch Rückwandprojektion auf vier<br />
Projektionswände mit je 2,5m x 2m Größe. Zentraler Bestandteil des Systems ist ein SGI Origin<br />
3800 Superrechner, der es erlaubt, Grafikdaten in Echtzeit unter der interaktiven Kontrolle des<br />
Benutzers zu verarbeiten und auf den Leinwänden darzustellen. Dadurch entsteht <strong>für</strong> den<br />
Benutzer der Eindruck, sich in einer virtuellen Welt zu bewegen.<br />
Die Cave Automatic <strong>Virtual</strong> Environment (CAVE) ist 1991 von der EVL entwickelt worden.<br />
Der VR-Raum bringt den Anwendern eine Reihe von Vorteilen gegenüber bisherige<br />
Displaytechniken.<br />
Simultan erhält eine Gruppe von Betrachtern die Möglichkeit zum kompletten Eintauchen in<br />
virtuelle Realitäten, die mit hoher Auflösungsqualität dargeboten werden. Zudem erhalten die<br />
Akteure die Freiheit ohne belastende Displaygeräte zu agieren.<br />
Die 4-Seiten-CAVE besteht aus 3 Seitenwänden und einer Bodenfläche.<br />
Ein LCD-Projektor <strong>für</strong> jeden Screen projiziert ein Stereobild des virtuellen Geschehens durch<br />
Rückprojektion auf die Seitenwände (Höhe zwischen 2,40 m und 3,00 m) und durch
Aufprojektion auf den Boden (Grundfläche des Raumes 3 x 3 m). Alle Wände sind simultan<br />
aktiv.<br />
Gewöhnlich führt einer der CAVE-Besucher die Bilddarstellung. Der Guide trägt eine getrackte,<br />
von Positionssensoren vermessene Stereobrille (Shutter-Glasses). Ein Grafiksupercomputer von<br />
Silicon Graphics generiert in Echtzeit die virtuellen Bildwelten entsprechend der Blickrichtung.<br />
Die restlichen, mit sensorlosen Stereobrillen ausgestatteten Betrachter verfolgen das Geschehen<br />
unbehindert und mit hoher Auflösungsqualität (1250 x 512 Pixel bei 120 Hz (stereo)). 9<br />
CAVE<br />
2. Monukolare Systeme:<br />
2a. Das Privat Eye :<br />
Das wohl bekannteste monukolulare System ist das "Private Eye" von Reflection Technologies.<br />
Monukolar bedeutet "einäugig", das heißt, daß die Daten auf nur ein Auge des Betrachters<br />
projiziert werden, man also keine stereoskopischen Bilder benutzt.<br />
Das Private Eye ist nur 3,0x3,3x8,9 cm groß und wird mit Hilfe eines Stirnbandes am Kopf<br />
befestigt. Es projeziert einen etwa 30 cm großen Bildschirm auf die Netzhaut. Dies geschieht auf<br />
folgendem Wege:<br />
Das Privat Eye verfügt über 280 kleine Leuchtdioden, welchen gegenüber ein Spiegel angebracht<br />
ist. Dieser dreht sich sehr schnell hin und her. Bei jeder Drehung flackert jede Diode über 720<br />
mal auf. Dadurch werden 280 waagerechte und 720 senkrechte Pixelspalten simuliert.<br />
Auch beim Privat Eye setzte man auf eine virtuelle Überlagerung. Das heisst, dass sowohl die<br />
virtuelle Realität als auch die wirkliche Außenwelt wahrgenommen wird.<br />
9 Dave Pape, „The CAVE <strong>Virtual</strong> <strong>Reality</strong> System “, http://www.evl.uic.edu/pape/vrml/CAVE/ , July 2001
Private Eye<br />
3. Freie Monitore:<br />
3a. Sutherlands Damoklesschwert :<br />
Das Damoklesschwert, welches Ivan Sutherland als Harvardstudent 1968 erfunden und erbaut<br />
hatte, gilt als erster virtueller Helm. Somit kann Sutherland genau wie Jaron Lanier (VPL) zu<br />
den Pionieren der virtuellen Realität gezählt werden. Hierbei handelt es sich um einen Kasten,<br />
an dem sich rechts und links jeweils eine Kathodenstrahlröhre befindet, welche ein<br />
stereoskopisches Bild über ein System von Glaslinsen auf die Netzhaut des Betrachters<br />
projiziert.Dabei kann der Betrachter weiterhin seine Umgebung wahrnehmen, wir haben also<br />
eine virtuelle Überlagerung. Die räumliche Ortung geschah durch eine Aufhängung an einem<br />
Metallarm, welcher an der Decke befestigt war. Daher erhielt das Gerät auch seinen Namen.<br />
Anmerkung: Über Damokles, einem Günstling des Dionysios von Syrakus, war ein Schwert an<br />
einem Pferdehaar aufgehängt. Der Begriff “Damoklesschert“ steht normalerweise <strong>für</strong> drohende<br />
Gefahr! Es ist daher anzunehmen, daß Sutherland den Namen als Spaß verwandte.<br />
Sutherlands Damoklesschwert
3b. BOOM (Binukolar Omni Orientation Monitor) :<br />
Dieser Helm hatte außer den LEEP-Linsen, auf die ich noch später zu sprechen komme, keine<br />
Gemeinsamkeit mit den herkömmlichen Monitoren.<br />
Die Projektion geschah über zwei kleine Kathodenstrahlröhren, welche eine Auflösung von<br />
1280 x 500 Pixel besaßen. Diese befanden sich in einem kleinen Kasten, welcher an einem<br />
Schwenkarm, der widerum aus zwei Teilen bestand, befestigt war. Man schaut in diesen Kasten<br />
und kann sich frei im Raum bewegen, da er an beiden Seiten Griffe zur Bewegung bereit hält.<br />
Kurz nach Veröffentlichung des BOOM s griff VPL dieses System auf, indem sie <strong>für</strong> ihre<br />
Eyephone Serie eine Schnittstelle entwarfen, die man zum einem als freien Monitor, zum anderen<br />
aber auch als HMD (Head Mounted Display) benutzen kann.<br />
BOOM<br />
13. Wichtige Punkte zur Verstärkung der Immersion<br />
Um eine realistische Darstellung einer virtuellen Realität zu erzeugen, müssen gewisse Punkte<br />
genauestens beachtet werden. Dabei sind drei Hauptpunkte besonders wichtig:<br />
a. das Gesichtsfeld<br />
b. die Bildwechselrate<br />
c. Blickortung<br />
13a. Das Gesichtsfeld:<br />
Der durchschnittliche Mensch hat ein Gesichtsfeld von etwa 270 Grad. Innerhalb dieses<br />
Gesichtsfeldes ist allerdings nicht alles scharf, aber auch die unscharfen Informationen sind<br />
genauso wichtig <strong>für</strong> das dreidimensionale Sehen. Genau aus diesem Grund benutzen die meisten<br />
der eben vorgestellten optischen Geräte Speziallinsen der Firma LEEP-Systems.<br />
Diese Linsen haben das Prinzip der Fischaugenlinse aufgegriffen und weiterentwickelt.<br />
Es handelt sich hier um einen Weitwinkellinsensatz, genannt LEEP, welcher eine 6,5-fache<br />
Vergrösserung erzeugt und das Bild in etwa 120 Grad über das waagerechte sowie senkrechte
Gesichtsfeld des Betrachters ausbreitet. Das entspricht in etwa einem 90 Grad großem<br />
binukolarem Gesichtsfeld.Weil sich diese Technik so gut bewährt hat, sind LEEP-Linsen heute<br />
standard bei allen gehobeneren VR-Systemen.<br />
Überboten werden diese Linsen nur noch von der Entwicklung von ARVIS-Electronics, welche<br />
durch das Zusammenspiel von speziell verzerrten LCD-Monitoren und Präzisionskontaktlinsen<br />
ein noch größeres Sehspektrum abdecken konnten.<br />
LEEP-Linsen<br />
13b. Die Bildwechselrate:<br />
Im wirklichen Leben, also in der "wirklichen Realität", ist Blicken und Sehen eins. Das heißt,<br />
dass der Zeitraum zwischen diesen beiden Vorgängen so minimal ist, daß er von uns nicht<br />
registriert wird. Man spricht hier auch von Echtzeit.<br />
Der Begriff Bildwechselrate bezieht sich auf die Anzahl der Bilder die von einem Computer<br />
innerhalb einer gewissen Zeit dargestellt werden können. Dabei liegt die angenehmste<br />
Empfindung, laut der Wissenschaft, bei ca. 40-50 Bildern in der Sekunde.<br />
13c. Blickortung:<br />
Dieser Begriff bedeutet, die unabhängige Bewegung der Augen im Bezug zum Kopf zu<br />
verfolgen. Ein Beispiel da<strong>für</strong> ist das Eyetracking des CAE-Systems. Durch diese Technik könnte<br />
man erheblich Rechenleistung sparen, da nur der Fixpunkt scharf gerendert werden müsste. Dies<br />
entspräche außerdem einer realeren Darstellungsweise.
14. Räumliche Ortung / Tracking<br />
Unter Trackingsystemen versteht man die möglichen Techniken, um die Position einer Person<br />
bzw. der Hand dieser Person im virtuellen Raum zu ermitteln.<br />
Das wohl faszinierenste an diesen optischen Systemen (HMDs) ist die Tatsache, daß sie alles<br />
Wissen über Raumortung, Bilderzeugung und Darstellungstechnik in einem Gerät vereinen. Aber<br />
wie funktioniert räumliche Ortung?<br />
Auch hier gibt es verschiedene Arten von Ortungsmechanismen:<br />
a. Mechanische Ortung<br />
b. Magnetische Ortung<br />
c. Ultraschall-Ortung<br />
d. Optische Ortung<br />
e. Ortung durch Bildauszug<br />
14a. Mechanische Ortung :<br />
Ivan Sutherland benutzte die Art von Ortung bereits bei seinem Damoklesschwert. Dabei steht<br />
ein VR-Helm über einen Metallarm mit einem an der Decke befindlichen Dekoder in direkter<br />
Verbindung. Bewegt der Benutzer nun den Kopf, so wird dies erfaßt und daraufhin vom<br />
Computer das betrachtete Bild anhand der gelieferten Koordinaten korrigiert.<br />
Die feste Montage schränkt den Benutzer allerdings in seinem Bewegungsfreiraum erheblich ein.<br />
14b. Magnetische Ortung<br />
Die magnetische Ortung macht sich die Eigenart zunutze, daß elektrischer Strom in Verbindung<br />
mit einer Drahtspule ein magnetisches Feld entlang einer Achse produziert. Umgekehrt entsteht<br />
proportional ein elektrischer Strom zu einer Feldstärke, wenn man die Drahtspule einem<br />
Magnetfeld nähert. Dies, verbunden mit einem ausgeklügeltem System von Empfangs- und<br />
Sendemechanismen, erzeugt eine dreidimensionale Ortung im Raum.<br />
Das erste bekannte System in dieser Art wurde von der Firma Pholemus Navigation Sciences<br />
erfunden, und somit nennt sich dieses System seitdem “Pholemus-Magnetortung“.<br />
Die großen Nachteile waren damals, das eine erhebliche Latenz vorhanden war. Dass bedeutet,<br />
dass eine gewisse Zeitverzögerung zwischen dem eingehenden Signal und dessen Verarbeitung<br />
auftritt. Weiterhin arbeiteten diese Systeme mit Wechselstrom, welcher Fluktuationen und<br />
Störungen der Magnetfelder und diese widerum Störungen der LCD-Displays mit sich brachte.<br />
Heutzutage gehören diese Probleme, bedingt durch schnellere Rechner und das Umstellen des<br />
Systemes auf Gleichstrom, der Vergangenheit an.
Pholemus-Magnetortung<br />
14c. Ultraschallortung<br />
Dieses System wurde ebenfalls von Ivan Sutherland erfunden. Das System arbeitet wie folgt :<br />
Ein kleiner Apparat am Helm sendet eine schnelle Abfolge von unhörbaren Knacktönen, welche<br />
von vier an der Decke befestigten Mikrofonen empfangen werden. Durch den jeweiligen<br />
Zeitunterschied des Eingehens des Knackens an den verschiedenen Mikrophonen lässt sich über<br />
mathematische Formeln die Position im Raum berechnen. Allerdings ist dieses System sehr leicht<br />
zu stören (Hindernisse, Nebengeräusche).<br />
14d. Optische Ortung<br />
Die optische Ortung funktioniert von der Grundprinzip her wie das Motiontracking. An einer<br />
Person werden Leuchtpunkte angebracht, die dann von Kameras erfaßt werden und von einer<br />
speziellen Software verarbeitet werden. Daraus ergibt sich die (fast) genaue Postion des<br />
Benutzers.<br />
Auch die Umkehrung des Systems ist möglich. Da<strong>für</strong> werden lichtempfindliche Kameras am<br />
Helm des Benutzers intalliert, welche dann computergesteuerte Infrarot-Leuchtdioden an der<br />
Decke des Raumes filmen. Diese Daten werden ebenfalls durch den Computer ausgewertet und<br />
können dann zur räumlichen Ortung der Person dienen.
Optisches Ortungsgerät auf dem Helm<br />
14e. Ortung durch Bildauszug<br />
Die optische Ortung durch Bildauszug ist eigentlich nur eine Weiterentwicklung des<br />
Motiontrackings. Der Computer erfaßt mittels Spezialkameras die agierende Person und<br />
berechnet anhand gespeicherter Bewegungsmuster die Bewegung des Benutzers. Dieses System<br />
ist zwar entschieden rechenaufwendiger, hat aber den großen Vorteil, daß der Agierende nicht<br />
unbequeme Datenanzüge, bestückt mit Leuchtdioden oder farbigen Tischtzennisbällen, anziehen<br />
muß, sondern sich in seiner normalen Bekleidung durch die virtuelle Realität bewegen kann.<br />
15. Haptische Systeme<br />
Kraft ist eine wichtige Erfahrung in der Realität um uns in unserer Umwelt zu orientieren. Seien<br />
es Kräfte, die auf uns wirken oder die wir selber ausüben, ohne sie wäre die Realität nicht mehr<br />
so real. Damit ist Kraft ein wichtiger Bereich der VR-Forschung. Unter haptischen Systemen<br />
versteht man die Simulation von Druck (Kraft) und Oberflächenbeschaffenheit von simulierten<br />
Gegenständen.Die haptische Ausgabe macht sich die Eigenart unserer Haut zu nutze. Sie ist das<br />
erste und wichtigste Verbindungsglied zur Außenwelt.<br />
Sie besteht aus zwei <strong>für</strong> die haptische Ausgabe äußerst wichtigen Systemen.<br />
1. Die Mechanorezeptoren:<br />
Diese Rezeptoren liefern Informationen über die Verformung der Hautoberfläche. Dabei<br />
erkennen sie die Form, die Struktur und die Temperatur eines Gegenstandes. Ebenso wird die<br />
Dehnung der Haut registriert. Wir besitzen hunderttausende solcher Rezeptoren.<br />
2. Die Propriozeptoren:<br />
Diese Rezeptoren bestehen aus komplexen Muskelgruppen, welche Information über Größe,<br />
Gewicht und Form eines Gegenstandes liefern. Diese Informationen nennt man auch<br />
Propriozeption, was soviel wie tiefsensible Wahrnehmung bedeutet. Beide Rezeptoarten arbeiten<br />
eng zusammen und bestimmen unsere taktile Wahrnehmung und unser Hautempfinden.
15a. Kraftrückkoplungsgeräte:<br />
Diese Geräte verursachen, wie ihr Name schon sagt, eine Kraftrückkoplung auf unseren Körper,<br />
um Rezeptorsignale auszulösen. Die ersten Versuche dieser Art sahen wie folgt aus:<br />
Eins der ersten haptischen Geräte war ein Handschuh, in dessen Fingerkuppen sich<br />
piezoelektronische Kristalle befanden. Diese fangen schon bei niedrigen Spannungen an, zu<br />
vibrieren. Durch spezielle Software wurden diese Kristalle im richtigen Moment in<br />
Schwingungen gesetzt und vermittelten somit dem Benutzer ein grobes Gefühl von Widerstand.<br />
15a/a. Der ARM<br />
Ein anderes Beispiel ist der ARM (Argonne Remote Manipulator). Den ARM kennt man als<br />
Kontrolleinheit <strong>für</strong> Roboterarme, welche radioakives Material bewegen.<br />
Der Arm wird an der Decke montiert. Er gibt Rückkopplungssignale an die Hand, das<br />
Handgelenk, den Ellenbogen und die Schultern.<br />
Ein ähnliches Modell ist der “Per Force“ Handcontroller. Er ist im Grunde genommen eine<br />
Weiterentwicklung des ARM und ist im Gegensatz zu seinem "Vorbild" multipel einsetzbar.<br />
15a/b. Das TeleTact - Rückkoplungssystem<br />
Dieses System wurde an dem Forschungszentrum <strong>für</strong> fortgeschrittene Robotik in Großbritannien<br />
erdacht und erbaut. Es handelt sich hierbei um die Übermittlung von taktilen Reizen mittels<br />
Luftpolster, welche in den Handschuh eingearbeitet sind. Dieses System besteht aus zwei<br />
Kunststoffhandschuhen. Handschuh Nr.1 ist der sogenannte Datenaufnahmehandschuh,<br />
Handschuh Nr.2 der eigentliche TeleTact-Handschuh.
Der Datenaufnahmehandschuh besitzt zwanzig kraftempfindliche Widerstände an der Hand und<br />
dem Fingeransatz. Man greift mit diesem Handschuh einen Gegenstand. Der Handschuh, oder<br />
vielmehr die eben genannten Wiedersrtände, registrieren das Kraftmuster und senden es weiter an<br />
den Rechner, welcher diese dann speichert. Ist dies getan, kann man mit dem eigentlichen Tele-<br />
Tact Handschuh, welcher, genau wie Handschuh Nr.1, über Luftpolster verfügt, z.B. einen<br />
simulierten Ball im Cyberspace anfassen und auch spüren, sofern man die vorher gespeicherten<br />
Daten, wie z.B. von einem "wirklichen Ball" dem Cyberspace-Ball zugewiesen hat.<br />
Dabei ist dieses System erstaunlich präzise und vermittelt ein verblüffendes Endresultat.<br />
15a/c. Der Portable Dextrous Master<br />
Der Portable Dextrus Master ist ein Zusatzgerät <strong>für</strong> den Dataglove. Er simuliert Kraftrückkopplung<br />
durch kolbenartiger Zylinder, welche auf der Handinnenseite montiert sind und mit<br />
Druckluft gespeist werden. Der Portable Dextrus Master kann in Echtzeit über spezielle Software<br />
Daten simulieren, welche z.B. von einer Roboterhand, die mit Drucksensoren bestückt ist,<br />
stammen könnten.
15a/d. Das Tini Alloy Rückkopplungsystem<br />
Die Grundidee dieses Systems basiert auf der Simulation von Tastreizen, welche mittels einer<br />
sogenannten Memory-Legierung simuliert werden.<br />
Eine Memory-Legierung (wie z.B. Nickel - Titan) nimmt im kalten oder erwärmten Zustand<br />
unterschiedliche Formen an. Sobald sich die Temperatur wieder auf einen Mittelwert<br />
eingependelt hat, errinnert sich diese Legierung an die Ausgangsform und kehrt in sie zurück.<br />
Diese Eigenschaft wird genutzt, um mit Hilfe von kleinen Stromstößen, welche zur Erwärmung<br />
dienen, Taktoren im Bereich der Fingerspitzen zu bewegen.<br />
Wie wichtig ist eine haptische Ausgabe?<br />
Haptische Systeme spielen eine sehr große Rolle <strong>für</strong> die virtuelle Welt, da einige Einsatzbereiche,<br />
wie zum Beispiel die Steuerung von Roboterarmen mit Greifhänden oder die virtuelle<br />
Fernsteuerung von Fahr-und Flugzeugen, ohne sie sinnlos wären. Hinzu kommt, daß die<br />
Gesamtprojektion wesentlich stärker ist als wenn man auf deine haptische Ausgabe verzichten<br />
würde. Sie unterstützt auch die Orientierung im virtuellen Raum. Die haptische Ausgabe<br />
unterliegt aber auch dem Anspruch, glaubhaft zu sein. Und dies ist gar nicht so einfach. Es gibt<br />
schließlich eine große Pallette an unterschiedlichen Gefühlen, hervorgerufen durch weitere<br />
Rezeptorgruppen, die mehr Daten liefern als heiß, kalt, Schmerz oder Druck. Und auch die<br />
Refreshrate der Daten muß, genau wie bei den optischen Systemen, am besten der Realität<br />
entsprechen, sollte eine Echtzeitausgabe sein.<br />
16. Akustische Richtungsbestimmung / virtueller Sound<br />
Die akustische Richtungsbestimmung ist genauso wichtig <strong>für</strong> eine glaubhafte Projektion der<br />
virtuellen Realität wie die optische oder die haptische. Denn oft helfen auch Töne, um Objekte zu<br />
lokalisieren bzw. sie zu deuten.<br />
Der Mensch neigt dazu, sich ein 3-D-"Audio-Bild" im Kopf zu machen.<br />
Wichtig hier<strong>für</strong> sind vier Faktoren:<br />
a. Zeitunterschied<br />
b. Lautstärke<br />
c. Schallschatten<br />
d. Echoortung
16a. Interauraler Zeitunterschied :<br />
Interaural bedeutet soviel wie “zwischen den Ohren“. Das heißt, daß der Schall das eine Ohr<br />
früher erreicht als das andere. Somit können wir bestimmen, ob die Schallquelle links, rechts,<br />
linksoben, etc. liegt. Manchmal, aber eher selten, kommt es vor, dass der Schall direkt von vorne<br />
oder direkt von hinten kommt. Dann erreicht der Schall die Ohren gleichzeitig, und wir erkennen<br />
dies als vorne oder hinten.<br />
16b. Interaurale Lautstärke:<br />
Die Intensität des Schalls nimmt mit der Entfernung ab. Dass bedeutet, dass unsere Ohren ihn<br />
unterschiedlich laut wahrnehmen. Tiefe Töne werden meist in einem Raum überall gleichmäßig<br />
laut wahrgenommen. Dies ist damit zu erklären, daß tiefe Töne ein sehr niedriges<br />
Frequenzspektrum besitzen, und somit <strong>für</strong> unser Gehör schwer zu orten sind. Eine einhundert Hz<br />
Welle schwingt mit einer Länge von über drei Metern, und ist damit größer als der Kopf. Sie<br />
erreicht die Ohren also mit der gleichen Intensität.<br />
16c. Schallschatten:<br />
Im Gegensatz zu den tiefen Tönen haben hohe Töne ein hohes Frequenzspektrum. Die Welle<br />
schwingt sehr kurz und ist, je nach Hz-Zahl, wesentlich komprimierter. Daher kann man ihr auch<br />
leichter den Weg zum Gehör durch Gegenstände versperren. Hinzu kommt, daß bei einer<br />
Verdeckung der hohen Töne die tiefen Töne wesentlich stärker wahrgenommen werden.<br />
Bei solch einer Verdeckung von hohen Frequenzen spricht man vom Schallschatten.<br />
16d. Echoortung:<br />
Die Echoortung gibt Aufschluß über die Größe eines Raumes bzw. ob wir z.B. nahe einer Wand<br />
stehen oder nicht. Sie kann allerdings auch die Ortung stark behindern. Ein Beispiel da<strong>für</strong> wäre<br />
ein Helikopter, welcher über einem Wohnviertel kreist. Das Echo seines Motorengeräuschs und<br />
dem des Rotors würden aus allen Häuserschluchten wiederhallen. Die Echos kämmen also von<br />
mehreren Seiten, und eine Lokalisierung des Helikopters anhand der Echoortung wäre unmöglich.<br />
17. 3D -Ton / Virtueller Klang :<br />
Der virtuelle Klang muß all diese Punkte berücksichtigen und umsetzen können. Er muß in<br />
Echtzeit auf den Positionswechsel des Benutzers reagieren und sich diesem anpassen.<br />
Um einen Klang innerhalb eines Raumes realistisch wiedergeben zu können muß man all die<br />
kleinen Echos der Schallwellen berücksichtigt werden. Da<strong>für</strong> gibt es zwei Systeme:<br />
1. System :<br />
Dem Benutzer werden kleine Mikrofone an den Ohren angebracht, welche die empfangenen<br />
Daten dann an einen Rechner weitergeben. Dieser wiederum paßt den Ton an das jeweilige<br />
Hörmuster an. Dies nennt man auch kopfbezogene Umwandlungsfunktion. Durch kopfbezogene<br />
Umwandlungsfunktionen, Modulation bzw. Modifizierung durch mathematische Gleichungen in<br />
Echtzeit, kann dem Benutzer ein "realer" Klang in einem Raum vermittelt werden. Die Ortung<br />
des Kopfes im Raum geschieht durch einen Pholemus-Magnetsensor.
2.System :<br />
Hinter jedem reflektierendem Gegenstand werden zusätzliche Schallquellen angebracht. Ein<br />
Computer berechnet die jeweilige zu simulierende Stärke des Echos. Dieses System nennt sich<br />
Strahlenortung.<br />
Im allgemeinen erübrigen sich heutzutage solche Systeme, da die meisten HMDs mit<br />
Kopfhöhrern ausgestattet sind. Auch die Soundkarten haben in ihrer Entwicklung nicht halt<br />
gemacht, und so ist eine Dolby-Surround-Sound-Ausgabe mittlerweile Standard .<br />
18. Werkzeuge zur Eingabe<br />
18a. Tastaturen<br />
Die Tastatur ist eines der ältesten Eingabegeräte, mit dem man Zahlen und Buchstaben in einen<br />
Computer eingibt. Doch zur Eingabe alphanumerischer Daten in dreidimensionalen Welten ist<br />
die Tastatur nicht geeignet. Eine Lösung dieses Problems ist die Nachbildung von Tastaturen,<br />
die über einen Datenhandschuh bedient werden. Diese stellen jedoch nur eine Notlösung dar, da<br />
mit ihnen nur wenige Zahlen und Buchstaben eingegeben werden können. Dieses Problems hat<br />
sich die Firma KATrix angenommen. Sie hat eine KAT-(Keyboard Alternative Technology)<br />
Einhandtastatur entwickelt. Sie besteht aus einem Pistolengriff mit je einer Taste pro Finger.<br />
Mit jeder Taste lassen sich je sieben Zeichen erzeugen. Durch einen Schalter am Daumen läßt<br />
sich die Zeichenbelegung der restlichen Finger steuern. Insgesamt lassen sich dadurch 141<br />
Zeichen erzeugen. Neben dem hohen Preis von 2500$ spricht gegen dieses Eingabegerät, daß es<br />
eine lange Gewöhnungs- und Trainingsphase erfordert.<br />
18b. 2-D-Maus<br />
Die Computermouse wurde in den 60er Jahren am Stanford Research Institute entwickelt und<br />
zunächst in verschiedenen Forschungseinrichtungen eingesetzt. Das Prinzip ist einfach: Ein<br />
kleiner Ball in einem Gehäuse, das man über den Tisch rollen kann. Sensoren messen, wie weit<br />
der Ball in jede Richtung gerollt ist, und der Rechner übersetzt diese Koordinaten in Bewegungen<br />
eines kleinen Zeigers auf dem Bildschirm.<br />
18c. 2-D-/6-D- Maus<br />
Die Kombination ist recht simpel. Die Ingenieure haben einfach eine Standardmaus um ein<br />
Ultraschall-Sensorsystem erweitert. Das daraus resultierende Gerät (2D/6D Maus) besteht aus<br />
zwei Teilen. Zunächst wird ein Dreieck mit drei Ultraschallsendern vor eine gewöhnliche Maus<br />
auf den Tisch gestellt. Dann werden drei korrespondierende Empfänger an der Maus angebracht.<br />
Diese Mikrofone nehmen fünfzigmal pro Sekunde Schallsignale der Sender auf und teilen dem<br />
Rechner dadurch mit, wo sich die Maus befindet. Die 2-D-/6-D-Maus funktioniert einmal als<br />
normale Zeigersteuerung. Hebt man sie jedoch vom Tisch, ortet sie das Ultraschallsystem im<br />
Raum. Der Benutzer kann seine Bewegungen im dreidimensionalen Umfeld über einen flachen<br />
Monitor oder eine stereoskopische Darstellung verfolgen. Auch hier gilt, daß die Software über<br />
mögliche Anwendungen entscheidet, und verschiedene Programmanbieter mögen verschiedene<br />
Eigenschaften bereitstellen, die <strong>für</strong> bestimmte Aufgaben geeignet sind.
2-D/6-D-Maus<br />
18d. Der Spaceball<br />
Einige Hardware-Hersteller haben eine Kraft/Drehmoment-Steuerkugel auf den Markt gebracht,<br />
die man Spaceball nennt. Auch bei diesem Modell ist das Funktionsprinzip recht einfach:<br />
Eine kleine Kugel wird auf einer Basis montiert. Die Steuerknöpfe sind auch auf der Basis<br />
angebracht. Virtuelle Bewegungen werden gelenkt, indem der Benutzer die Kugel dreht, nach<br />
oben zieht oder vorsichtig nach vorne, hinten, links, rechts und nach unten drückt. Durch Klicken<br />
der Knöpfe lassen sich die einzelnen Funktionsweisen ändern und Gegenstände bewegen.<br />
Spaceball<br />
Technologisch ist der Spaceball fast so einfach wie die Maus. Sechs Infrarot - Leuchtdioden<br />
werden an einer kleinen Plastiksäule im Innern einer Kugel angebracht. Ebenso sind Fotosensoren<br />
in der Kugel, die erkennen, in welche Richtung das Infrarotlicht scheint. Jede Leuchtdiode<br />
steht <strong>für</strong> einen Freiheitsgrad: auf/ab, links/rechts, vorwärts/rückwärts sowie neigen, beugen<br />
und drehen. Wird die Kugel in einer bestimmten Richtung bewegt, registrieren die Fotosensoren<br />
diese Bewegung und geben die Daten an einen Prozessor weiter, der den Rechner mit entsprechenden<br />
Bewegungsbefehlen versorgt.Verschiedene Eigenschaften machen den Spaceball besonders<br />
gut <strong>für</strong> VR-Anwendungen geeignet. Vor allem ist er höchst intuitiv und leicht zu bedienen.<br />
So lassen sich relativ einfach Kamerafahrten in Echtzeitanwendungen simulieren.
18e. Datenhandschuh<br />
Der Datenhandschuh nimmt Handbewegungen auf und wandelt sie in <strong>für</strong> den Computer verständlichen<br />
Signalen um, die dann natürlich auch zum Computer übertragen werden. Die Computertechnik<br />
ist nun schon so weit, daß diese Signale fast Zeitgleich in die Bewegungen einer virtuellen<br />
Hand übersetzt werden können, so das der Datenhandschuh sinnvoll eingesetzt werden kann.<br />
18f. Der DataGlove<br />
Das erste wichtige Eingabegerät dieser Art, das von der Firma VPL Research entwickelt wurde,<br />
nennt sich DataGlove. Das Gerät wird in der ganzen Welt größtenteils zur Forschung und<br />
Produktentwicklung in vielen Anwendungsgebieten eingesetzt. Der Handschuh besteht aus<br />
einem leichten Lycra-Gewebe und schmiegt sich eng an die Hand. Finger- und Handbewegungen<br />
werden von einem Sensor und einem Satz kunststoffüberzogener faseroptischer Kabel<br />
auf den Fingerrücken gemessen. Die Faserkabel messen das Beugen und Strecken der Finger<br />
einschließlich Daumen. Jedes Kabel führt zu einer kleinen elektronischen Platine an der Vorderseite<br />
eines Steuerkastens. Jede Faser führt von der Schnittstellenplatine durch einen langen Abschnitt<br />
beweglicher Gewebeleitungen zu einem Handgelenk-Anker auf dem Handschuh. Von<br />
hier aus laufen die Kabel über den Handrücken bis über die Fingerknöchel und von dort zurück<br />
an die Schnittstelle. In der Schnittstellenplatine ist jedes Kabel an einem Ende mit einer Leuchtdiode<br />
bestückt, das gegenüberliegende Ende an einen Fotosensor angeschlossen.<br />
Die Steuereinheit wandelt die Lichtenergie, die der Fotosensor empfängt, in mengenmäßig<br />
bestimmbare elektrische Signale. Wenn Sie einen Finger krümmen, während Sie den DataGlove<br />
tragen, tritt das Licht, das von der Leuchtdiode durch das faseroptische Kabel fließt, aus kleinen<br />
Öffnungen in der Kabelhülle aus. Je stärker Sie den Finger krümmen, desto größer wird das<br />
Loch im Kabelmantel und desto mehr Licht tritt aus. Entsprechend weniger Licht erreicht dann<br />
den Fotosensor, und das elektrische Signal wird schwächer.Ein Computer verarbeitet dann den<br />
ganzen Lichtfluß und berechnet daraus, wie weit welcher Finger gebeugt<br />
werden muß. Jeder Finger hat mindestens zwei Kabel, eines am unteren und eines am mittleren<br />
Knöchel (mit Ausnahme vom Daumen, da er nur ein Knöchel hat). Um die Meßgenauigkeit zu<br />
erhöhen, fügt man manchmal auch mehrere Kabel an. Das jedoch reicht nicht aus um die Bewegung<br />
einer Hand im Raum nachzubilden, da durch die eben beschriebene Methode nur die Bewegung<br />
der Finger messen kann. Deshalb kommt ein zweites Meßwerkzeug hinzu. Und zwar<br />
handelt es sich hierbei um einen magnetischen Lage - und Richtungssensor. Dieser Sensor mißt<br />
die absolute Position (x, y und z) und die Bewegungsrichtung (drehen, neigen und beugen)<br />
der Hand.Beide Meßmethoden zusammen können fast jede mögliche Bewegung der Hand<br />
verfolgen.
Dataglove<br />
18g. Der PowerGlove<br />
Der PowerGlove ist eine Gemeinschaftsentwicklung von VPL und AGE<br />
(Abrams-Gentile Entertainment).Die Beugesensoren des PowerGlove funktionieren völlig<br />
anders, als die des DataGlove. Schmale Plastikstreifen,welche mit leitfähiger Tinte überzogen<br />
sind, werden im Handschuh über die Handrücken gelegt. Der durch die Tinte fließende Strom<br />
verändert mit der Bewegung seinen Widerstand. Über diese Widerstandsänderung werden vom<br />
Rechner die Bewegungen der Hand ermittelt. Im Gegensatz zum magnetischen Tracking beim<br />
DataGlove wird die Position und Orientierung des PowerGlove über Positionsortung per Ultraschall<br />
vorgenommen. Jeder PowerGlove hat zwei Ultraschallsender. Die Signalewerden über<br />
einen Empfänger am Monitor empfangen und in einer Steuereinheit in Positionsdaten umgerechnet.<br />
Mittlerweile wird der PowerGlove nicht mehr hergestellt. Allerdings gibt es neuere<br />
Entwicklungen im Datenhandschuhbereich, die von der Unterhaltungsindustrie vermarktet werden<br />
und im Preisbereich um $ 100 liegen.<br />
Powerglove
18h. Körpereingabe<br />
Bei VPL Research hat man die Körpererkennung in die Produktentwicklung aufgenommen und<br />
den DataSuit konstruiert. Im DataSuit kommen die gleichen faseroptischen sensorischen Kabel<br />
zum Einsatz, die wir schon vom DataGlove kennen. Das Prinzip ist das Gleiche, nur haben wir<br />
es beim gesamten Körper mit weit aus mehr Gelenken zu tun als nur bei einer einzelnen Hand.<br />
Beim DataSuit werden bis zu 50 Gelenke am ganzen Körper vermessen: die Knie, die Arme,<br />
der Rumpf und die Füße. Zusätzlich hat der Anzug noch vier Ortungssysteme:<br />
Je eines an jeder Hand, auf dem Kopf und auf dem Rücken. In der Virtuellen Realität könnte<br />
der DataSuit– oder ein vergleichbares System - <strong>für</strong> nonverbale Kommunikation oder komplexe<br />
Robotereinsätze nützlich sein. Weil verschiedene Körperteile unabhängig aufgezeichnet werden,<br />
könnte man beispielsweise mit dem Fuß ein System steuern, könnte eine bestimmt Körperhaltung<br />
den Rechner zum Szenenwechsel veranlassen oder ein Kopfnicken die Roboterarme in Bewegung<br />
setzen.<br />
Datasuit
19. Künstler /künstlerische Anwendungen der VR: Pioniere der VR-Kunst:<br />
19a/a. Nicole Stenger<br />
Nicole Stenger, geboren in Paris, ist eine Pionierin der VR Kunst. Ihr Werk "Angels" (1989-<br />
1992) gehört zu den ersten VR-Kunstwerken überhaupt. Der Film "Angels" involviert die<br />
Interaktion des Zuschauers, welcher mit einem Datenhandschuh und einer VR-Brille ausgestattet<br />
ist. Er befindet sich in einer Welt welche von Engeln bevölkert wird. Wenn man einen Engel<br />
berührt, entstehen neue Umgebungen und Farben aus Kristallen, von denen die Engel umgeben<br />
sind. 10<br />
Angels<br />
19a/b. Matt Mullican<br />
wurde 1951 in Santa Monica, CA (USA), geboren und lebt zur Zeit in New York. Berühmt<br />
geworden seit Mitte der 70er-Jahre mit den sogenannten „Zeichen-Bildern", die er seitdem in<br />
immer neuen Arrangements mit wechselnden Materialien variiert. In seinen Arbeiten sind die<br />
Zeichen bildlich-formale Ausdruckmittel, die <strong>für</strong> bestimmte Begriffe (Tod, Himmel) seiner<br />
Kosmologie stehen. Matt Mullican nahm an der documenta 7 und documenta 9 teil.<br />
“Five into One“, aus dem Jahr 1991, ist ein VR-Installtion, in der sich der Betrachter mit Hilfe<br />
von Datagloves und eines HMDs (Hergestellt von VPL) frei bewegen kann.<br />
“Five into one“ gehört wie "Angels" von Nicole Stenger, zu den ersten VR- Arbeiten.<br />
Der Grundaufbau bestand aus fünf Bildsituationen, welche durch weitere zweihundertfünfzig<br />
Bilder stetig konstruiert wurden. Der Zuschauer konnte dies in einer virtuellen Umgebung<br />
erleben, wobei sein jeweiliger FOV (field of view) in Echtzeit brechnet wurde. 11<br />
10 Autor unbekannt, „VR-Organisations“,<br />
http://www.teachers.ash.org.au/mrlaneis/ozedweb_it_virtual_reality_url_organisations.htm, Jahr unbekannt<br />
11 Autor unbekannt, „Exploring <strong>Virtual</strong> <strong>Reality</strong>-Matt Mullican “,<br />
http://www.mat.ucsb.edu/~g.legrady/academic/courses/01sp200a/students/enricaLovaglio/VRsite/authors/S.html,<br />
Jahr unbekannt
Five into one<br />
Weitere Arbeiten von Matt Mullican<br />
19b. Home of the brain: (1991/92)<br />
Monika Fleischmann und Wolfgang Strauss<br />
In der Installation "Home of the Brain" von Monika Fleischmann und Wolfgang Strauss kann der<br />
Betrachter mit einem Eyephone eine imaginäre Welt erforschen. Gleichzeitig sehen die anderen<br />
Besucher diese Bilder auf einer Projektionsfläche oder auf Monitoren. Der Interakteur scheint<br />
sich durch einen Raum zu bewegen, der architektonisch der oberen Halle der Neuen<br />
Nationalgalerie in Berlin nachempfunden ist. In diesem Raum befinden sich neben abstrakten<br />
Baumstammformen, Wänden, Kegeln und flachen Bodenplatten, die mit weißen Schriftzeichen<br />
versehen sind, vier Räume, die von vier Wissenschaftlern und Philosophen bewohnt werden:<br />
Joseph Weizenbaum, Marvin Minsky, Paul Virilio und Vilém Flusser geben Statements über die<br />
gesellschaftlichen Auswirkungen der neuen Medientechnologien ab.<br />
"Home of the Brain" steht als Metapher <strong>für</strong> eine völlig neue Art von Öffentlichkeit und wird zum<br />
Ort der kulturphilosophischen Reflexion der neuen Technologien. Unter dem Einheit spendenden<br />
Dach einer Architektur läßt sich gerade aufgrund seiner <strong>Virtual</strong>ität Disparates zusammentragen.<br />
Das Zusammentreffen von Architektur, widersprüchlichen Gedanken, philosophischen Positionen<br />
und radikalen Standpunkten jenseits jeder Ethik verwandelt die virtuelle Umgebung in einen<br />
symbolischen Raum. Wir sind beteiligt an einer Debatte extremer Anschauungen, an einer<br />
zeichenhaften Auseinandersetzung streitbarer Geister.<br />
"Vier Häuser" sind um ein gemeinsames Forum -- ein Labyrinth -- herumplaziert. Es ist eine<br />
archaische Symbolwelt. Eine Welt von Archetypen, die an C.G. Jungs Konzept vom kollektiven
Unbewußten erinnert. Die "Welt" der Philosophie ist ein "Raum aus Texten und Gedanken". Mit<br />
Licht, Farbe, Form und Worten versuchen Fleischmann und Strauss<br />
diese Welt im virtuellen Raum zu vermitteln.<br />
Die ersten vier Häuser werden von den Medienphilosophen und Computerwissenschaftlern<br />
Joseph Weizenbaum, Vilem Flusser, Marvin Minsky und Paul Virilio bewohnt". Unsere<br />
Interpretation ihrer Ideen haben wir in den Begriffen Hoffnung, Abenteuer, Utopie und<br />
Katastrophe ausgedrückt. Das sind Begriffe, die zuallererst mit der Symbolik von Farben<br />
verbunden werden. Grün ist die Farbe der Hoffnung. Sie wird Joseph Weizenbaums Weltsicht<br />
zugeordnet. Es ist die Farbe zwischen nah und fern, die Farbe der Natur und des Wachsens; sie<br />
steht gleichzeitig <strong>für</strong> Einfachheit und Extravaganz. Rot, die Farbe des Abenteuers, wird mit<br />
Vilem Flussers Ideen assoziiert. Sie steht <strong>für</strong> Aggression, Erotik und Liebe. Blau ist die Farbe der<br />
Unbegrenztheit, der Phantasie, der Märchen die Utopie, die zu Marvin Minsky gehört. Gelb ist<br />
die Farbe der Sonne, des Lichts und der Geschwindigkeit. Sie steht ebenso <strong>für</strong> Weisheit wie <strong>für</strong><br />
Verzweiflung, Hysterie und Katastrophe; sie spiegelt deshalb Paul Virilios Theorie wieder.<br />
Kubus, Pyramide, Kugel und Oktaeder sind "Icons" <strong>für</strong> die Häuser der Philosophen und als<br />
platonische Körper den vier klassischen Elementen Erde, Feuer, Wasser, Luft zugeordnet. Licht,<br />
Ton und Duft" unterstützen die Wirkung der Objekte. Innen hört man Töne, das Flüstern von<br />
Bäumen im Kubus, das Prasseln von Feuer in der Pyramide, das Rauschen von Wasser in der<br />
Kugel, einen Wirbelsturm im Oktaeder.<br />
Zitat Fleischmann und Strauss:<br />
Der virtuelle Raum kann seine Form, seine Farbe, sein Licht und seine Textur ändern. Wie in der<br />
Alchemie können wir im virtuellen Raum Wandlungen erfahren. Mit Feuer-, Wasser-, Luft- oder<br />
Erdtexturen überzogen, erscheint der Raum in immer neuem Licht. Der erste Eindruck ist<br />
verwirrend, wir fühlen uns "fremd". Im virtuellen Raum müssen wir von neuem lernen, zu<br />
"gehen", zu sehen, zu fühlen, uns zu bewegen. Der Geist geht auf Reisen in der virtuellen Welt -wir<br />
reisen körperlos. Fliegen und durch den Boden tauchen zu können, ganz normal durch Wände<br />
zu gehen und Objekte von innen zu besichtigen -- alle diese Erfahrungen kannten wir bisher<br />
nicht. Beim Experimentieren mit Ersatzaugen und Ersatzhänden machen wir mit unseren<br />
wirklichen Augen, Händen und Ohren neue Erfahrungen. Interaktivität und Telepräsenz können<br />
wichtige Konzepte <strong>für</strong> eine neue Form der Wahrnehmung werden. Mit dem "Eyephone" befindet<br />
man sich im Phänomen eines zeitlosen Raumes, es gibt kein "Altern" in diesem immateriellen<br />
Raum. Der Besucher der virtuellen Szenerie entscheidet nach seinen Interessen -- in welcher<br />
Weise und in welchen Perspektiven er die virtuellen Räume besichtigen möchte. Er bestimmt den<br />
"Weg" und die -- Blickfolge durch diese künstliche Wirklichkeit. Er ist die handelnde Person in<br />
diesem zugleich zeitlosen und beschleunigten Raum.<br />
Stärker als visuelle oder akustische Eindrücke vermittelt die Bewegung im Raum den Eindruck<br />
der Dreidimensionalität. Über die Bewegung erfahren wir den Raum. Objekte in diesem Raum<br />
folgen nicht dem Gesetz der Schwerkraft -- es tut nicht weh, durch Wände zu gehen.<br />
Der Betrachter steht im" Bild -- nicht mehr nur davor". Man könnte sagen: Ich bin im Bild, ich<br />
bin ein Teil davon. Man sieht sich selbst wie in einem magischen Spiegel. Man hat das Gefühl,<br />
sich selbst zu beobachten, neben sich zu stehen. "Außer sich zu sein." - "Aus dem Häuschen zu<br />
sein." Zugleich erkennt man: Ich bin im Bild, also bin ich. 12<br />
12 Redaktion Netzspannung, Home of the Brain,<br />
http://netzspannung.org/cat/servlet/CatServlet?cmd=netzkollektor&subCommand=showEntry&entryId=148753,<br />
21.09.2001
Fleischmann / Strauss Home of the Brain Interaktive Installation Goldene Nica der Ars<br />
Electronica 1992<br />
Technischer Hintergrund<br />
HW: Silicon Graphics, Apple, VLP-Dataglover, Eyephone<br />
SW: Stew, Wavefront, In-House SW<br />
home of the brain<br />
19c. Perceptual Arena:<br />
Ulrike Gabriel “Perceptual Arena“ (1993)<br />
Ulrike Gabriel und Bob O`Kane machen sich in ihrer Installation "Perceptual Arena" die Technik<br />
der virtual reality zu nutze.In diesem Fall wurde Datagloves und HMDs verwendet.<br />
Das Stück zeigt die komplexe Interaktion zwischen der physischen und virtuellen Realität.<br />
Wenn ein Besucher in "Perceptual Arena" betritt, gelangt er in einen leeren Raum.<br />
Durch das Bewegen durch diesen Raum, welches durch Benutzung der Datagloves passiert, bildet<br />
sich eine Welt aus abstrakten Formen, welche auf diesen Bewegungen basieren.<br />
Diese virtuelle Welt wird mittels eines HMDs (Head Mounted Display) dem Besucher vermittelt.<br />
Damit der Rest der Besucher ebenso erleben können, was gerade im virtuellen Rum passiert, ist<br />
der Akteur umrundet von zwei 3x4 Meter hohen Leinwänden, auf welchen das momentane<br />
Geschehen dargestellt wird.<br />
Zitat Ulrike Gabriel<br />
Jede Wahrnehmung ist anders, jeder Einzelne hat seine eigene individuelle Sicht der Welt. Die<br />
Wahrnehmung der physischen Existenz von „Dingen" in der „realen" Welt basiert auf<br />
persönlichen Interpretationen des Beobachters. Eine mögliche „Gesamtansicht" wäre ein<br />
unendlicher mehrdimensonaler Array simultaner Betrachtungswelten, die sich in Zeit und Raum<br />
zum individuellen Betrachterstandpunkt relativieren. Jeder Nano-Schritt von Veränderung des<br />
Standpunktes bedeutet eine Veränderung der Wahrnehmung und folglich ihrer Interpretation.<br />
PERCEPTUAL ARENA als offener virtueller Raum ist frei von der physischen Bedeutung der
Dinge und ermöglicht eine postphysikalische Wahrnehmung. Die Ereignisse basieren auf der<br />
Mehrdeutigkeit der Betrachtung einer zeit- und raumrelativen Welt. Die virtuelle Weit existiert<br />
nur durch den Betrachter, er kreiert sie selbst durch seine Betrachtung und Interaktion. 13<br />
Perceptual Arena<br />
19d. Dancing with the <strong>Virtual</strong> Dervish <strong>Virtual</strong> Bodies:<br />
Yacov Sharir Diane J.Gromala (1994)<br />
Hierbei handelt es sich um eine VR-Danceperformance, in welcher der Tänzer und die Zuschauer<br />
mit einer virtuellen Umgebung in Echtzeit performen und interagieren.<br />
“Dancing with the <strong>Virtual</strong> Dervish <strong>Virtual</strong> Bodies“gehört zu den ersten VR Projekten und bedient<br />
sich der Technik des HMDs und der des Datagloves. Durch Bewegung verändert der Besucher<br />
die Landschaft der vituellen Umgebung, in welcher Körperteile, Organe und Röntgenbilder<br />
dargestellt werden. Diese sind wiederum teilweise Portale zu neuen virtuellen Ebenen.Weiterhin<br />
wird der Besucher durch Videoaufnahmen seiner Person selbst in die virtuelle Ebene transferiert.<br />
Somit ist er in der Lage, mit sich selbst zu tanzen und zu agieren. 14<br />
Dancing with the <strong>Virtual</strong> Dervish <strong>Virtual</strong> Bodies<br />
13 Jan Sprij, V2 Archives, http://framework.v2.nl/archive/archive/node/work/default.xslt/nodenr-62359, 1994<br />
14 Yacov Sharir, <strong>Virtual</strong>ly Dancing, http://www.art.net/~dtz/sharir1.html, Jahr unbekannt
20. Künstlerische CAVE Anwendungen:<br />
20a. Crayoland:<br />
Crayoland (1995 ) Dave Pape<br />
Crayoland ist eine anti-fotorealistische, interaktive, virtuelle Umgebung welche fuer den CAVE<br />
kreiert wurde. Crayoland wurde erstmals im May 1995 auf der EVE 4 Art Show präsentiert.<br />
Die Umgebung besteht völlig aus groben zweidimensionalen Strichzeichnungen, welche sich aber<br />
in einer dreidimensionalen Welt befinden. Die <strong>für</strong> Crayoland kreierte Welt ist 3721 m² groß,<br />
gefüllt mit Bäumen, Blumen, Flüssen und Seen, Häusern und Bergen. Kleinere Objekte wie<br />
Blumen und Steine können aufgehoben und bewegt werden. Ebenso wird die Immersion in<br />
Crayoland durch landschaftlich korrekt plazierte Geräusche, wie zum Beispiel das Quaken eines<br />
Frosches am See, das Zwitschern der Vögel in den Baümen, verstärkt. Wenn man durch einen<br />
See läuft, hört man das Platschen der Schritte durch das Wasser.<br />
Crayoland ist ebenfalls von einigen Lebewesen, wie Schmetterlinge und Bienen, bevölkert.<br />
Die Schmetterlinge fliegen per Zufall durch die Landschaft.Wenn man neben einem inne hält,<br />
kann es passieren, daß der Schmetterling auf der eigenen "virtuellen Hand" landet.<br />
Die Bienen suchen wie in der "realen" Welt Nektar und verbringen die Zeit damit, ihren Stock zu<br />
bauen.Wenn man sie jedoch dabei stört, werden die Bienen agressiv und fangen an, einen zu<br />
jagen. 15<br />
Crayoland<br />
20b. Inside out<br />
"Inside out" von Marientina Gotsis (1999)<br />
"Inside out " ist eine vernetzte Tanzanwendung, die den physischen Raum mit dem virtuellen<br />
Raum mit einer Echtzeitübertragung der Performance über ein High-Speed Network kombiniert.<br />
Der Besucher wird eingeladen, sich die performances anzusehen und selbst zum Performer zu<br />
werden."Inside out" verwendet ein experimentelles optisches Tracking-System (entwickelt von<br />
Kang Sun und GeoffreyBaum) und einen passiven Stereoprojektionsbildchirm, auf welchem<br />
Daten, die von den Forschern und von den Kursteilnehmern von EVL stammen, dargestellt<br />
werden.<br />
Durch die Bewgungen des Performers wird der virtuelle Raum beeinflusst und verändert seine<br />
Struktur. Die Energie der Bewegung wird somit in die virtuelle Ebene transferiert und dort<br />
entsprechend umgewandelt und interpretiert. 16<br />
15 Dave Pape, „Crayoland“, http://www.evl.uic.edu/pape/projects/crayoland/, 2002<br />
16 Marientina Gotsis, „Inside Out“, http://www.evl.uic.edu/art/art_project.php3?indi=247
inside out<br />
20c. PAAPAB (2000)<br />
Josephine Anstey, Dave Pape, Dan Neveu<br />
PAAPAB ist eine netzwerkbasierende Kunstinstallation <strong>für</strong> den CAVE bzw. <strong>für</strong> andere VR<br />
Darstellungssysteme. Hierbei handelt es sich um eine Umgebung ähnlich einer Disco, welche<br />
durch lebensgroße Puppen bevölkert wird.<br />
Diese werden durch den Besucher animiert. Über Netzwerk können somit verschiedene Benutzer<br />
von verschiedenen Orten der Welt miteinander tanzen und sich beeinflussen.<br />
PAAPAB wurde 2001 uraufgeführt. 17<br />
PAAPAB<br />
20d. Citycluster (2002)<br />
Franz Fischnaller, Alex Hill<br />
Citycluster wir von Franz Fischnaller als eine <strong>Virtual</strong>-<strong>Reality</strong> Netzwerk-Matrix, ein kreativer<br />
High-tech container gefüllt mit mit ursprünglichen technologischen Eigenschaften, Navigation<br />
Interaktion und Grafik beschrieben.<br />
Innerhalb von Citycluster können multiple Umgebungen, Ambiente oder Städte, ob real<br />
nachempfunden oder rein imaginär, aufeinander einwirken und zusammen arbeiten. Der Rahmen<br />
17 Josephine Anstey, PAAPAB, http://www.ccr.buffalo.edu/anstey/VR/PAAPAB/, Jahr unbekannt
dieser Interaktion kann erweitert, modifiziert und in Abhängigkeit zur Topologie und Natur<br />
verändert werden.<br />
Der Besucher kann mit Hilfe seiner eigenen Kreativität und seiner kommunikativen Fähigkeiten<br />
selber Protagonist oder Bewohner werden. Hierbei kann er sich frei bewegen, interagieren und<br />
sich selbst seine ideale Umgebung schaffen. 18<br />
Citycluster<br />
20e. Auqaricon (2001)<br />
Sven Forstmann, Malte Paetsch, Andreas Schuster, Dominik Rinnhofer<br />
Die virtuelle Welt Aquaricon existiert seit 2001 und ist ein interaktives 3-D-Environment,<br />
eine computergenerierte Landschaft mit dazugehörigen Lebewesen. Die verschiedenen<br />
Lebensformen sind teilweise realen Tieren (Fischen) nachempfunden. Aber auch völlig<br />
neuartige Formen haben sich entwickelt. Die Fische reagieren auf einander und auf den<br />
Betrachter, der mit verschiedenen Interfaces ausgerüstet, die Möglichkeit hat in die Welt<br />
“Aquaricon“ einzugreifen. “Aquaricon“ versteht sich nicht als ein Abbild der Natur! Vielmehr<br />
versucht “Aquaricon“ der Natur, deren Bestandteil es ja ist, weitere Facetten hinzuzufügen.<br />
Unmögliche Lebensformen, wie zum Beispiel ein Metallfisch oder ein Fisch der die perfekte<br />
Mimikry beherrscht – indem er einfach unsichbar wird – kommen ebenso vor wie<br />
18 Franz Fischnaller, Citycluster, http://www.fabricat.com/CITYCL_WEB2003/introduction.html, Jahr unbekant
vereiste Scheibenputzer und rollende Krebse. “Aquaricon“ besteht aus erweiterbaren<br />
Landschaften in denen immer wieder neue Konstellationen von Lebewesen erprobt werden<br />
können. “Aquaricon“ ist ein sich weiterenwickelndes Projekt und wird von Sven Forstmann,<br />
Malte Paetsch, Andreas Schuster und Dominik Rinnhofer erweitert und betreut.<br />
Algorithmus <strong>für</strong> Fischdarstellung / -bewegungen in Aquaricon<br />
Zuerst werden die Fische zufällig im Aquarium verteilt, und mit ebenfalls zufälligen,<br />
Bewegungsvektoren versehen. Anhand dieser Vektoren können noch 2 weitere berechnet werden,<br />
die ingesamt dann die Basis bilden, um den Fisch dann darstellen zu können: Der erste Vektor<br />
lierfert x,y und z. Der 2.Vektor ist der 1. Vektor um 90° nach rechts (in der x-z-Ebene) gedreht,<br />
mit y=0. Der 3.Vektor ergibt sich jetzt aus dem Kreuzprodukt der ersten beiden Vektoren. Alle<br />
diese Vektoren zusammen bilden nun die Basis also Transformationsmatrix , die notwendig ist,<br />
um den Fisch darzustellen. Sie werden vorher noch normalisiert, damit der Fisch seine normale<br />
Größe behält. Der Fisch wird, nachdem er anfangs angestoßen wurde, nun kontinuierlich langsamer,<br />
was echten Fischen nachempfunden wurde.<br />
Falls er stehen bleibt bzw. zu langsam wird, wird er erneut angestoßen. Damit die Fische nicht<br />
nur geradeaus schwimmen, bekommen sie zusätzlich noch eine zufällige Zielposition<br />
vorgegeben, auf die sie versuchen zuzuschwimmen. (Der Bewegungsvektor wird während<br />
des Schwimmens entsprechend angepaßt. ) Falls ein Fisch nun einem anderen zu nahe<br />
kommt, versuchen die Fische sich gegenseitig auszuweichen. Zusätzlich wurden noch<br />
Prioritäten integriert, so daß die kleineren den größeren Fischen ausweichen müssen.<br />
Damit die Fische nicht allzuweit aus der Sicht des Betrachters verschwinden, ist der<br />
Bewegungspielraum auf die Sichtpyramide und eine maximale z-Koodinate begrenzt.<br />
Eine andere Sache, die ebenfalls noch von dere Natur nachgebildet wurde, ist das<br />
Schwarmverhalten (im Aquarium die Guppys ). Dies wurde so gelöst, daß der Schwarm<br />
einen Anführer hat,dem alle anderen Fische versuchen zu folgen.<br />
Aquaricon
21. Anmerkung:<br />
Weitere Bilder und Videos unter:<br />
http://www.hfg-karlsruhe.de/~mpaetsch/referat (Text nicht überarbeitet!)<br />
22. Anhang<br />
Oswald Wiener<br />
Der Bio-adapter<br />
(<strong>für</strong> W. Pichler)<br />
(Prospekt 1965/66)<br />
(nicht überarbeitet!)<br />
a. philosophische ansaetze nebst vorgriffen auf die<br />
systembeschreibung.<br />
der bio-adapter bietet in seinen grundzuegen die m. e. erste<br />
diskutable skizze elner vollstaendigen loesung aller welt-probleme.<br />
er ist die chance unseres jahrhunderts: befreiung von philosophie<br />
durch technik (1). sein zweck ist es naemlich, die welt zu<br />
ersetzen, d. h. die bislang voellig ungenuegende funktion der<br />
"vorgefundenen umwelt"als sender und empfaenger lebenswichtiger<br />
nachrichten (nahrung und unterhaltung, stoff- und geistwechsel) in<br />
eigene regie zu uebernehmen - und seiner individualisierten aufgabe<br />
besser zu entsprechen, als dies die "allen"gemeinsame, nunmehr<br />
veraltete sog. natuerliche umwelt vermag. in seiner wirkung kann<br />
der bio-adapter mit der eines aeusserst hochgezuechteten, durch<br />
laufende anpassung auch den differenziertesten beduerfnissen<br />
hoechstorganisierter lebewesen gewachsenen uterus' verglichen<br />
werden ("gluecks-anzug"). er kann als die sich ins zunaechst noch<br />
"ausserleibliche"erstreckende hypertrophie der organmoduln sowie<br />
der nervoesen baukomplexe seines inhabers interpretiert werden, und<br />
ist in dieser betrachtungsweise ein konverter der vom menschen in<br />
dessen umgebung projizierten lustimpulse.(servo-narziss)<br />
es ist die auffassung des designers des bio-adapters, dass erst die<br />
einheit mensch-adapter den anforderungen einer verantwortungsbewussten<br />
anthropologlschen kritik standhalten kann -<br />
aber daneben auch dem gesundheroischen Ideal eines den kosmos<br />
regierenden homo sapiens erstmalig genuegt, und zwar durch<br />
trockenlegung des kosmos einerseits, und zum andern durch<br />
liquidation des homo sapiens. der mensch, ausserhalb seines<br />
adapters ein preisgegebener, nervoes aktivierter und miserabel<br />
ausgeruesteter (sprache, logik, denkkraft, sinnesorgane, werkzeug)<br />
schleimklumpen, geschuettelt von lebensangst und von todesfurcht<br />
versteinert, wird nach anlegen seines bio-komplements zu einer<br />
souveraenen einheit, die des kosmos und dessen bewaeltigung nicht<br />
mehr bedarf, weil sie auf eklatante weise in der hierarchie
denkbarer wertigkeiten ueber ihm rangiert.<br />
der mensch bedarf des adapters, weil er im zuge seiner geschichte<br />
(welche eben im adapter abhanden kommt) durch hervorbildung seines<br />
bewusstseins in einen gegensatz zu seiner immer verbaler<br />
apperzipierten (d. h. im verlauf der progressiven verbalisierung<br />
ueberhaupt erst "wahrgenommenen") umwelt geraet, diese geradezu<br />
erst herausfordert, vorhersagt, materialisiert, erzeugt er<br />
vereinzelt sich... sein bewusstsein, dem er sich immer<br />
verzweifelter ueberlaesst, draengt ihn unter bildung und<br />
zuhilfenahme kraenklicher begriffe individualitaet, polaritaet<br />
gegenueber einer vexierbildhaften umgebung, welcher er in<br />
ueberanstrengung seiner sinne bestandteile anzuerkennen bemueht<br />
ist, gegenueber einer erfundenen, gleichwohl erlittenen, ihn<br />
blindwuetig mit nachrichten befetzenden objektwelt, und<br />
neurotisch-anankistische organisierung derselben zu kategorien und<br />
methodisch angehauchten hierarchien auf. der mensch wurde schutzlos<br />
durch das bewusstsein seiner symbolischen singularitaet, dieser<br />
seiner Iyrischen hoffnung, und seiner ergo fiktiven gegnerschaft<br />
zum alsbald bedrohlich empfundenen all. hier setzt nun der<br />
bio-adapter an, und reduziert das all auf den status einer<br />
unterhaltsamen... fabel.<br />
der adapter legt sich - von "aussen"betrachtet - zwischen den<br />
ungenuegenden kosmos und den unbefriedigten menschen. er schliesst<br />
diesen hermetisch von der herkoemmlichen umwelt ab und greift nur<br />
in den ersten stadien der adaption auf zu diesem zweck gespeicherte<br />
eigene informationen und auf solche seines inhalts zurueck. der<br />
mensch geniesst dabei zunaechst eine aufbereitete, therapeutisch<br />
angereicherte wahrnehmung ausgewaehlter aspekte des erinnerten<br />
kosmos. in der ersten adaptions-stufe vertritt der adapter<br />
foermlich das "aussen", er simuliert wechselbeziehungen, indem er<br />
sich als partner versteht. der sich von seiner umwelt auf<br />
attraktive weise ausgeeinzelt fuehlende mensch weiss sich inmitten<br />
einer konversation, in einem spiel-aehnlichen dialog mit einer<br />
wohlwollenden instanz begriffen. die tatsaechliche aktivitaet des<br />
bio-adapters in dieser phase besteht jedoch in der simulation eines<br />
kommunikationsschildes, einer membran zwischen den verschiedenen<br />
strukturen des bewusstseins seines inhalts. er simuliert einen<br />
verkehr mit dem "aussen", indem er, staendig umfassenden<br />
lernprozessen unterworfen, im verlaufe seiner exploration des<br />
inkorporierten menschen saemtliche nachrichten desselben an das<br />
nunmehr hypothetische all analysiert (auch die produkte des<br />
metabolismus), und ausgewaehlte portionen davon durchkombiniert<br />
wieder zurueckbietet, wobei der nachdruck stets auf dem kriterium<br />
der glueckhaftigkeit zu liegen kaeme. der bio-odapter funktioniert<br />
also, um es kurz zu sagen, als ein makro-instruktionen einer nicht<br />
mehr vorhandenen aeusseren nachrichtenquelle simulierender
informationsspiegel: die impulse der bio-einheit werden analysiert,<br />
nach massgabe der zunaechst mutmasslichen lustbetonung<br />
neugruppiert, transkodifiziert, und eingespiegelt.<br />
der zu adaptierende mensch wird pausenlos nach seinen beduerfnissen<br />
abgetastet, solange bis dieselben zum zwecke erhoehten lustgewinns<br />
vom adapter selbst erzeugt werden koennen. die lernstrukturen des<br />
adapters fuehren naemlich die komplette einheit behutsam aus dem<br />
ausgangsstadium, welches unmittelbar nach inbetriebnahme gegeben<br />
ist, in aufeinanderfolgende phasen immer umfassenderer sinnlicher<br />
und intellektueller genussfaehigkeit, die schliesslich in einer<br />
erweiterung des bewusstseins gipfeln, wie sie durch eine<br />
hinsichtlich ihres grades variable koppelung der anfaenglich noch<br />
als objektwelt empfundenen strukturen des adapters mit dem<br />
nervensystem seines inhalts erreicht werden kann - eine koppelung,<br />
die als um so effektiver gelten wird, je weniger<br />
transkodifikationen der informationsabtausch zu durchlaufen hat.<br />
dazu ist es noetig, die einheit mit grosszuegigst angelegten<br />
feedback-kreisen auszustatten, um ihr programm-modifikationen jeder<br />
erforderlichen groessenordnung zu ermoeglichen, auch muessen die<br />
grund-instruktionen (monitoren) selbstverstaendlich den groessten<br />
teil des zeitgenoessischen wissens umfassen; weiters muss der<br />
adapter jedenfalls im stande sein, alle moeglichen operationen am<br />
zunaechst ja noch menschlichen leib durchzufuehren (amputationen;<br />
organverpflanzungen; neurochirurgie), sowie die regeneration<br />
eigener etwa gestoerter funktionen bzwse. den entwurf und den<br />
einbau von ersatz-moduln und ueberhaupt eigener neu-entwicklungen<br />
bewerkstelligen koennen. er modifiziert also nicht nur seine<br />
programme, die ja als unordnungs-abfolgen von "materie-zustaenden"<br />
interpretiert werden muessen, sondern im rahmen der<br />
selbst-adaptierung auch seine stofflichen moduln, die als<br />
programmtraeger sequentielle steuerung erst ermoeglichen. sohin<br />
sind diese in keiner weise mehr passive medien des ablaufs, sondern<br />
eben bestimmende zustaende; die unterscheidung von hardware und<br />
software ist ja bloss eine didaktische, und an sich ohne sachliche<br />
berechtigung: der einbau eines gelenks zwischen schulter und<br />
ellenbogen wird eine neue aera des rueckenwaschens einleiten.<br />
b. rudimentaere systembeschreibung, ferner mutmassungen ueber die<br />
entwicklung des systems. fragmente. einzelne funktions-einheiten.<br />
der bio-adapter wird in grosserie hergestellt; abgesehen von den<br />
medizinischmechanischcn effektor-moduln werden ausschliesslich<br />
mikrominiaturisierte monolithisch integrierte schaltkreise<br />
verwendet. jeder adapter greift auf einen ausreichenden vorrat<br />
transformierbarer betriebskraft in gestalt menschlicher nahrung,<br />
eigener betriebsenergie, pharmazeutischer stoffe und ersatz-materie
als rohstoff zurueck. chemische einheiten zur regeneration von<br />
stoffwechselprodukten sind vorgesehen.<br />
nach austestung und laden der monitoren ist der adapter<br />
betriebsbereit. die ausloesung der start-routinen sollte dem sich<br />
dem bio-adapter anvertrauenden menschen selbst ueberlassen bleiben.<br />
die beschickung des adapters stellt wohl ein ethisch-rechtliches<br />
problem dar, dieses sollte aber nicht unloesbar sein. sie kann auf<br />
freiwilliger basis erfolgen, es koennte aber auch sein, dass die<br />
staatlichen machtmittel zum besten der buerger in anwendung<br />
gebracht werden muessen. man wird sich vorstellen duerfen, dass<br />
millionen von adaptern dicht aneinander gepackt in unter- oder<br />
oberirdischen wabensilos untergebracht werden koennen<br />
(selbstverstaendlich bedeutet das anlaufen der internationalen<br />
grossaktion das ende der menschheit - sicherlich jedoch nicht das<br />
ende des bewusstseins als spitzenerzeugnis der evolution, ganz im<br />
gegenteil!). einmal angelegt, kann der bio-adapter nicht mehr<br />
verlassen werden - allein schon deshalb, weil der einmal in<br />
adaptation befindliche mensch ausserhalb des adapters nicht mehr<br />
lebensfaehig ist: der inhalt des adapters ist fuer die gesellschaft<br />
verloren, weil er die wirklichkeit verlassen hat. da, aus<br />
naheliegenden gruenden, keine information aus dem adapter in die<br />
gesellschaft dringen darf (ueberdies waere sie ja in einem<br />
fortgeschritteneren stadium der einheit voellig unintellegibel),<br />
kann die entwicklung der einheit nur an hand der grundlegenden<br />
dispositionen fuer das anfangsstadium vermutet werden. die<br />
fundamentale instruktion des bio-adapters ist auf erhaltung des<br />
bewusstseins gerichtet; es koennte jedoch der fall eintreten, dass<br />
auf grund seelischer gegebenheiten (aber auch - selten! - auf grund<br />
unguenstiger und ausserdem irreversibler evolution) das<br />
"experiment"terminiert werden muss; in diesem fall besorgt der<br />
adapter den gluecklichen tod seines patienten, und wird, nach<br />
selbsttaetiger stillegung seiner funktionen, zum leblosen sarg<br />
seines toten inhalts (euthanasie).<br />
die wertestellung des bio-adapters laesst diesen mittels seiner<br />
sensoren erkennen, ob sich ein mensch in seinem inneren zur reise<br />
bereitmacht. sofort nach betaetigung des starthebels (welcher<br />
dadurch funktionslos wird - er wird alsbald abgebaut und der<br />
materie-reserve zugefuehrt) beginnt der adapter zu arbeiten. er<br />
schliesst sich und stellt atemluft zur verfuegung. die<br />
klima-einheit sorgt fuer ideale "aeussere"bedingungen.<br />
gesteuert durch eine anzahl von sensoren, welche den konturen des<br />
menschlichcn koerpers folgend plaziert sind, schmiegt er sich eng<br />
von allen seiten an diesen, ohne ihn allerdings ausser an den unter<br />
einbeziehung der schwerkraft vorauszusetzenden stellen zu<br />
beruehren. mit diesen sensoren nimmt er jede bewegung des
menschlichen koerpers wahr, und eilt ihr an der entsprechenden<br />
stelle voraus, indem er sich einbuchtet. so bleibt er der sich<br />
staendig verschiebenden struktur angepasst, ohne seinen inhalt im<br />
geringsten durch klausur empfindungen zu belaestigen; gilt die<br />
intention einer transport-bewegung (geh-, kriech-, laufversuche),<br />
so gibt der adapter an der gemaessen stelle in gewohnter weise<br />
nach. von der das gesicht umgebenden partie des bio-adapters (der<br />
raum unmittelbar um die augen) werden zu gestalten geformte<br />
lichtkombinationen generiert; die lage-sensoren steuern im<br />
zusammenspiel mit den registratoren der fortbewegungsversuche<br />
bildausschnitte und bildlage sowie die parallaxenverschiebung des<br />
hintergrunds (servo-zoom, perspektiv-automatik), ferner tonstaerken<br />
und schallrichtungen inklusive eventuell erforderlich werdender<br />
doppler-effekte.<br />
freilich werfen die komplexe des tast- und raumsinns gewisse<br />
probleme auf. sie koennen jedoch mit hilfe verschiedener haptischer<br />
geber und kombinationen derselben gemeistert werden, umso leichter,<br />
als ja die variationsbreite der tastempfindungen beim menschen<br />
beschraenkt ist, und die empfindlichsten stellen relativ genau<br />
umrissen, nicht allzu ausgedehnt und im zusammenwirken mit den<br />
uebrigen sinnesorganen funktionell spezialisiert sind. der adapter<br />
wird nur jene oberflaechensegmente "beruehrter gegenstaende"<br />
simulieren, welche tatsaechlich mit der haut etc. des bio-moduls,<br />
von diesem anvisiert, in beruehrung kommen sollen, und nicht etwa<br />
gar die komplette ueber die video-einheit servierte gestalt. der<br />
vom bio-modul erwartete tast-eindruck kann seitens des bio-adapters<br />
durch registrierung der auf gezeigte bilder hin gerichteten<br />
bewegungen ohne weiteres abgefolgert und bereitgestellt werden.<br />
streicht etwa die hand des bio-moduls, nach erreichen eines<br />
gegenstandes, ueber diesen hin, so simuliert der adapter immer nur<br />
die wenigen quadratzentimeter der tatsaechlich beruehrten flaeche,<br />
indem er in der bewegungsrichtung mit geringem vorsprung neue<br />
flaeche vorbereitet, um sie hinter der beruehrung sofort wieder<br />
abzubauen.<br />
nach aufnahme seiner taetigkeit stellt sich der bio-adapter<br />
optisch und akustisch nach den erkenntnissen der<br />
public-relations-technik als angenehmer gespraechspartner vor, und<br />
zwar durch (aufeinanderfolgende oder simultane) darstellungen<br />
verschiedener personen. mit der ersten willkuerlichen oder auch<br />
unwillkuerlichen reaktion des inserierten menschen darf der kontakt<br />
zwischen diesem und dem adapter als hergestellt betrachtet werden.<br />
zu beginn findet die kommunikation natuerlich in menschlicher<br />
sprache statt, d. h. der mensch aeussert verschiedentlich wuensche<br />
und beschwerden, welche der adapter auf das gewissenhafteste zur
ichtschnur seines weiteren verhaltens macht. jede aeusserung ist<br />
dabei von wichtigkeit, weil sie als hinweis zur austestung der<br />
wahrnehmung, des weltbilds und der normen des bio-moduls verwendet<br />
werden kann. diese austestung muss so schnell und zwanglos wie<br />
moeglich vorangetrieben werden, weil die gesamte erste<br />
adaptionsphase hinsichtlich des energie-haushalts der einheit recht<br />
unoekonomisch ist und deswegen moeglichst schnell beendet werden<br />
muss. der bio-adapter wird daher alle<br />
medizinisch-energetisch-psychologischen tests wo moeglich<br />
gleichzeitig abfuehren, und daneben den menschen in ein dessen<br />
intellektuelles niveau berechnendes gespraech verwickeln, um<br />
weitere aufschluesse ueber das wissen und die persoenlichkeit des<br />
patienten zu erhalten. es liegt im interesse einer schnellen<br />
abwicklung dieser einleitenden routinen, dass sich der bio-adapter<br />
dabei als leicht ueberlegener partner (etwa in der audio-visuellen<br />
darstellung eines professoral wirkenden vaeterlichen freundes) und<br />
mitmensch gibt. aus gruenden der kapazitaetsersparnis wird auf<br />
vermittlung "objektiven wissens"durch den bioadapter verzichtet; er<br />
stellt als gespraechsstoff zur verfuegung, was der patient an<br />
kenntnissen ueber das jeweilige sachgebiet angehaeuft hat (2)<br />
trotz aller anstrengungen und der ueberlegenheit des bio-adapters<br />
wird der mensch gelegentlich an pannen und nicht zu vermeidenden<br />
fehlleistungen merken, dass er sich nach wie vor im adapter<br />
befindet. ausmittelung und konstruktion gewisser wichtiger<br />
umgebungen (z. b. elternhaus, schauplaetze frueher kindheit,<br />
arbeitsplatz, heim, vertraute vergnuegungsstaetten etc., mit den<br />
fuer sie typischen gestaltkonfigurationen, tonstrukturen u. s. f.)<br />
kann nur in einer reihe von verbesserungen ueber versuche und<br />
irrtuemer hinweg gelingen . ueber krasse versager beschwichtigt der<br />
adapter durch einsatz psychotechnischer kunstgriffe (u. a.<br />
diskussionen, ablenkung der aufmerksamkeit, in besonders<br />
gravierenden faellen auch einschlaeferung o. ae.) oder durch<br />
belehrung ueber die verbal-hypothetische natur der wirklichkeit.<br />
immerhin wird die kontinuierlich vervollstaendigte integration bald<br />
einen grad erreicht haben, der im objekt des adapters zunaechst<br />
einmal unsicherheit ueber seine kondition, spaeter jedoch die<br />
ueberzeugung einer restlosen wiedereinsetzung in den status quo<br />
ante zur folge haben muss. besonders im fall hartnaeckiger oder<br />
ausnehmend aengstlicher menschen wird man sich vorstellen duerfen,<br />
dass der adapter nach vervollstaendigung seiner informationen<br />
seinem inhalt den totalen eindruck einer wiederauferstehung<br />
beschert - komplett mit einer eindrucksvoll umstaendlichen sequenz<br />
des aus-der-maschine-kletterns, der begruessung durch ein komitee<br />
der mit der adapter-beschickung betrauten wissenschafter (soweit<br />
sich der patient ueberhaupt an details wie gesichter,<br />
raumausstattung etc. erinnern kann, bzwse. nach massgabe dieser<br />
erinnerungen), eventuell der versicherung durch dieselben, es habe
sich um ein experiment von hoechster wichtigkeit fuer staat und<br />
vaterland gehandelt, sowie der ehrung durch hoechste funktionaere<br />
und der schliesslichen entlassung in ein hinfort muessiges<br />
reichdotiertes privatleben; eine der zahllosen anderen<br />
moeglichkeiten waere, unter benutzung ihm liebgewordener<br />
gestaltkomplexe (geschlechtspartner, bester freund, mutter,<br />
vorgesetzter, psychiater) dem patienten temporaere nun aber<br />
remittierte psychosen u. dgl. zu suggerieren - eine deswegen<br />
wichtige, weil in der uebrigen entwicklung angesichts von<br />
schwierigkeiten immer wieder exazerbationen vorgeschuetzt werden<br />
koennen.<br />
in diesem stadium befindet sich die einheit unmittelbar vor dem<br />
abschluss der ersten adaptions-stufe, welche, fuer viele jeweilige<br />
faelle vermutlich recht aehnlich verlaufend, den grund fuer den nun<br />
folgenden eigentlichen adaptionsprozess bereitet hat. der<br />
inserierte mensch - noch ist er nicht mehr als das lebt in<br />
gewohnter umgebung, jedoch angenehmer als er je zuvor ertraeumt<br />
haette. seine umwelt "liest ihm die wuensche von den augen ab": was<br />
er auch unternimmt, gedeiht. seine lieblingspartner,<br />
lieblingsspeisen, lieblingsgifte, lieblingsplaetze,<br />
lieblingsbeschaeftigungen werden ihm laufend offeriert, und stets<br />
cum grano salis, um ihn in spannung zu haltcn. er weiss sich<br />
schoener, tuechtiger, klueger, begehrenswerter, begehrter,<br />
gesuender. er erfuellt sich alte wuensche, leistet sich status und<br />
luxus, sieht die welt, fuehrt.<br />
der bio-adapter erreicht all dies in erster linie durch seine<br />
moeglichkeiten, dem patienten ueber vorgefuehrte gespraechspartner<br />
belehrungen zu erteilen, und erst in zweiter linie durch markierung<br />
von sinneseindruecken. dabei geht er in nichts ueber die<br />
gewoehnlichen suggestiv-eigenschaften der kommunikation hinaus,<br />
welche ihm ohnedies erlauben, etwaigen beduerfnissen nach<br />
sinnlicher verifikation mit den groebsten mitteln zu begegnen.<br />
hinsichtlich dieser sinneseindruecke stuetzt sich der adapter<br />
vorwiegend auf den gesichtssinn seines patienten. stets sind ja,<br />
was der adaptierte sieht, anblicke, und nicht etwa "dinge". nach<br />
hinreichender neigung seines kopfes z. b. sieht er das bild seiner<br />
beine, und nicht etwa "diese selbst".<br />
die weitere abstimmung auf ein sozusagen als handgreiflich<br />
empfundenes weltbild besorgen auto-tuning-substrukturen der<br />
verschiedenen an einem "gesamteindruck"beteiligten<br />
empfindungsgeneratoren. diese stellen ein komplexes regelsystem zur<br />
feineren dosierung von reizen dar. die intermodale korrelation,<br />
unerlaesslich fuer das kompakte weltbild des menschen, wird weniger<br />
durch wiederholte gleichzeitigkeiten von reizkomplexen (denen auf
der seite des bewusstseins auf grund der biologischen prinzipien<br />
der wahrnehmungsoptimalisierung ohnehin bedeutende hindernisse<br />
entgegenstehen), sondern mehr durch reafferenzen ausgehend von<br />
verbal aufgerufenen begrifflichen strukturen hergestellt. der sich<br />
dem bewusstsein praesentierende "hohe grad der korrelation"wird<br />
durch relativ rohe konkomitanzen sinnlicher erregung auf gleichem<br />
niveau erhalten; folglich wird es bei den (zunaechst in betracht<br />
kommenden) auf ausserhalb der haut gerichteten sensorischen<br />
komplexen (eine gewisse ausnahme bildet eben der gesichtssinn)<br />
genuegen, wenn der bio-adapter relativ plumpe sinnesdaten generiert<br />
und den reafferenzen des patienten das uebrige ueberlaesst. im<br />
zweifelsfall wird eine verifikation immer besser ueber sprachliche<br />
kommunikation mit "anderen menschen"erfolgen als durch naehere<br />
untersuchung des gegebenen; und in besonders schwierigen faellen<br />
wird der bio-adapter zur entscheidung derartiger fragen einfach<br />
messinstrumente anbieten.<br />
saemtliche verhaltensweisen seines insassen betrachtet der<br />
bio-adapter als pathologisch-infantile offene handlungsabfolgen,<br />
deren strukturschemata er nach ausreichender analyse der<br />
verzweigungen in einem katalog der motlvationen sammelt: er stellt<br />
variationsbreiten und sprungbedingungen fest, memoriert erstere als<br />
huellkurvenparameter und legt letztere in speicherfelder mit<br />
wahlfreiem zugriff ab: seine eigenen reaktionen assembliert er aus<br />
den deduzierten elementen, und stimmt sie mit den monitoren ab auf<br />
das alles beherrschende prinzip der therapie.<br />
gewisse seelische zustaende des bio-moduls sind dem fortschreiten<br />
der adaption besonders foerderlich. in erster linie ist hierbei an<br />
alle formen der ekstase zu denken, darunter wieder besonders an<br />
solche, die zu den "natuerlichen zustaenden"des organismus<br />
gehoeren.<br />
die sex-servomoduln sind daher besonders grosszuegig ausgelegt<br />
und teilautonom. sle koennen im bedarfsfall sehr bedeutende<br />
sektoren des bio-adapters uebernehmen, und verleihen dann der<br />
gesamten umwelt des bio-moduls zuege die sich in hervorragender<br />
weise zur verstaerkung seiner protopathischen erlebnisfaehigkeit<br />
eignen. befindet sich der bio-modul im zustande sexueller erregung,<br />
so stoesst er alsbald auf eine umwelt, die dieser erregung im<br />
hoechsten grade foerderlich ist. alle ihm begegnenden menschen<br />
blicken ihn luestern an. er hoert aufreizende worte von bruechigen<br />
stimmen gefluestert, er betritt sinnliche musik. pflanzen und<br />
leblose gegenstaende, landschaften und abstrakta wirken auf ihn
erotisch, erweisen eine auf ihn bezogene geschlechtlichkeit, je<br />
nach persoenlichkeit erlebt er keusch-herbe ehrende eroberungen<br />
oder unterfaengt sich bestialischer entladungen in gewalt und<br />
willkuer. der bio-adapter sorgt fuer die abwechslungsreichste,<br />
geschickteste regie auch in den faellen unsterblicher liebe, und<br />
fuehrt ueber die erfahrungen seines inhalts hinaus in eine<br />
heidnische geilheit. der patient waelzt sich in phallen, bruesten,<br />
vaginen, aufgestachelt durch yohimbin, testoviron, moenchspfeffer,<br />
seerosenabsud, kampfer, lupulin, natriumbromid, kantharidln,<br />
colorines vom zompantlibaum... preludin, amphetamine steigern seine<br />
vorlust... nupercainalpraeparate verzoegern, amyl-nitrit<br />
verlaengert, chloraethyl, stickoxydul verstaerkt seine orgasmen...<br />
stromstoesse in seine schleimhaeute machen seine lueste zum delir!<br />
die welt besteht aus drauci und pathici. in der raserei kuendigen<br />
phantastische irrumationen veraenderungen der wirklichkeit an, er<br />
kopuliert mit bergen von geld, mit schraenken, viren, brillen,<br />
firmen, efeu, buesten, er ejakuliert beim anblick des achats!<br />
auch die ekstasen der vernichtung werden vom adapter provoziert<br />
und uebersteigert, gleich ob sie sich gegen die welt oder gegen das<br />
subjekt richten. mit leichtigkeit oder nach schweren kaempfen, ja<br />
sogar - je nach persoenlichkeit unter grossen persoenlichen opfern<br />
bis beinahe zur selbstvernichtung annulliert der bio-modul, wogegen<br />
sich sein trieb richtet, als heroischer outlaw oder wuestling, im<br />
zusammenwirken mit oder als beauftragter der oeffentlichkeit, oder<br />
als hemmungsloser staatsfeind, niedermaehend, zerhackend,<br />
zerfleischend, in tobenden paroxysmen zerbeissend, zermalmend,<br />
zerstampfend, zer..., zer... oder nach reiflicher und schwerer<br />
erwaegung allen fuers und widers erden, kosmen... annihilierend was<br />
die vernunft bezeichnet, usw. usf.<br />
c. zweite adaptions-stufe.<br />
der bio-adapter kontrolliert nun die leiblichen und seelischen<br />
zustaende seines inhalts bis ins letzte, d. h. er hat den platz des<br />
staates eingenommen. er kann nunmehr zur erweiterung (verbesserung)<br />
des bewusstseins des bio-moduls schreiten.<br />
der erste wichtige hier interessierende vorgang ist die<br />
heraus-praeparierung des nervensystems verbunden mit der<br />
herstellung eines direkteren informationsflusses zwischen adapter<br />
und bio-modul. der abbau beginnt bei den gliedmassen, und schreitet<br />
zu den zentraleren koerperteilen langsam fort. der bio-adapter wird<br />
mit einem minimum an anaesthesierungen auskommen, da er vor den<br />
operationen alle afferenten bahnen an eigene reizwandler<br />
anschliessen kann: waehrend z. b. gerade ein bein des bio-moduls<br />
amputiert wird, geniesst derselbe vielleicht einen erfrischenden
fussmarsch durch reizvolle ungarische landschaften. der adapter<br />
simuliert das komplexe wechselspiel der efferenten nerven mit<br />
kinaesthetischen und propriozeptiven fasern und ein blick auf seine<br />
beine belehrt den bio-modul hoechstens ueber die tatsache, dass<br />
seine bewegungsfreude dem muskelspiel seiner extremitaeten immer<br />
besser bekomme. der abbau wird durch die ueberlegene<br />
verarbeitungsgeschwindigkeit der adapter-elektronik sehr<br />
beguenstigt, da der adapter etwaige fehlgriffe durch zentraler<br />
plazierte kontrollsensoren rechtzeitig erkennen und rueckgaengig<br />
machen kann, bevor sie ins bewusstsein des bio-moduls gelangen.<br />
Die reduktion des bio-moduls auf seinen eigentlich empfindlichen<br />
teil ist erst abgeschlossen, wenn auch die zentralen sinnesorgane<br />
des ehem. kopfes als reizwandler ausgefallen und durch direktere<br />
anschluesse an die informationsgeber des adapters ersetzt sind.<br />
In diesem stadium fallen viele unnoetige stoff- und<br />
informationstransformationen hinweg (z. b. nahrungsaufbereitung,<br />
bewegungs-assimilationen, sinnesdaten-aufbereitung) und sind mit<br />
grossem gewinn durch >fuehlungnahme< ersetzt (naehrloesung, direkte<br />
impulse zwischen mot. endplatten oder peripheren synapsen und<br />
mikroelektroden). der energie-haushalt der einheit ist entlastet,<br />
d. h. es werden nur mehr etwa (allerdings spaeterhin wieder leicht<br />
ansteigend) 100 watt verbraucht, exklusive der etwa 25 watt<br />
stromverbrauch des gehirns selbst. zahlreiche mechanische Aggregate<br />
werden unnoetig und vom adapter abmontlert und umgebaut, oder der<br />
reserve (wo sich auch die zellgewebe des blo-korpers befindcen)<br />
zugefuehrt.<br />
der abbau des nervensystems selbst, der sich nun anschliesst wird<br />
vom adapter sehr behutsam durchgefuehrt und hat bald ein ende; das<br />
ziel der einheit ist a) groessere komplexheit der funktionellen<br />
strukturen, und nicht reduktion auf ein minlmal modell. man kann<br />
daher eher von einem aufbau komplexer und flexlblerer<br />
hlerarchie-kreise sprechen. der allmaehliche ersatz zellulaerer<br />
schaltkrelse des peripheren systems durch solid-logic-bausteine<br />
macht die einheit kompakter, aber nicht notwendig integrierter;<br />
dichtere integration wird vielmehr erst durch vermehrung der<br />
schaltkreise selbst und durch bessere streuung der informatlon<br />
erreicht. insonderheit ist des trachten des adapters darauf<br />
gerichtet, den begriff der sinnlichen qualitaet zu erhalten, ja<br />
durch experimente den modalen bereich durch einbau weiterer<br />
sensorischer moduln zu erweitern. dass dabei das hauptaugenmerk auf<br />
den zentralen gehirnstrukturen ruht, muss nicht weiter ausgefuehrt<br />
werden: in einem stadium, das durch generell gleichwertlge<br />
stromimpulse in die afferenten bahnen gekennzeichnet ist, beruhen
schliesslich alle modulen unterschiedenheiten auf verschiedenheiten<br />
der schalt-bloecke von mesenzephalon aufwaerts.<br />
man koennte nun angesichts dieser prozesse von einem allmaehlichen<br />
aufsaugen der zellorganisation durch die elektronischcn<br />
schaltkomplexe des adapters sprechen, und zweifellos trifft diese<br />
ausdrucksweise, soweit die reiz-reaktions-beziehungen im<br />
materiellen gemeint sind, ganz gut zu. anders liegen die dinge vom<br />
standpunkt des bio-moduls gesehen. er besteht ja ausschliesslich<br />
aus bewusstsein, und dieses erfaehrt in schueben grandiose<br />
ausweitungen. seine traeger wechseln wohl, aber unmerklich langsam;<br />
dieser wechsel ist - gelegentlich - von einer kurzen<br />
bewusstseinstruebung begleitet, welche aber alsbald einer vorher<br />
nicht gegebenen helligkeit weicht. war also schon die erste<br />
adaptions-stufe durch dle nichts weniger als antagonistische, ja<br />
geradezu kooperative umwelt eine massnahme zur erweiterung der<br />
moeglichkeiten des bio-moduls, so wird nun das bewusstsein zum<br />
selbst der umwelt, die sich nunmehr etwa wie dle eigene hand<br />
verwenden laesst. waren vorhin noch leistungssteigerungen durch<br />
bedingungen provoziert, wie sie etwa in der hypoxaemie durch<br />
hyperventilation, im experiment durch anionen-anreicherung der<br />
atemluft, oder durch magnetfelder "von aussen"hergestellt werden<br />
koennen, so werden sie nun durch groessere anzahlen der<br />
datenverarbeitenden elemente, durch groessere komplexheit der<br />
verbindungen und durch groessere verarbeitungsgeschwindigkeit<br />
bewirkt.<br />
die kontinuitaet des ich-bewusstseins, soweit sie ueberhaupt<br />
postuliert werden kann, ist nicht durch die physische konstanz der<br />
ganglien-zellen, sondern durch die konstanz der information<br />
gegeben. diesc persevcration wlrd aber durch die allmaehliche<br />
uebernahme der information seitens elektronischer strukturen nicht<br />
unterbrochen, weil sie eine schrittweise uebernahme sozusagen zelle<br />
fuer zelle mit sofortigem wiederanschluss an die zentrale<br />
verarbeitung ist. die bedeutenden erweiterungen des<br />
daten-verarbeitendcn materials fuehren zu einer sprengung der den<br />
menschen so einschnuerenden enge des bewusstseins; die<br />
verarbeitungsgeschwindigkeit der autonomen subkortikalen kerne<br />
steigert sich enorm - damit wird aber schliesslich auch die<br />
gleichschaltung des ehem. kortex erforderlich, und endlich werden<br />
saemtliche verarbeitungskreise in das bewusstsein einbezogen, mit<br />
dessen traeger, und das >nicht bewusste< bleibt auf die<br />
elementaren, atomaren transmissionsprozesse beschraenkt.<br />
das bewusstsein, dieses kuckucksei der natur, verdraengt also<br />
schliesslich die natur selbst. waren frueher die gestalten der<br />
sinnlichcn wahrnehmung blosse produkte bedingter reflexe einer<br />
ueberlegenen versuchsanordnung, gespenster der menschlichen
zufallssinne (stammesgeschichtlich stammt beispielsweise das gehoer<br />
aus der kieferkonstruktion!), spitzenerzeugnisse des sozialen<br />
prozesses, ausgeburten der sprache, so ruht nun das bewusstsein,<br />
unsterblich, in sich selber und schafft sich voruebergehende<br />
gegenstaende aus seinen eigenen tiefen.<br />
weiters wird der mit den bewusstseinstraegern verschmelzende adapter<br />
ausserhalb des thalamus neue lust-zentren schaffen, die der<br />
experimentierenden wie der hingebenden selbst-stimulation neue wege<br />
weisen. die zahlreichen der homoeostase dienenden subkortikalen<br />
kerne (atemzentrum u. dgl.) werden umfunktioniert und in<br />
bewusstseins-prozesse eingegliedert. aktivierung der<br />
gedaechtnis-strukturen.<br />
d. (entfaellt)<br />
e. die entwicklung des bio-adapters ist freilich voellig von der<br />
geisteskraft, vom mut und von der selbstaendigkeit des subjekts<br />
abhaengig. wo das ungenuegen nicht stark genug, wo die das<br />
bewusstsein ausmachenden sozialen strukturen ueberstark sind, da<br />
kann auch der adapter nur eine >normale< welt erzeugen - auch in<br />
der zweiten phase. moeglicherweise sind wir alle<br />
1) beispiel: russisch-lehrgang. der adapter exzerpiert zunaechst<br />
die vorstellungen seines inhalts von tatsachen und stimmungswerten<br />
der russischen sprache. sodann erweitert er das material durch<br />
analogie und induktion, verfremdet es durch aleatorische<br />
abweichungen von den so erhaltenen normen, dosiert den lehrstoff<br />
und bietet ihn an. der inhalt des adapters lernt nun "russisch" und<br />
erfrischt sich am raschen fortschritt. er lernt viele russen<br />
kennen, reist vielleicht gar nach einem seine erwartungen ganz und<br />
gar nicht enttaeuschenden kiew, oder erzieht sich, "daheim<br />
bleibend" seinerseits partner zur pflege der russischen<br />
konversation.<br />
2) von hier aus ist das moment gewisser sinnestaeuschungen in der<br />
"wirklichen welt" zu interpretieren: ein zweiter blick belehrt mich<br />
ueber die taeuschung: aber habe wirklich ich mich getaeuscht,<br />
oder hat die welt ihren irrtum blitzschnell repariert?<br />
3) ein einfach herzustellendes arrangement zum selbstbasteln findet<br />
man bei o. prokop, forensische medizin, berlin 1966.
23. Quellen<br />
Holger Krapp,Künstliche Paradiese, virtuelle Realitäten, München 1997<br />
Aukstakalmis / Blatner,Cyberspace, Köln 1994<br />
Nils Philippsen, Virtuelle Realität, Jahr unbekannt<br />
http://www.it.fht-esslingen.de/~schmidt/vorlesungen/vr/seminar/ws9899/virtuellerealitaet.html<br />
McGraw-Hill Companies Inc, <strong>Virtual</strong> <strong>Reality</strong>/How a Computer-Generated World Could<br />
Change the Real World, 8.1997<br />
http://www.businessweek.com/1989-94/pre88/b328653.htm<br />
Artnetweb, outside, 6.1997<br />
http://artnetweb.com/iola/journal/062397b.html<br />
Alan Daniels, A Short Biography of Ivan Sutherland, 10.1997<br />
http://www.cc.gatech.edu/classes/cs6751_97_fall/projects/gacha/ivan.html<br />
NASA/Ames Research Center, Live Sciences, Jahr unbekannt<br />
http://ails.arc.nasa.gov/Images/LifeSci/index.html<br />
Josephine Anstey, PAAPAB, Jahr unbekannt<br />
http://www.ccr.buffalo.edu/anstey/VR/PAAPAB/index.html<br />
Ars Electronica, Ars Electronica, Jahr unbekannt<br />
http://www.aec.at/de/archives/center_projekt_ausgabe.asp?iProjectID=12291<br />
Oswald Wiener, Der Bioadapter, prospekt,1965/66<br />
http://www.scara.com/~ole/literatur/bioadapter.html<br />
Oswald Wiener, Oswald Wiener, Jahr unbekannt<br />
http://www.cultd.net/wiener/<br />
ABOWD team, Biography of a Luminary, Jahr unbekannt<br />
http://www.cc.gatech.edu/classes/cs6751_97_fall/projects/abowd_team/ivan/ivan.html<br />
Dave Pape, CAVE applications in VRML 2.0, 1997<br />
http://www.evl.uic.edu/pape/vrml/CAVE/<br />
Franz Fischnaller, Citycluster, Ars Electronica Festival 2003<br />
http://www.fabricat.com/CITYCL_WEB2003/citycluster_AEC.htm<br />
http://www.fabricat.com/CITYCLUSTER/CC_publication/CC_media_images.pdf
Jones / Bartlett, Computer science illuminated, Kapitel 14, Jahr unbekannt<br />
http://csilluminated.jbpub.com/biographical_chapter.cfm?chapter=14<br />
Dave Pape, Crayoland, 5.2002<br />
http://www.evl.uic.edu/pape/projects/crayoland/<br />
http://www.evl.uic.edu/pape/projects/crayoland/crayoland.mpg<br />
The Cyberpunk Projekt, Information Database, 2002<br />
http://project.cyberpunk.ru/idb/index.html<br />
Herberger Collage of Fine Arts, Department of Dance, Jahr unbekannt<br />
http://dance.asu.edu/sdat04/leaders.html<br />
Diana Gromala, Gromala, Jahr unbekannt<br />
http://www.lcc.gatech.edu/~gromala/art.htm<br />
e-art magazine, IV Interview(B), Jahr unbekannt<br />
http://www.fabricat.com/e_ART/e-essays-4.html<br />
John Brockman, the edge, 2001<br />
http://www.edge.org/documents/day/day_print.html#lanier<br />
evl, vr art projects, Jahr unbekannt<br />
http://www.evl.uic.edu/art/art_results.php3?cat=19<br />
evl / Marientina Gotsis, Inside_out, 2003<br />
http://www.evl.uic.edu/art/art_project.php3?indi=247<br />
http://www.evl.uic.edu/gotsis/mfa_videos.html<br />
John Minkowsky, First Annual <strong>Virtual</strong> <strong>Reality</strong> Conference, 3.1991<br />
http://www2.rpa.net/~vsw/afterimage/minkowsk.htm<br />
System Integration, motion capture, Jahr unbekannt<br />
http://images.google.de/imgres?imgurl=www.jcsi.ru/tv/products/xist/index/images/fullbodytracker1icon.gif&imgrefurl=http://www.jcsi.ru/tv/products/xist/index/&h=100&w=100&sz=5&tbnid=nWrO7NnTIOwJ:&tbnh=77&tbnw=77&start=1&prev=<br />
/images%3Fq%3Dfullbodytracker%26hl%3Dde%26lr%3D%26ie%3DUTF-8%26sa%3DN<br />
Cindy Aebischer, VR-Technik, 12.2000<br />
http://images.google.de/imgres?imgurl=www2.snm-hgkz.ch/~cindy/virtual%<br />
2520reality/dataglove.jpg&imgrefurl=http://www2.snm-hgkz.ch/~cindy/virtual% 2520reality/vrtechnik.htm&h=313&w=322&sz=19&tbnid=ZMdr5wUhYPoJ:&tbnh=110&tbnw=113&start=<br />
22&prev=/images%3Fq%3Dvpl%2Bresearch%26start%3D20%26hl%3Dde%26lr%3D%26ie%<br />
3DUTF-8%26sa%3DN<br />
vrealities, Head mounted displays, Jahr unbekannt
http://www.vrealities.com/hmd.html<br />
Christoph Bungert, HMD/headset/VR-helmet Comparison Chart, 2.2004<br />
http://www.stereo3d.com/hmd.htm<br />
Scott Owen, History of virtual Environments, 1999<br />
http://www.siggraph.org/education/materials/HyperVis/virtual.env/history.htm<br />
Reidel / Deisinger, Displays <strong>für</strong> <strong>Virtual</strong> <strong>Reality</strong>, 1995<br />
http://vr.iao.fhg.de/papers/elecdisplay.pdf<br />
Richter / Greif / Albert / Schmidt, Feedback Devices, 2004<br />
http://www.tfh-wildau.de/sbruntha/Material/VR/Feedback_Devices_ha2004.pdf<br />
Oliver Grau, Intermediale Etappen des Virtuellem im 20. Jahrhundert, Jahr unbekannt<br />
http://www2.rz.hu-berlin.de/grau/intermedial.htm<br />
Sun Microsystems, Ivan E. Sutherland-Patents and Publications, 1999<br />
http://www.sun.com/960710/feature3/ivan-publish.html<br />
Jaron Lanier, Homepage, 1999<br />
http://www.advanced.org/jaron/pre99.html<br />
KurzweilAI, Big Thinkers-Jaron Lanier, Jahr unbekannt<br />
http://www.kurzweilai.net/bios/frame.html?main=/bios/bio0025.html?<br />
Holland Cotter, Matt Mullican, Public Paradise, Jahr unbekannt<br />
http://thegalleriesatmoore.org/publications/mullicanhc.shtml<br />
Allan McCollum, Matt Mullican`s World, 1980<br />
http://home.att.net/~allanmcnyc/mattmullicansworld.html#fnB8<br />
Oliver Grau, Immersion und Interaktion, Jahr unbekannt<br />
http://www.medienkunstnetz.de/themen/medienkunst_im_ueberblick/immersion/scroll/<br />
ArtMuseum, From Wagner to <strong>Virtual</strong> <strong>Reality</strong>, Jahr unbekannt<br />
http://www.artmuseum.net/w2vr/contents.html<br />
McGreevy / Briggs / Hitchner, NASA <strong>Virtual</strong> Planetary Exploration: Walkabout, 1994<br />
http://human-factors.arc.nasa.gov/IHpublications/mcgreevy/VRPE/walkabout.html<br />
No DNA, Dataglove, Jahr unbekannt<br />
http://www.nodna.com/X-IST_DataGlove.24.0.html?&L=0<br />
Knowledge Base www, Overview, 1999<br />
http://www.hitl.washington.edu/projects/knowledge_base/artapps.html<br />
Stanford University Program, Human Computer Interaction, 2004
http://hci.stanford.edu/cs547/abstracts/03-04/040213-lanier.html<br />
Restlesseye, Intertexts, 2004<br />
http://www.restlesseye.com/motion/dervish.html#<br />
Autor unbekannt, itofisher, Jahr unbekannt<br />
http://www.itofisher.com/PEOPLE/sfisher/<br />
Christine Youngblut, A Critical History of Computer Graphics an<br />
Animation, Kapitel 17, Datum unbekannt<br />
http://accad.osu.edu/~waynec/history/lesson17.html<br />
Nicole Stenger, Homepage, 2002<br />
http://www.nicolestenger.com/bio.htm<br />
http://www.nicolestenger.com/cybertextsall.htm<br />
Siggraph, What is computer graphics?, 1996<br />
http://seattle.siggraph.org/talks/1996.05/2.html<br />
Teresa Wennberg, The Parallel Dimension, 1998<br />
http://www.nada.kth.se/~teresa/PDVR.html<br />
Georg Thieme Verlag, Interview Matt Mullican, 2002<br />
http://www.thieme.de/netter-art-collection/kuenstler/mullican/interview.html<br />
Artforum Magazine, Through the Looking Glass, 1992<br />
http://www.supervert.com/essays/technology/through_the_looking_glass.html<br />
Tom Verzaal, Tom`s VR-Site, 1998<br />
http://home-3.12move.nl/~sh290334/VRlinks/vrl_app.html<br />
Ulrieke Gabriel, Perceptual Arena, 1993<br />
http://www.t0.or.at/arena/arena_img.htm<br />
Scott Owen, <strong>Virtual</strong> Environments, 1999<br />
http://www.siggraph.org/education/materials/HyperVis/virtual.env/virtual.htm<br />
Kevin L. Dean, <strong>Virtual</strong> Explorer, 1999<br />
http://216.239.59.104/custom?q=cache:U27t95b4xYIJ:www.itofisher.com/PEOPLE/sfisher/<br />
<strong>Virtual</strong>Explorer-presence.pdf+scott+fisher+view&hl=de&ie=UTF-8<br />
Bunsen / Heimbrecht, leaving flatland, 1998<br />
http://www.khm.de/~vrmlkurs/historie/historie.html<br />
Wong / Wong, <strong>Virtual</strong> <strong>Reality</strong> in Space Exploration, Datum unbekannt<br />
http://www.doc.ic.ac.uk/~nd/surprise_96/journal/vol4/kcgw/report.html.bak<br />
VR-Organisations, Artist list, Jahr unbekannt
http://www.teachers.ash.org.au/mrlaneis/ozedweb_it_virtual_reality_url_organisations.htm<br />
http://www.ozedweb.com/infotech/virtual_reality_url_persons.htm<br />
Visualville Group, Visualville, Jahr unbekannt<br />
http://www.coe.uh.edu/visualville/vrtech.html<br />
Defence Science and Technology Agency, <strong>Virtual</strong> <strong>Reality</strong>, 2003<br />
http://openacademy.mindef.gov.sg/OpenAcademy/Central/HTML%20Folder/vr.htm<br />
Glenn Gunhouse, <strong>Virtual</strong> Worlds for Art History Teaching, Jahr unbekannt<br />
http://www.gsu.edu/~artwgg/atmos.htm<br />
Yacov Sharir, <strong>Virtual</strong> Dancing, Jahr unbekannt<br />
http://www.art.net/~dtz/sharir1.html<br />
VPL Research, Inc., Homepage, 1990<br />
http://www.streettech.com/bcp/BCPtext/StreetTech/VPL.html<br />
Jaron Lanier, VPL Software, Jahr unbekannt<br />
http://www.advanced.org/jaron/vpl.html<br />
Autor unbekannt, VR-Devices, Jahr unbekannt<br />
http://virtual01.lncc.br/~rodrigo/links/VR/devices.htm<br />
Zentraler Informatik Dienst, jk VRC, Jahr unbekannt<br />
http://www.zid.uni-linz.ac.at/HARDWARE/vorhanden/cave.html