analoge & digitale Bilder - Visuelle Kompetenz im Medienzeitalter

vk.abk.stuttgart.de

analoge & digitale Bilder - Visuelle Kompetenz im Medienzeitalter

analoge & digitale Bilder

Theoretische Staatsexamensarbeit

im Fach Kunsterziehung

an der

Staatlichen Akademie der Bildenden Künste

Stuttgart

vorgelegt bei: Prof. Dr. Hans Dieter Huber

Prof. Cordula Güdemann

von Michael Rottmann

aus Stuttgart

abgegeben am 12.03.2002


1. VORBEMERKUNG...................................................................................................................4

2. EINE ETYMOLOGISCHE UND GESCHICHTLICHE ANNÄHERUNG.........................................7

2.1 ANALOG...............................................................................................................................7

2.1.1 Zum Begriff..................................................................................................................7

2.1.2 Begriffsgeschichte „analog“.......................................................................................9

2.1.6 Zusammenfassung...................................................................................................14

2.2 DIGITAL .............................................................................................................................15

2.2.1 Zum Begriff................................................................................................................15

2.2.2 Begriffsgeschichte „digital“......................................................................................15

2.2.3 Zusammenfassung...................................................................................................18

2.3 EINE KURZE GESCHICHTE DER RECHNERTECHNIK................................................................19

2.3.1 Geschichte der analogen Rechner..........................................................................19

2.3.2 Der Übergang zum digitalen Rechner......................................................................20

2.4 DAS BINÄR- UND DEZIMALSYSTEM......................................................................................21

2.5 KONSEQUENZEN ................................................................................................................23

3. ANALOGE UND DIGITALE BILDMEDIEN..............................................................................25

3.1 GRUNDSÄTZLICHES ............................................................................................................25

3.2 ANALOGE UND DIGITALE DARSTELLUNGEN..........................................................................26

3.2.1 Einführung.................................................................................................................26

3.3 FUNKTIONSWEISE ANALOGER / DIGITALER MEDIEN AM BEISPIEL DER FOTOGRAFIE..............27

3.3.1 Analoge Fotografie....................................................................................................27

3.3.2 Digitale Fotografie....................................................................................................28

3.4 WAS UNTERSCHEIDET ANALOGE UND DIGITALE FOTOGRAFIE...............................................30

3.4.1 Kameramodelle.........................................................................................................31

3.4.2 Die Bezeichnung Digital Imaging.............................................................................32

3.4.3 Technische Differenzen der Verfahren....................................................................32

3.4.3.1 Informationsmodifikation......................................................................................32

3.4.3.2 Zeitlichkeit............................................................................................................34

3.4.4 Unmittelbare Wahrnehmung als Differenz...............................................................35

3.4.5 Medientheoretische Unterscheidung........................................................................36

3.4.6 Die veränderte Authentizität.....................................................................................37

3.4.7 Abbildungen, Mengen und andere mathematischen Begriffe..................................41

3.4.7.1 Der Mengenbegriff..............................................................................................41

3.4.7.2 Der Abbildungsbegriff.........................................................................................42

3.4.7.3 Abbildungstypen.................................................................................................42

3.4.7.4 Der Isomorphismus..............................................................................................43

3.5 DIGITALISIERUNG / ANALOGISIERUNG ................................................................................44

3.5.1 Einführung.................................................................................................................44

3.5.2 Umwandlung von Bildern...........................................................................................45

2


3.5.3 Umwandlung abstrakt betrachtet - Theorie..............................................................47

3.7 SPEZIFISCHE EIGENSCHAFTEN............................................................................................50

3.7.1 Analoge Bildmedien..................................................................................................50

3.7.1 Digitale Bildmedien...................................................................................................52

3.8 ZUSAMMENFASSUNG..........................................................................................................53

4. BILDTHEORIE........................................................................................................................55

4.1 EINFÜHRUNG......................................................................................................................55

4.2 WAS IST EIN BILD? „BILDHAFTIGKEIT“ IN DER SYMBOLTHEORIE VON GOODMAN ..................58

4.2.1 Einführung.................................................................................................................58

4.2.2 Denotation oder das Problem der Ähnlichkeit.........................................................59

4.2.3 Exemplifikation.........................................................................................................61

4.2.4 Differenz zwischen Bildern und anderen Symbolen................................................61

4.2.5 Diskret, dicht, stetig und andere Begriffe.................................................................64

4.2.5 Bildhaftigkeit nach Goodman...................................................................................69

4.2.6 „Analoge“ und „digitale“ Symbolsysteme nach Goodman......................................71

4.3 WAS IST EIN DIGITALES BILD?...........................................................................................72

4.3.2 Das digitale Bild........................................................................................................73

4.3.3 Ein struktureller Widerspruch und ein Lösungsvorschlag......................................74

4.3.4 Syntaktische Veränderung und eine seltsame Verwandtschaft...............................76

4.4 DIGITALE BILDER OHNE APPARATE?..................................................................................78

4.5 SUBSTANZ DES DIGITALEN BILDES......................................................................................79

4.5.1 Einführung.................................................................................................................79

4.5.2 Begriff des Codes.....................................................................................................80

4.5.3 Interpretation und Prozess.......................................................................................82

5. VERÄNDERTE PRODUKTIONSBEDINGUNGEN.....................................................................85

5.1 GESTALTUNGSMÖGLICHKEITEN...........................................................................................85

5.2 GESTALTUNG ALS ÄSTHETISCHES EXPERIMENT...................................................................89

5.3 DAS PROBLEM DER VERLORENEN SPUREN..........................................................................90

5.4 DIE VERÄNDERTE ZEITLICHKEIT IM BILD .............................................................................91

5.5 NEUE WERKZEUGE FÜR DIE GESTALTUNG...........................................................................91

5.6 VOM STATISCHEN ZUM BEWEGTEN BILD..............................................................................93

5.6.1 Animation und Morphing...........................................................................................93

5.6.2 Generative Bilder......................................................................................................95

5.6.3 Interaktive Bilder.......................................................................................................96

5.7 ORIGINAL UND KOPIE.........................................................................................................98

5.8. STÖRUNGEN .....................................................................................................................98

6. ABSCHLIESSENDE ZUSAMMENFASSUNG UND AUSBLICK............................................101

7. LITERATURLISTE...............................................................................................................109

3


1. Vorbemerkung

Wenn man als bildender Künstler arbeitet, benutzt man Medien, mit denen man kommuniziert.

Es gibt mittlerweile digitale Medien, wie die Digitalfotografie, die als so genannte

Weiterentwicklungen der analogen Medien verfügbar sind. Die digitalen Gestaltungs- und

Reproduktionstechniken gewinnen zunehmend an Bedeutung und auch die freien Künste

lassen sich immer stärker auf die neuen Medien mit ihren eigenen Gestaltungsmöglichkeiten

und ihrer eigenen Ästhetik ein. Aber es scheint immer noch relativ unklar, was eigentlich die

spezifischen Eigenschaften analoger beziehungsweise digitaler Medien sind, nach welchen

Kriterien die verschiedenen Medien klassifiziert werden können.

Digitale Medien werden in der Praxis eigentlich immer mit technischen Apparaten erzeugt. Am

Beispiel der Analog- und Digitalfotografie soll exemplarisch die Funktionsweise der beiden

Verfahren gezeigt werden. Es stellt sich dann natürlich die grundsätzliche Frage, wie

überhaupt Apparate funktionieren, die digitale Bilder erzeugen, wie also die Digitalisierung

vonstatten geht. Man könnte sich Gedanken machen, ob es überhaupt grundsätzlich eines

Apparates bedarf um digitale Bilder zu erzeugen. Denn in den Apparaten finden Abläufe statt,

die von Menschen erdacht und konstruiert wurden und somit den Apparat in seiner

Funktionsweise erst ausmachen. Diese Abläufe könnten vielleicht auch manuell ausgeführt

werden. Es wäre also denkbar, dass man digitale Bilder auch ohne den Einsatz von

technischen Apparaten, sozusagen einfach mit der Hand herstellen könnte.

Dies führt zu einem Verständnis der grundsätzlichen Funktionsweise von analogen und

digitalen Medien, wozu auch das abstrakte Verständnis der Vorgänge bei Digitalisierungsund

Analogisierungsprozessen gehört. In Gegenüberstellung der beiden Verfahren kann man

die charakteristischen Eigenschaften der beiden Mediengattungen herausarbeiten und damit

implizit gleichzeitig die jeweiligen Nicht-Eigenschaften. Ein Vergleich dieser spezifischen

Eigenschaften wird zeigen, ob es sich tatsächlich um disjunkte 1 Mengen von Eigenschaften

handelt, so dass wir also von unterschiedlichen Bezeichnungen ausgehen können. Dann

wäre die gebräuchliche Unterscheidung der Begriffe „analog“ und „digital“ sinnvoll. Noch

einmal anders gesagt: Wenn man feststellen würde, dass es Mischformen von Medien gibt,

die sowohl als analog, wie auch als digital zu bezeichnen sind, dann müsste man sich

Gedanken über den Sinn der Bedeutung der Begriffe machen. Die gemeinsamen

Eigenschaften von analog und digital müssten herausgenommen werden und die

verbleibenden jeweiligen spezifischen in neuen Begriffen formuliert werden.

Im Rahmen der Untersuchung der Eigenschaften, wird es von Interesse sein, wie sich die

spezifischen Eigenschaften auf die äußere Erscheinungsform auswirken. Wie wirken die

verschieden hergestellten Bilder auf uns? Sind rein visuelle Unterschiede erkennbar?

Es stellt sich weiterhin die Frage, was analog und digital im Kontext künstlerischer Arbeit

bedeutet. Wie haben sich die künstlerischen Gestaltungsmöglichkeiten erweitert oder haben

1 Zum Begriff „disjunkt“ vgl. Kapitel 3.4.7.1

4


sie sich zu einem Besseren verändert? Denn man kann davon ausgehen, dass analoge wie

auch digitale Gestaltungstechniken ihre spezifische Besonderheiten haben. Dass sich diese

verändert haben, zeigen die neuen Sehgewohnheiten in den Medien. Auch die Frage der

Echtheit der Bilder steht sofort im Raum. Denn in den modernen Printmedien werden die Bilder

auf jeden Fall digitalisiert, egal welchen Ursprungs sie sind. 2 Grund genug, um sich mit den

Medien und ihren gestalterischen Möglichkeiten zu beschäftigen.

Wie bereits erwähnt sollen vor allem die Medien, die man als bildender Künstler verwendet, im

Vordergrund stehen, eben die Bildmedien. In diesem Zusammenhang soll also auch eine

Beschreibung verschiedener Medien und ihrer neuen Gestaltungsmöglichkeiten folgen. Was

passiert, wenn man die Medien ineinander überführt, also Medienbrüche vollzieht? Welche

Eigenschaften gehen verloren, welche verändern sich beim Analogisieren oder Digitalisieren

von Medien?

Bedingt durch die längere Geschichte der so genannten analogen Medien wurden über diese

viel mehr Abhandlungen verfasst. Deshalb wird es sinnvoll sein, im Folgenden vertieft die

digitalen Medien beziehungsweise die digitalen Bilder „ins Auge zu fassen“. Auch die neuen

Gestaltungsmöglichkeiten werden untersucht. Wenn man Grafikprogramme anwendet, um

digitale Bilder zu bearbeiten, hat man eine bestimmte Auswahl an möglichen Operationen, die

man auf das digitale Bild anwenden kann. Das heißt, man bewegt sich in einem vorgegebenen

System, in dem es abgesteckte Grenzen gibt. Was ist also überhaupt möglich in der digitalen

Bildbearbeitung, was nicht. Auf den ersten Blick scheint es so, wie wenn viele der

Werkzeuge, die die Grafikprogramme zur Verfügung stellen, eine Umsetzung, eine Art

Simulation der traditionell hergebrachten Werkzeuge sind. So gibt es eigentlich in jedem

Programm einen Radierer, der die Wirkung eines tatsächlichen Radiergummis nachahmt. Es

gibt also nachahmende Werkzeuge und eine Gruppe neuer Werkzeuge. Welche Werkzeuge

kommen aber hinzu? Denn auch hier ergibt sich vielleicht ein Hinweis auf die spezifischen

Eigenschaften digitaler Medien.

Ein weiteres Feld wären die Störungen. Sie geben zusätzlich Aufschluss über die

Funktionsweise und Grenzen eines Mediums. Was sind aber Störungen bei digitalen Bildern,

wie sehen sie aus? Dies kann natürlich nur eine abstrakte Untersuchung sein.

Von großem Interesse ist die Frage, was die eigentliche Substanz des digitalen Bildes ist?

Das digitale Bild muss sich ja immer in irgendeiner Art und Weise manifestieren, wobei die

verschiedenen Manifestationen durchaus sehr voneinander abweichen können. Wie hängen

alle Manifestationen zusammen, was verbindet sie? Kann man in diesem Zusammenhang

vielleicht vom „Code“ sprechen, der hinter allen Manifestationen steht?

Dabei wird eine tiefgründige Untersuchung des Bildes unumgänglich sein. Denn wenn man

nach der eigentlichen Substanz des digitalen Bildes fragt, muss man zunächst einmal klären,

was man unter einem Bild versteht. Dabei soll es immer um Bilder gehen, die in der praktischen

2 Vgl. Peter Jenny, Bildkonzepte, Verlag Hermann Schmidt, Mainz 2000, S.205

5


künstlerischen Arbeit entstehen. Mit „Bild“ seien also hier darstellende, visuelle Bilder gemeint.

Klangbilder und Metaphern sind demnach, als Bilder in einem viel weiteren Sinn, nicht gemeint.

Die Frage, was man unter Bildhaftigkeit versteht, führt auf eine Rekapitulation der

Betrachtungen von Nelson Goodman. Hier schließt sich der Kreis, weil Goodman sich bereits

1968 Gedanken über die Begriffe „analog“ und „digital“ machte, im Zusammenhang mit dem

Versuch, eine allgemein gültige Symboltheorie zu entwerfen. Nelson Goodman beklagt in

seinem Buch „Sprachen der Kunst - Entwurf einer Symboltheorie“ bereits 1968 die

Unvereinbarkeit der beiden Begriffe und das Problem diese zu definieren: „Aber es fällt

leichter, den Unterschied zwischen analogen und digitalen Maschinen oder Systemen zu

illustrieren als ihn zu definieren, und einige geläufige Vorstellungen darüber sind irrig.“ 3

Um die Bildtheorie Goodmans zu vertiefen, wird ein mathematischer Exkurs notwendig sein,

weil er an einigen Stellen seiner Theorie diese mit mathematischen Beispielen erklärt und

illustriert. Zwischen Kunst und Mathematik hat es schon immer viele Berührungspunkte

gegeben. So haben manche strukturelle Eigenschaften der Mathematik in der Kunst eine Rolle

gespielt. Die Entwicklung der Digitaltechnik schließlich führte zu einer neuen Verbindung von

Kunst und Mathematik. Die so genannte Computergrafik arbeitet mit digital vorliegenden Bildern,

die „rechenbar“ sind. Hinter jeder Funktion in einem Grafikprogramm, wie zum Beispiel

Photoshop eines ist, steckt viel Mathematik.

In der vorliegenden Arbeit wird es also um eine grundsätzliche und umfassende Klärung der

Begriffe „analog“ und „digital“ hinsichtlich des Bildes gehen. Denn die Begriffe „analog“ und

„digital“ sind in aller Munde, aber sie werden, wie so oft in der Umgangssprache, sehr

unscharf verwendet, weil die genauen Bedeutungen unklar sind. Es scheint daher sinnvoll,

als Ausgangspunkt der wissenschaftlichen Arbeit eine begriffliche Annäherung durch eine

etymologische Betrachtung der beiden Klassifikationsbegriffe zu erreichen. Es muss überprüft

werden, ob die beiden Begriffe im Rahmen einer gründlichen Untersuchung überhaupt

aufrecht erhalten werden können, und wenn ja, ob sie hinreichend gut sind, um den

Sachverhalt angemessen zu beschreiben. Vielleicht wird es notwendig werden, neue

Begriffe einzuführen.

Diese Arbeit soll einen breit gefächerten Überblick über das Themenfeld geben. Ich halte es

für notwendig, sich mit den Bedingungen der digitalen Medien auseinandersetzen, denn sie

werden heute schon sehr stark in der gestalterischen Produktion der angewandten Künste

eingesetzt und werden dies in Zukunft mit Sicherheit noch mehr werden. Die freien Künstler

beschäftigen sich ebenfalls seit den 60er Jahren, mit diesen Medien.

3 Nelson Goodman, Sprachen der Kunst - Entwurf einer Symboltheorie, 2. Auflage, Suhrkamp, Frankfurt am Main 1998

6


2. Eine etymologische und geschichtliche Annäherung

Die Sprache ist das Medium, in dem wir abstrakt denken, in dem wir Erkenntnisse formulieren.

Wenn wir uns im Folgenden mit den Begriffen „analog“ und „digital“ auseinander setzen, soll

zunächst geklärt werden, was uns die deutsche Sprache für Bedeutungen anbietet.

Obwohl viele zumindest ein intuitives Verständnis von den Begriffen „analog“ und „digital“

haben, ist die exakte Bedeutung nicht sofort ersichtlich. Betrachtet man verschiedene

Definitionen in Lexika oder Büchern, so wird deutlich, dass es keine einheitlich akzeptierte

Definition gibt. Die Bedeutungen sind vielfältig und besitzen wie so oft eine gewisse Breite.

Im Sprachgebrauch treten somit Probleme auf, die einer näheren Betrachtung bedürfen.

Beispielsweise wird „analog“ häufig mit „kontinuierlich“ gleichgesetzt, dabei bewegt sich der

Stundenzeiger fast jeder Analoguhr schrittweise, also nicht kontinuierlich, sondern diskret 4 .

Es scheint also eine andere Bedeutung hinter dem Präfix zu stecken. Weiterhin wurden in der

Geschichte Rechner entwickelt, die analog arbeiteten, aber mit diskreten Werten operierten,

bei denen nicht sofort klar ist, ob sie als analog oder digital zu bezeichnen sind.

Für uns ist es wichtig, wie wir die verschiedenen Aspekte verwenden und auf künstlerische

Erzeugnisse beziehen können.

Im Folgenden werden deshalb die grundlegenden Bedeutungen der beiden Begriffe

umfassend dargestellt. Die zugehörige historische Betrachtung soll ein Gefühl für die

verschiedenen Bedeutungen der Begriffe geben und soll so zusätzliche Klärung schaffen.

2.1 analog

2.1.1 Zum Begriff

Das deutsche Wort „analog“ ist das zugehörige Adjektiv des Substantivs „Analogie“ und

besitzt heute die Bedeutungen „entsprechend“, „ähnlich“ oder auch „gleichartig“. Oder es wird

im Sinne von „kontinuierlich“, „stufenlos“ verwendet.

Das Adjektiv „analog“ wurde im 18. Jahrhundert über das französische Wort „analogue“

(„entsprechend“), aus dem gleichbedeutenden griechischen „análogos“ entlehnt, was

eigentlich soviel wie „dem Logos, der Vernunft entsprechend“ bedeutet. Das zugehörige

Substantiv „Analogie“ ist von dem griechischen Wort „analogía“ (αναλογια) abgeleitet und

erscheint als wissenschaftlicher Terminus bereits im 17. Jahrhundert. 5

4 Den Begriff „diskret“ werden wir noch öfter in dieser Arbeit verwenden. Er soll im Sinne von „abgegrenzt, abgrenzbar“

beziehungsweise im mathematischen Verständnis von „in einzelne Punkte zerfallend“, „abzählbar“ oder auch „Zahlenwerte, die durch

endliche Intervalle voneinander getrennt stehen“ verstanden werden. Vergleiche hierzu auch Kapitel 4

5 Duden - Das Herkunftswörterbuch der deutschen Sprache, hg. von der Dudenredaktion, Band 7, 2. völlig neu bearbeitete und

erweiterte Auflage, Dudenverlag , Mannheim 1989

7


Im Griechischen ist „analogía“ die Übereinstimmung verschiedener Größen- oder

Funktionsverhältnisse „ana ton auton logon“ (im gleichen „logos“ oder „verhältnismäßig“). Der

Begriff Analogie stammt also aus der griechischen Geistesgeschichte und ist ursprünglich ein

Begriff der Philosophie, speziell der Mathematik, der in der pythagoreischen Schule entwickelt

wurde. Seit Cicero entspricht das lateinische Wort „proportio“, auch „proportionalitas“ dem

griechischen Wort „analogía“ und beide besitzen im Deutschen die Bedeutung „Entsprechung“

oder „Verhältnisgleichheit“.

Der Begriff wird in den verschiedenen Wissensbereichen in wechselnder Bedeutung, teils in

einem weiten, teils in einem engen Sinn angewandt. Allgemein gilt jedoch, dass die Analogie

dazu gebraucht wird, um Unbekanntes aus Bekanntem zu erschließen, oder um Ungleiches

mit Ungleichem, also eigentlich Inkommensurables in Zusammenhang zu bringen. Dies

geschieht aufgrund von Ähnlichkeit, oder enger gefasst aufgrund von Verhältnisgleichheit

beziehungsweise Verhältniseinheit. Damit wird dem relationalen, dem verbindenden Charakter

der Analogie Rechnung getragen. Durch Analogie kann der Zusammenhang ganz

verschiedener Wirklichkeitsbereiche aufgedeckt und begrifflich ausgedrückt werden, da es

sich bei der Analogie um eine Ähnlichkeit zwischen eigentlich unähnlichen Dingen handelt.

Die Analogie ist also ein in der Philosophie und anderen Wissenschaften gebräuchlicher

Begriff zur Bezeichnung eines Verfahrens oder von Ergebnissen der relationalen

Verknüpfung von Sachverhalten. Dies kann sowohl im Erkenntnisprozess, zum Beispiel beim

analogen Problemlösen, als auch im Wissen statt finden.

Im Unterschied zur Äquivalenz, der Übereinstimmung in einer bestimmten Hinsicht und der

Gleichheit, also der Übereinstimmung in allen Hinsichten, ist die Analogie das Ergebnis eines

Vergleichs, aufgrund dessen zwischen Eigenschaften oder Zuständen von Gegenständen

oder Systemen auf die Relation der Ähnlichkeit, eines richtigen Verhältnisses oder einer

Entsprechung geschlossen wird. Die Analogie ist Ähnlichkeit unterschiedlichen Grades

hinsichtlich bestimmter Aspekte und Eigenschaften zwischen unterschiedlichen

Gegenständen oder Systemen, die im Grenzfall Identität erreichen kann.

Die Analogie bezeichnet also einander strukturell oder funktional ähnliche Eigenschaften oder

Zustände. Zum Beispiel kann das Verhältnis zwischen einem Gegenstand oder einem System

und einem repräsentierenden Modell als Analogie bezeichnet werden.

Die Analogie kann auch zur Gewinnung neuer Erkenntnisse verwendet werden. Dies kann

beispielsweise geschehen, indem bekanntes Wissen auf neue Sachverhalte übertragen

wird. 6 Auch so genannte Analogieschlüsse sind ein Mittel der Erschließung von noch

Unbekanntem aus Bekanntem. Um die Funktionsweise eines Analogieschlusses zu verstehen,

6 Vgl. hierzu auch den Vortrag von Frau Prof. Dr. Gabi Reinmann-Rothmeier „Pädagogisch-didaktische Ideen zur Repräsentation und

Kommunikation von Wissen im Netz“ gehalten anlässlich des Symposiums „Bildkompetenz und Wissensvernetzung“ am 23.11.2001

im Rahmen des Forschungsprojektes „Visuelle Kompetenz im Medienzeitalter“ an der Akademie der Bildenden Künste Stuttgart:

„Beim Aufbau von Wissen mit Hilfe der Netztechnologie sind aus pädagogisch-psychologischer Sicht Kriterien und Standards für eine

lernfreundliche Informationsgestaltung im Netz zu entwickeln. Diesbezüglich sind Ideen erforderlich, wie man die Nutzer in ihren

Fähigkeiten unterstützen kann, damit diese Informationen im Netz besser und schneller verstehen. Nach Auffassung von Prof. Dr.

Reinmann-Rothmeier erscheint in diesem Zusammenhang ein narrativer Ansatz mit systematischem Einsatz von Analogien und

Geschichten mit bildhafter Begleitung sinnvoll. Dabei wäre mit einem Rückgriff auf Analogien, Geschichten in Verbindung mit bildhafter

Begleitung eine Verbesserung der Darstellung und der Vermittlung von Wissen zu erzielen.“

8


etrachte man folgenden Sachverhalt: A habe die Merkmale a, b, c, x; B habe die Merkmale a,

b, c; wahrscheinlich hat B auch das Merkmal x. Die Merkmale von B stimmen mit den ersten

drei Merkmalen von A überein und aufgrund der Ähnlichkeit von A und B in drei Merkmalen

wird auf die Möglichkeit geschlossen, dass B ebenfalls das vierte Merkmal x hat. Ein

einfaches Beispiel wäre folgender Sachverhalt: Schüler A ist ein guter Schüler am

Gymnasium (Merkmal a), beendet die Schule mit einem guten Abschluss (Merkmal b), bringt

während seiner Studienzeit gute Leistungen (Merkmal c) und schließt sein Studium mit guten

Noten ab (Merkmal x), so ist zu erwarten, dass Schüler B, der ebenfalls ein guter Schüler (a),

mit gutem Abschluss (b) und guten Leistungen während des Studiums (c) sein Studium mit

guten Noten abschließen wird.

Eigenschaften

A

B

C

X


Eigenschaften

a

b

c

wahrscheinlich x

Abbildung 1 : Schematische Darstellung des Analogieschlusses

2.1.2 Begriffsgeschichte „analog“

Die Begriffsgeschichte des Wortes „analog“ ist sehr alt. Bei den frühen griechischen

Philosophen, vor allem bei den Pythagoreern, also circa 400 vor Christus, tritt der Aspekt des

richtigen, harmonischen beziehungsweise angemessenen Verhältnisses hervor. Dieser

Schule zufolge ist alles durch Zahlenverhältnisse beziehungsweise musikalische Intervalle

bestimmt und dadurch harmonisch und proportional geordnet, sowohl jede Sache an sich, wie

auch der Kosmos als Ganzes. Die Analogie entwickelte sich ursprünglich als Begriff der

Mathematik, genauer der pythagoreischen Schule. Er wurde dort zunächst in der Form der

arithmetischen beziehungsweise geometrischen Analogie verwendet. Hier bedeutet er also

zunächst jede Art von Gleichheit je nach der Verbindung zweier Zahlen. Später trat aber

mehr die Gleichheit von Verhältnissen, die durch Teilung zustande kommen, in den

Vordergrund. Die so genannte geometrische Proportion.

Die pythagoreische Entdeckung der Proportionalität von musikalischen Intervallen führte

bereits früh zu einer grundlegenden mathematischen Erörterung der Analogie, die sich auf die

weitere Entwicklung des Begriffes bestimmend auswirkte. Der erste überlieferte Nachweis

dieser mathematischen Proportionslehre findet sich bei Archytas von Tarent 7 . Schon im

frühesten Zeugnis von Archytas von Tarent, werden drei Arten von analogen Verhältnissen

7 Archytas von Tarent, VS 47 B 2, zitiert nach: Historisches Wörterbuch der Rhetorik, Gert Ueding (Hrsg.), Band 1, Niemeyer Verlag,

Tübingen 1992, S.500

9


aufgeführt, die auch als musikalische Mittel bezeichnet werden. Er spricht von den folgenden

drei Arten analoger Verhältnisse:

Nach der ersten stehen drei Glieder einer Reihe von Zahlen (Größen) derart „im Verhältnis“

zueinander, dass die erste - und größte (z.B. 10) - um ebenso viel größer ist als die zweite

(6) wie die zweite größer ist als die dritte (2). Bei dieser arithmetisch genannten Analogie

(Abbildung 2) handelt es sich um die Gleichheit von Differenzen (z.B. 10-6 = 6-2).

6-2 10-6

Abbildung 2 : arithmetische Analogie

Die zweite, die geometrische Analogie, besagt Gleichheit von Verhältnissen, die durch die

Teilung zustande kommen (Abbildung 3). Das Verhältnis der ersten Zahl zur zweiten ist auch

hier gleich dem der zweiten zur dritten (8:4 = 4:2). Eine dritte Art der Analogie ist die

harmonische, die beide vorhergehenden verbindet: Die erste Zahl übertrifft die zweite um

eben den Teil ihrer Größe, um welchen Teil ihrer selbst die dritte Zahl von der zweiten

übertroffen wird. Wenn also die Zahl 6 um ein Drittel ihrer Größe (um 2) die Zahl 4 übertrifft,

so übertrifft die Zahl 4 ihrerseits die Zahl 3 um ein Drittel von deren Größe (um 1).

Da die harmonische Analogie in einer ihrer Eigenschaften der arithmetischen Analogie

entgegengesetzt ist, wurde sie ursprünglich auch die entgegengesetzte Analogie genannt.

4 : 2 8 : 4

Abbildung 3 : geometrische Analogie

In allen drei Fällen dient die Analogie der Bestimmung der „Mitte“, die den Abstand zwischen

den Außengliedern überbrückt und sie in eine Reihe bindet.

Umgekehrt kann die Analogie als ein Prinzip der Reihenbildung betrachtet werden, wenn von

der kleinsten Zahl aus in gleichen Abständen oder Verhältnissen fortgeschritten wird. In

10


eiden Hinsichten finden wir die Analogie-Lehre bei Euklid 8 und Nikomachos 9 erwähnt.

Gleiches findet sich bei Empedokles, der in diesem Punkt durch die Pythagoreische Lehre

beeinflußt worden ist: „Die weißen Knochen sind nicht zufällig zusammengefügt aus zwei

Teilen Erde, zwei Teilen Wasser und vier Teilen Feuer, sondern göttlich durch den Leim der

Harmonia.“ 10 Das Bestimmen der Mitte fand nicht nur Anwendung in der Musik und

Mathematik, sondern auch in der Kosmologie, wo nach der Weltordnung gefragt wurde, und in

der Ethik, wo es um die Bestimmung des Gerechten ging.

Platon hat als erster den Begriff der Analogie in der Philosophie verwendet. Bei ihm hat die

Analogie in verschiedener Weise Verwendung gefunden. So wird in der Philosophie Platons

die Analogie unter anderem auch zu einem kosmologischen Strukturprinzip, weil Gott die Dinge

analog und ebenmäßig geordnet hat, und in der Ethik ist das Gute von analoger Bedeutung für

die sinnliche und die Ideen-Welt. Der Aufstieg zum Guten ist dem der Sonne analog. Er benutzt

in seinen Dialogen an vielen Stellen Beispiele, Gleichnisse und Vergleiche als Mittel der

Beweisführung. So wird im „Phaedon“ 11 die Unsterblichkeit der Seele anhand von

Vergleichen bewiesen und in der „Politeia“ 12 die Gerechtigkeit des einzelnen Menschen mit

der des Staates verglichen. Die Analogie ist in der Funktion eines kosmischen

Ordnungsprinzipes zu sehen, das die vier Elemente zusammenfügt und in dasselbe Verhältnis

setzt. Dabei werden die entferntesten Elemente (Feuer und Erde), die äußeren Glieder und die

dazwischen liegenden Elemente (Luft und Wasser), die Mittelglieder derart ins Verhältnis

gesetzt dass gilt: wie das Feuer zur Luft, so die Luft zum Wasser, und wie die Luft zum

Wasser, so das Wasser zur Erde. Auf diese Weise hat Gott nach Platon die sichtbare und

greifbare Welt als eine vollkommene Einheit verknüpfen und gestalten können.

Bei Aristoteles tritt die kosmologische Anwendung der Analogie ganz zurück. Er knüpft in

seiner Naturforschung eher an die mathematische Auffassung der Analogie an. In seiner

„Metaphysik“ ist die Analogie das prädikative Verfahren der Herstellung von Beziehungen

zwischen nicht zusammengehörenden Sachverhalten: „Der Gattung nach sind alle Dinge

eines, die es der Gestalt nach sind, - während nicht alle Dinge, die der Gattung nach eines

sind, auch der Gestalt nach eines sind. Solche Dinge sind aber sämtlich der Analogie nach

eines, während nicht alle Dinge, die der Analogie nach eines sind, dies auch der Gattung

nach sind.“ 13 Dieses Verfahren setzt er ein, um zum Beispiel unterschiedliche Lebewesen

aufgrund analoger Funktionen klassifizieren zu können: „was dem Vogel der Flügel, ist dem

Fisch die Flosse“. 14

In der „Poetik“ tritt die Analogie hervor bei der Metaphernbildung oder der Wortübertragung,

wo Wörter in uneigentlicher Bedeutung verwendet werden. Bei der Bildung einer Metapher

8 Euklid, Die Elemente Kapitel V und VII (nach Eudoxos), zitiert nach: Historisches Wörterbuch der Philosophie, Joachim Ritter

(Hrsg.), Band 1, Schwabe & Co. Verlag, Stuttgart 1971, S. 214

9 Nikomachos, Introductio arithmetica II, zitiert nach: ebd.

10 Empedokles, VS 31 B 96, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 500

11 Platon, Phaedon, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 501

12 Platon, Politeia, zitiert nach: dito, S. 502

13 Aristoteles, Metaphysik, zitiert nach: Enzyklopädie Philosophie, Hans Jörg Sandkühler (Hrsg.), Felix Meiner Verlag, Hamburg 1999,

S.48

14 Aristoteles, De part. animal. I, zitiert nach: Historisches Wörterbuch der Philosophie (1971), S. 217

11


gemäß der Analogie wird anstelle der zweiten Größe die vierte oder umgekehrt anstelle der

vierten die zweite gesetzt. Verhält sich zum Beispiel die Weinschale (2) ähnlich zu Dionysios

(1) wie der Schild (4) zu Ares (3), so kann man die Weinschale (2) Schild (4) des Dionysios

oder den Schild (4) Schale (2) des Ares nennen. Oder, verhält sich das Alter (2) ähnlich zum

Leben (1) wie der Abend (4) zum Tag(3), so kann man das Alter (2) als Abend (4) des

Lebens und den Abend (4) als Alter (2) des Tages benennen. 15 Die Analogie kann in dieser

Funktion auch dafür benutzt werden, um einen passenden Ausdruck für etwas zu finden, wo

eine eigene Bezeichnung fehlt. So gibt es kein eigenes Wort für die Tätigkeit der Sonne, die ihr

Licht ausstrahlt. Da sich jedoch diese Tätigkeit (2) ähnlich zum Sonnenlicht (1) verhält wie das

Säen (4) zum Samen (3), kann man sagen ,dass die Sonne ihr Licht (1) sät (4). 16 In beiden

Fällen geschieht eine Übertragung gemäß der Analogie.

In der Stoa wurde die Analogie in der Erkenntnislehre und Ethik verwendet. Das sinnliche

Wahrgenommene kann aufgrund der Analogie vergrößert oder verkleinert werden, wodurch

man zu neuen Vorstellungen und Begriffen, zum Beispiel von Riesen und Zwergen, kommen

kann. Die Stoa hat die Analogie aber vor allem als ein induktives Verfahren geprägt: Analogien

führen von Bekanntem zu Unbekanntem aufgrund eines beiden gemeinsamen „logos“. 17

Die Analogielehre des lateinischen Mittelalters knüpft hauptsächlich an die antiken Vorgaben

an. Bedeutend sind vor allem die Anwendungen der Analogielehre in der Grammatik, der

theologisch-philosophischen Spekulation seit dem 13. Jahrhundert und in den mathematischen

und naturwissenschaftlichen Werken des Spätmittelalters. In den Künsten besaß die Analogie

große Bedeutung. Es war eine gängige Vorstellung, dass die Einhaltung der Proportionen

unmittelbar mit dem Grad der Schönheit verbunden war. Von allen Definitionen der Schönheit

hatte eine im Mittelalter besonders Erfolg. Sie stammte von Augustinus: „Quid est corporis

pulchritudo? Congruentia partium cum quadam coloris suavitate.“ 18 (Worin besteht die

körperliche Schönheit? Im richtigen Verhältnis der Teile zueinander in Verbindung mit einer

gewissen Lieblichkeit der Farben.)

Die Theoretiker und Verfasser praxisbezogener Abhandlungen bezogen sich auf Vitruv,

durch den die Theorie der Proportionen in das Mittelalter weitergegeben wurde (später durch

Leonhardo da Vinci illustriert). Diese finden in Vitruvs Schriften nicht nur die Termini

„proportio“ und „symmetria“, sondern auch Definitionen wie: „ratae partis membrorum in omni

opere totiusque commodulatio o ex ipsius operis membris conveniens consensus ex

partibus separatis ad universae figurae speciem ratae partis responsus.“ 19 In der also von

der „Symmetrie der Elemente eines bestimmten Teiles und des Ganzen in jedem Werk“ und

vom „harmonischen Zusammenstimmen der Elemente des Werkes und der Korrespondenz der

einzelnen Teile eines bestimmten Teiles zum Bild der gesamten Figur“ die Rede ist.

15 Aristoteles, Poetik, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 502-503

16 Aristoteles, Poetik, zitiert nach: ebd.

17 Cicero, De finibus III, zitiert nach: Historisches Wörterbuch der Rhetorik (1992), S. 504

18 Augustinus, Epistula 3, zitiert nach: Umberto Eco, Kunst und Schönheit im Mittelalter, Deutscher Taschenbuch Verlag, München

1993, S.49

19 Vitruv, De architectura III, zitiert nach: dito, S.50

12


In der neuzeitlichen Wissenschaft tritt der Begriff in verschiedenen Kontexten in Erscheinung.

Die Linguistik sieht die Analogie als die Erscheinung, dass Sprachmittel, die einander in

irgendeiner Hinsicht (Inhalt, Gestalt, Formenbildung oder Fügungsweise) entsprechen, sich

auch in den übrigen Stücken mehr oder weniger nacheinander richten. Das Prinzip der

Übertragung von Lautungen und Wortformen fand in der zweiten Hälfte des 19. Jahrhunderts

große Beachtung bei den Junggrammatikern. In der Literaturwissenschaft spielt sie eine Rolle

bei dem Vergleich von literarischen Texten, wo sie als strukturelle Entsprechung zweier

Erzählungen gilt. Gleichsam wird sie hier als Metapher und Gleichnis studiert.

Mit dem Begriff der Analogie bezeichnet man in der Biologie Ähnlichkeiten verschiedener

Organismen, die nicht auf Verwandtschaft beruhen, sondern unabhängig voneinander

entstanden sind, zum Beispiel die Flügel der Insekten und der Vögel, die Linsenaugen der

Tintenfische und die der Wirbeltiere. In diesen Fällen bedeutet analog nicht homolog. Da die

Analogie meist auf gleicher Funktion der Strukturen beruht, wurde häufig Gleichheit der

Funktion als Kriterium gesetzt.

In der Logik wird sie als Methode des Schlussverfahrens behandelt, wo ihr zusätzlich noch

als Modell, Entsprechung und strukturelle Abbildung ein bedeutender Wert bei der

Formulierung von Hypothesen und Theorien zuerkannt wird. Allgemein gilt, dass die Analogie

als Modell und Übereinstimmung sowohl in den Geistes- wie auch in den

Naturwissenschaften zunehmend an Bedeutung gewinnt. In der neueren Diskussion wird

mittlerweile zwischen struktureller- und funktionaler Analogie unterschieden. Unter einer

struktureller Analogie versteht man dabei die völlige oder teilweise Übereinstimmung der

Strukturen zweier Systeme, wobei von der konkreten stofflichen Realisierung der jeweiligen

Systeme abstrahiert wird. Eine bekannte strukturelle Analogie ist die Analogie zwischen dem

Bohrschen Atommodell (Nils Bohr) und dem Sonnensystem. In beiden Systemen gibt es einen

Mittelpunkt, um den im einen Fall die Elektronen, im anderen die Planeten auf konzentrischen

Bahnen um denselben kreisen.

13


Eine funktionale Analogie liegt dann vor, wenn zwei Systeme, die sich sowohl nach der Art

ihrer Elemente, als auch in ihrem strukturellen Aufbau voneinander unterscheiden, im Hinblick

auf die Funktionen, die sie erfüllen können, übereinstimmen. Die funktionalen Analogien, wie

zum Beispiel im Begriffspaar Schiffssteuermann, Staatssteuermann sind ungenauer als

strukturelle und sind der Metapher, dem Symbol und der Allegorie verwandt. 20

2.1.6 Zusammenfassung

Zusammenfassend ist für die weiteren Gedankengänge in der vorliegenden Arbeit folgendes

wesentlich: Zum einen kann „analog“ also soviel wie „gleichartig“ , „ähnlich“ , „entsprechend“

bedeuten, im Sinne einer vorhandenen Analogie zwischen zwei Systemen oder

Gegenständen. Dabei unterscheidet man heute zwischen der funktionalen und strukturellen

Analogie. Desweiteren kann die Analogie als Schlussverfahren verwendet werden und es ist

möglich eigentlich Ungleiches miteinander in Verbindung zu bringen. Im technischen

Verständnis wird das Adjektiv im Sinne von „kontinuierlich“, „stufenlos“ verwendet. Diese

Bedeutung wird im Zusammenhang der Geschichte des Begriffes „digital“ im Folgenden

zusätzlich erläutert, denn sie entstand als Gegenstück zur Bedeutung des Begriffes „digital“.

20 Dazu eine kurze Erinnerung der Begriffe Metapher, Symbol und Allegorie.

Die Allegorie ist ein in Literatur und Bildender Kunst bekanntes Mittel zur Veranschaulichung eines oft abstrakten Gedankens, einer

Vorstellung durch eine bildhafte Darstellung. Als Beispiel mag das Leben als Fastnachtsspiel in der Literatur dienen oder das Schiff und

die Schiffahrt für die Staatsführung. Eine allegorische Figur nennt man auch die Darstellung eines abstrakten Begriffs als Person, zum

Beispiel die Justitia mit den ausgeglichenen Waagschalen in der Hand als Verkörperung der Gerechtigkeit. Oder die Germania als

Verkörperung des Deutschen Staates.

Die Metapher ist ein sprachliches Verfahren der Übertragung der darzustellenden Wirklichkeit auf eine bildhafte Wirklichkeit.

Darstellungsbereich und Abbildungsbereich sind durch ein gemeinsames semantisches (bedeutungsmäßiges) Merkmal miteinander

verbunden. Ein Beispiel wäre der Ausdruck „ am Fuß des Berges“ (vergleiche auch die Bezeichnung „Piemont“ in Italien (am Fuß des

Berges, eben der Alpen)) oder Flussbett. Gemeinsames Merkmal ist hier die Eigenschaft „ganz unten“. Die Metapher wird seit der

Antike auch als verkürzter Vergleich erklärt. Es geht aber weniger um ein rationales Vergleichen zweier Gegenstandsbereiche als

vielmehr um das Zusammenbringen von „Auseinanderliegendem“ in einem Bild.

Ein Symbol ist eine Darstellung abstrakter geistiger oder seelischer Vorstellungen und Erfahrungen in konkreten oder anschaulichen

Gegenständen, Sachverhalten oder Handlungen nennt man Symbol. Zum Beispiel ist Wasser seit jeher das Symbol des Lebens, aber

auch des Todes, die Taube ist ein Symbol für den Frieden und das Herz ein Symbol für die Liebe.

14


2.2 digital

2.2.1 Zum Begriff

Das Adjektiv „digital“, besitzt im deutschen mehrere Bedeutungen. Zum einen hat es die

Bedeutung „mit dem Finger“ und berührt hierbei die medizinische Fachterminologie. Zum

anderen bedeutet „digital“ soviel wie „in Stufen, in Schritten erfolgend.“ Es steht dann im

direkten Gegensatz zu analog im Sinne von kontinuierlich. Daneben erscheint es in der

Technik im Sinn von „Informationen, Daten in Ziffern darstellend“. 21 Dazu hat sich in neuerer

Zeit die eventuell unter dem Einfluss des englischen Wortes „digitalize“ aufgekommene

Verbableitung „digitalisieren“ gebildet. Dies bedeutet in der Physik und der Technik in diskrete

Einzelschritte auflösen, Informationen computergerecht umwandeln, ziffernmäßig darstellen.

So wird bei einer Digitaluhr die Uhrzeit oder auf einem Thermometer die Temperatur unter

Zuhilfenahme von Ziffern dargestellt. Das zugehörige Verbalsubstantiv heißt „Digitalisierung“.

Das Wort „digital“ wird mittlerweile als Präfix oft in einem anderen Sinn verwendet. Infolge des

Marktangebotes und der Werbung wird das Wort häufig in Verbindung mit den Begriffen

„modernste Technik“ oder „neuartige Technik“ gebraucht. Es suggeriert so die Modernität, der

als digital ausgezeichneten Medien.

2.2.2 Begriffsgeschichte „digital“

Über das Wort „digital“ lässt sich angesichts der wesentlich kürzeren Begriffsgeschichte

deutlich weniger sagen. Das deutsche Adjektiv „digital“ in der Bedeutung „in Stufen, in

Schritten erfolgend“ und „Informationen, Daten in Ziffern darstellend“ wurde Mitte des 20.

Jahrhunderts aus dem gleichbedeutenden englischen „digital“ entlehnt, ist also über die

englische Fachsprache ins Deutsche gekommen. In der Bedeutung „mit Hilfe des Fingers“ ist

es im Deutschen wesentlich älter. Das Wort „digital“ hat also zwei Wurzeln.

Betrachtet man zunächst die ältere Bedeutung kann man folgendes feststellen. Das Wort

wurde aus dem lateinischen Wort „digitalis“ entlehnt, was soviel wie „mit dem Finger“ heißt,

von lateinisch „digitus“, „der Finger“ oder auch „die Zehe“. (vgl. auch dt. „der Fingerhut“, mit

dem lateinischen Namen „Digitalis“)

Der Finger wurde unter anderem zum Zeigen verwendet zum Beispiel beim Vortrag einer

Rede in gewissen Haltungen und bestimmten Bewegungen. (vgl. auch Zeigefinger). 22

Zum anderen ist es eine Andeutung auf das Zählen. Denn früher wurde mit den Fingern

gezählt, woher unter anderem unser dekadisches Zahlensystem herrührt. So war die

Bezeichnung „digiti“ für „Fingerzahlen“ noch im 18. Jahrhundert sehr geläufig, so dass sie im

„Grossen vollständigen Universal Lexikon“ aus dem Jahr 1734 wie folgt beschrieben wird:

„digiti heißen bei einigen die Zahlen von 0 - 9 oder die simplen Einheiten in der dekadischen

21 Duden - Das Fremdwörterbuch, hg. von der Dudenredaktion, Band 5, 5. neu bearbeitete und erweiterte Auflage, Dudenverlag,

Mannheim 1990

22 Eckart Zundel, Clavis Quintilianea, wissenschaftliche Buchgesellschaft, Darmstadt 1989, S.28

15


Rechnung, weil man solche gemeiniglich an Fingern abzuzehlen pflegt, daher man sie auch

Fingerzahlen im Teutschen nennen könnte.“ 23

In der Medizin gibt es heute noch Fachtermini, die sich auf die Bedeutung „mit dem Finger“

beziehen. Im Jahre 1929 wurde das Adjektiv „digital“ im Brockhaus 24 noch ausschließlich im

medizinischen Kontext erwähnt. Die zweite Bedeutungsebene wurde erst später, Mitte des

20. Jahrhunderts ins Deutsche übernommen.

In dieser, der anderen Herkunft von „digital“ steckt das heutige englische Wort „digit“, was

soviel wie „Zeichen“, „Ziffer“ oder auch „Dezimalstelle“ bedeutet. Das englische Wort „digit“

stammt von dem sehr alten englischen Ausdruck „digit“ ab. Der Ausdruck aus der Arithmetik

(um 1398), bezeichnete ebenfalls zunächst die ersten Ziffern bis Zehn, die man mit den

Fingern abzählen kann (vgl. oben „digiti“). Der Ausdruck „digit“ wurde dann als Attribut in der

Form „digite number“ verwendet (um 1613).

Das Wort „digital“ im Sinne von „mit diskreten Werten operierend“, also nicht kontinuierlichen

entwickelte sich in der Elektrotechnik, parallel zu den technischen Errungenschaften. In dieser

Bedeutung wurde es zuerst in den 30er Jahren, um 1938 verwendet und hat sich dann in der

Elektrotechnik, bedingt auch durch den 2. Weltkrieg, bis 1945 stark verbreitet. 25 Gleichzeitig

entstand „analog“ im Sinne von „kontinuierlich“ als Gegenstück. Das Wort „digital“ wurde dabei

vermutlich erstmals im Umkreis der letzten Version des Differential Analyzers von Vanevar

Bush geprägt, das bereits ein analog-digitaler Hybrid war. Also ein Apparat, der eine

Mischform aus analogem und digitalem Rechner darstellte und zur Berechnung von

Differential-Gleichungen eingesetzt wurde. Diese bereits als digital bezeichneten Rechner

gingen als Weiterentwicklung aus den Analogrechnern hervor.

„Claude E. Shannon war 1936 als Forschungsassistent für den Differential Analyzer ans MIT

gekommen, nachdem er seinen Abschluß als Bachelor sowohl in Mathematik als auch in

Elektrotechnik gemacht hatte. Shannon schrieb einen Aufsatz über die mathematische

Theorie des Differential Analyzers und entwickelte eine Standardnotation für die

Einstellungen des Analyzers, die einfacher und allgemeiner war als die von Vanevar Bush

entwickelte. Shannon begann sich jedoch auch für die Schalter als solche zu interessieren

und für ihr Potential für Berechnungen (nicht nur für die Beschreibung von Berechnungen).

Seine Magisterarbeit von 1937 “A Symbolic Analysis of Relay and Switching Circuits”

untersuchte die logische Struktur und die Synthese von Relaisschaltkreisen “in automatic

telephone exchanges, industrial motor-control equipment, and in almost any circuits

designed to perform complex operations automatically.” Shannon ging explizit von der

Struktur und der Notation der elektrischen Netzwerktheorie aus und zeigte, dass “several of

the well-known theorems on impedance networks have roughly analogous theorems in relay

circuits.” Er wendete Boolesche Algebra auf Systeme von Relais an und zeigte, wie sie

analysiert und zusammengesetzt werden konnten durch binäre Arithmetik und klassische

23 Johann Heinrich Zedler, Grosses vollständiges Universal Lexikon, Band 7, Akad. Druck- und Verlagsanstalt, Graz 1961

(Erstveröffentlichung 1734)

24 Der große Brockhaus, A-Z, Band 4, Brockhaus Verlag, Leipzig 1929

25 Josette Rey-Debove und Gilberte Gagnon (Hrsg.), Dictionnaire des Anglicismes, Verlag Le Robert, Paris 1988

16


Wahrheitswertlogik mit ihren Funktionen von „Nicht“, „Oder“ und „Und“. Einmal in Algebra

übersetzt, konnten Schaltfunktionen nach gewöhnlichen Regeln manipuliert werden, was den

Planer in die Lage versetzte, den effektivsten Schaltkreis für eine gegebene logische

Funktion zu entwerfen. Mit einem Schlag führte Shannon damit den Entwurf von

Schaltungssystemen in die Welt der mathematischen Logik und der Netzwerktheorie ein. Als

Shannons Arbeit veröffentlich wurde, war ein junger Ingenieur namens George Stibitz in der

Abteilung für Mathematik in den Bell Laboratories damit beschäftigt, Rechenmaschinen aus

alten Telefonrelais zu bauen. “I was delighted", erinnerte sich Stibitz später, " with the

simplicity and conciseness.” Er übernahm sofort Shannons netzwerkähnliche Notation.

Stibitz prägte ebenfalls einen neuen Begriff für Rechenmaschinen die Schaltkreise,

Boolesche Algebra und den Binärcode verwendeten: er nannte sie digital.“ 26

Die Bedeutung „mit diskreten Werten operierend“, „mit Zeichen arbeitend“ oder auch

„Informationen, Daten in Ziffern darstellend“ kam also daher, dass die neuen Rechenanlagen

in der Lage waren mit einem Symbolvorrat, eben mit vorher festgelegten Zeichen zu arbeiten.

Da es besonders einfach war die Schaltungen mit den zwei Stromzuständen „fließt“ und

„fließt nicht“ zu realisieren, wurden die zu lösenden Probleme binär, also auf zwei Zeichen

reduziert, codiert. Für die Vereinfachung der Schaltungen konnte dann die Boolesche Algebra

eingesetzt werden, die es erlaubt, über einfache Berechnungen komplizierte Schaltzustände

auf weniger komplexe zu vereinfachen. Nachdem der Begriff in dieser Bedeutung geprägt

war, wurde er durch technische Entwicklungen und deren Verbreitung in der Alltagskultur

zunehmend bekannt. Es gab mehrere bedeutende Phasen in denen der Begriff an Popularität

gewann.

Der erste Schub war in den 60er Jahren, als die Digitaltechnik zunehmend Einzug in die

Alltagswelt hielt. Die Digitaltechnik wurde in der Verkehrstechnik, zum Beispiel bei

Signalanlagen oder in Fahrkartenautomaten eingesetzt. So meldete die Stuttgarter Zeitung vom

1.12.1967: „Elektronische Rechenmaschinen kommen in Deutschland mehr und mehr in

Gebrauch, die sich aus den verschiedensten Bausteinen der Digitaltechnik

zusammensetzen.“

Bald darauf, in den frühen 70er Jahren kamen die ersten Digitaluhren auf den Markt. Mit der

Verbreitung der Digitaluhren wurde der Begriff sehr populär. FAZ vom 14.4.1971: „die [...]

erste quarzgesteuerte Digitaluhr (Ziffern statt Zeigeranzeige) mit Batteriebetrieb.“

In den frühen 80er Jahren brachte Sony ein neues Medium auf den Markt, dass als Ersatz der

bisher bekannten Schallplatte gedacht war, die Compact Disc, kurz CD. Die Scheibe war klein

und handlich, glänzte verheisungsvoll silbern, war anscheinend robuster gegenüber Kratzern

und sollte wesentlich bessere Klangqualität bieten.

FAZ 3.3.1983 über die Compact Disc: „Über die Technik der neuen, zwölf Zentimeter großen,

silberglänzenden Scheiben soll hier nur gesagt werden, dass sie anstelle der bisherigen

26 Diese Informationen konnte ich freundlicherweise von Herrn Prof. Dr. Bernhard Siegert, Bauhaus Uni Weimar, Fakultät Medien

erhalten.

17


analogen“ Schallrille eine ziffernmäßig „digital“ verschlüsselte Folge von Impulsen in Form

mikroskopisch kleiner Erhebungen „pits“ speichern...“

Und auch in der Kommunikationstechnik sollte bald die Umstellung auf die digitale Technik

erfolgen. So stellte die Deutsche Bundespost ein neues Verfahren der Übermittlung bei

Telefongesprächen zur Verfügung. Die Informationen wurden nicht mehr als Stromimpulse

analog zu den zu übermittelnden Schallfrequenzen, sondern codiert als binäres Signal

geschickt. Darüber hinaus war es nun möglich schnellere Datenverbindungen aufzubauen,

um zum Beispiel Videokonferenzen mit Bildtelefonen zu führen oder Datenpakete zu

verschicken. FAZ 9.1.1985: „Die Übertragung von Telefongesprächen erfolgt heute noch auf

analoge“ Weise: Die elektronischen Signale sind dabei ein Abbild der akustischen

Schwingungen. Künftig wird jedoch der Telefonverkehr in der digitalen Sprache des

Computers als eine Zahlenfolge aus 0 und 1 abgewickelt.“

Heute werden bei Neuinstallationen ausschließlich digitale Anschlüsse geschaltet. So wird

das analoge Netz zunehmend durch das digitale ersetzt. Spiegel vom 17.5.1993: „Ab Januar

löst das digitale Fernmeldenetz ISDN (Integrated -Services Digital Network) der Telekom

die Analogvermittlung [...] nach und nach ab.“

2.2.3 Zusammenfassung

Der Begriff „digital“ hat im deutschen zwei Wurzeln. Zum einen kann er in der Bedeutung „mit

dem Finger“ verwendet werden. In diesem Sinne ist er oft noch im medizinischen Kontext zu

finden. Zum anderen wird er heute überwiegend in einer technischen Bedeutung im Sinne von

„Informationen, Daten in Ziffern darstellend“, „in Stufen, in Schritten“ oder auch „diskret“

benutzt.

Diese Bedeutung entstand durch den Einsatz von „Ziffern“ oder „Zahlen“ in der Arbeitsweise

der Automaten. Durch die veränderte Rechnertechnologie war es möglich geworden, diese

so genannte „Ziffernrechenmaschine“ vielseitig einzusetzen, indem man sie mit Symbolen

programmiert. 27

Der eigentliche Unterschied des Digitalrechners ist es also, dass er mit vorgegebenen Zeichen

arbeiten konnte und somit vielseitig für die unterschiedlichsten Probleme einsetzbar war. Dazu

musste er lediglich programmiert werden. Für die notwendigen Operationen der

Problemlösung verwendete er einen Code, der aus festgelegten Symbolen bestand. Wenn

man heute vom Rechner oder dem Computer spricht, meint man eigentlich diesen, den

Digitalrechner. Um die unterschiedliche Arbeitsweisen besser verstehen zu können, soll im

Folgenden ein kurzer Abriss der Geschichte der Rechner gezeigt werden.

27 Im Gegensatz zum bisher verwendeten Analogrechner, der speziell zur Lösung eines bestimmten Problems gebaut wurde. Ein

Analogrechner stellte eine physikalische Analogie zu einem Problem dar.

18


2.3 Eine kurze Geschichte der Rechnertechnik

Heutzutage verbindet man mit Computer automatisch eine digital arbeitende elektronische

Rechen-Maschine. Bis in die Mitte des 20. Jahrhunderts wurden mit dem Begriff „Computer“

jedoch noch Menschen bezeichnet, die teilweise mit mechanischen Tischrechenmaschinen

ausgestattet aufwendige Berechnungen durchführten. Es ist kaum noch bekannt, dass es

zwei Arten von Recheninstrumenten und Rechenmaschinen gab, von denen manche analog,

andere digital arbeiteten.

2.3.1 Geschichte der analogen Rechner

Analoge Rechengeräte gab es bereits in der Antike. Schon von den Griechen wurden

Astrolabien gebaut, mit deren Hilfe die Positionen der Gestirne am Firmament zu einem

gegebenen Datum oder aus dem Stand der Gestirne die (lokale) Uhrzeit bestimmt werden

kann. Astrolabien bestehen aus gegeneinander verdrehbaren Metallplatten sowie Zeigern, auf

denen Koordinaten, Winkel- und Zeitskalen, Sternzeichen sowie weitere Hilfslinien eingraviert

sind. Nach dem manuellen Einstellen der Scheiben und Zeiger lassen sich einzelne

astronomische Werte ablesen. Es gab weiterhin Geräte, deren Einstellung sich fortwährend –

entweder manuell oder durch einen Mechanismus angetrieben – veränderte, wodurch die

angezeigten Positionen der Gestirne analog zu den beobachtbaren Positionen am Firmament

wandern. Das älteste bekannte Gerät wird nach seinem Fundort als Antikythera-

Mechanismus bezeichnet und stammt aus dem 1. Jahrhundert vor Christus. Eine

Röntgenanalyse des nicht mehr funktionsfähigen Mechanismus ergab, dass er die Bewegung

der Sonne im Tierkreis, Mondphasen sowie Auf- und Untergänge der hellen Sterne angezeigt

haben muss

Diese Geräte waren speziell auf astronomische „Berechnungen“ zugeschnitten. Aber auch

zur Lösung allgemeiner Probleme bediente man sich verschiedenster nicht rechnerischer

Methoden. Im Altertum wurden viele Probleme geometrisch mit Lineal und Zirkel gelöst. Zur

Vereinfachung geometrischer Konstruktionen und Berechnungen wurden später eine Reihe

von geschlitzten und mit Gelenken verbundenen Linealen entworfen. Darauf wurden

verschiedene Skalen für spezielle (beispielsweise trigonometrische) Funktionen angebracht.

Mit Hilfe eines Zirkels konnten dann einzelne Werte bestimmt werden. Im 17. Jahrhundert

erlangten Quadranten und Proportionalzirkel als wichtige Rechenhilfsmittel eine weite

Verbreitung. Mit ihnen war neben dem Ablesen geometrischer und astronomischer Skalen

unter Zuhilfenahme eines Zirkels auch das Multiplizieren und Dividieren möglich.

Die Einführung logarithmischer Skalen in der ersten Hälfte des 17. Jahrhunderts reduzierte die

Multiplikation zweier Zahlen auf die Addition von zwei logarithmischen Strecken - ebenfalls mit

Hilfe eines Zirkels. Einfacher wurde das Rechnen mit logarithmischen Skalen durch die

19


Einführung des Rechenschiebers, bei dem zwei oder mehr Skalen gegeneinander verschoben

werden können. Das Problem bei all diesen Geräten ist die geringe Genauigkeit (2–4

Dezimalstellen), die durch Verlängerung der Skalen erhöht werden kann. Man konstruierte für

genauere Berechnungen längere Rechenschieber oder ordnete die logarithmischen Skalen

auf Walzen an.

Bei allen bisher beschriebenen Instrumenten ist das Ergebnis immer direkt von der Einstellung

abhängig. Beispielsweise ergibt die Multiplikation durch Aneinanderlegen zweier

logarithmischer Skalen, innerhalb einer gewissen Genauigkeit, immer dasselbe Resultat, das

für weitere Berechnungen in einem anderen Medium aufbewahrt werden muss – meist durch

Aufschreiben auf Papier. Zur Vereinfachung vieler Rechnungen ist es von Vorteil, dieses

Übertragen von Werten zu reduzieren und Zwischenergebnisse direkt weiterverwenden zu

können. Beim Ausrechnen eines bestimmten Integrals wird das Ergebnis durch eine

Summation von Funktionswerten erzielt, wobei der jeweils aktuelle Funktionswert zum

bisherigen Wert addiert wird. Solch ein „Aufsummieren“ lässt sich mit speziellen

mechanischen Integratoren durchführen, bei denen im Integrator das Zwischenergebnis

„gespeichert“ wird.

In der ersten Hälfte des 19. Jahrhunderts, wurden eine Reihe so genannter Planimeter

entwickelt, mit denen graphisch aufgezeichnete Funktionen integriert und Flächeninhalte

bestimmt werden konnten. Lord Kelvin zeigte bereits, dass sich durch eine rückgekoppelte

Zusammenschaltung der Kugelintegratoren seines Harmonic Analysers prinzipiell auch

Differentialgleichungen beliebigen Grades lösen lassen. Das von den Kugelintegratoren

übertragene Drehmoment reichte jedoch nicht aus, um mehrere mit Reibung behaftete

mechanische Elemente miteinander zu verbinden.

2.3.2 Der Übergang zum digitalen Rechner

In den 1920er Jahren wurde unter der Leitung von Vannevar Bush am MIT ein Gerät zur

Behandlung von Differentialgleichungen zweiter Ordnung – der so genannte Produktintegraph

– entwickelt. Bei diesem wurden ein elektrischer Stromzähler und ein Scheibenintegrator als

zweites Integrationsglied miteinander verbunden.

Dabei stellte sich der mechanische Scheibenintegrator als das einfachere und genauere

Integrationsglied heraus. Um mehrere Scheibenintegratoren zusammenschalten zu können,

musste jedoch das Problem der Ungenauigkeit durch Reibung und Schlupf gelöst werden.

Harold Hazen, ein Mitarbeiter Bushs schlug vor, einen von C. W. Niemann entwickelten

mechanischen Drehmomentverstärker einzusetzen. Damit konnten nun in der ersten Version,

sechs Scheibenintegratoren zusammen mit anderen mechanischen Rechengetrieben sowie

manuell bedienbare Eingabetische für spezielle Funktionswerte und Ausgabetische zum

Aufzeichnen der Ausgabefunktion gekoppelt werden. Da der Umbau für eine neue

Differentialgleichung sehr aufwendig war, wurde dieser Differential Analyzer im

20


Wesentlichen dort eingesetzt, wo eine Differentialgleichung für sehr viele Werte berechnet

wurde. Beispielsweise bestimmte man während des zweiten Weltkriegs

Geschossflugbahnen, so genannte Trajektorien, mit unterschiedlichen Koeffizienten und

Anfangsbedingungen, um daraus Schießtabellen zu generieren. Der Differential Analyser

wurde auf der ganzen Welt nachgebaut und hat die Entwicklung des ENIAC (Electronic

Numerical Integrator and Computer) maßgeblich beeinflusst, der als schnelles elektronisches

Pendant zum an der Moore School eingesetzten Differential Analyzer geplant wurde. Der

ENIAC wiederum gilt als wichtiger Ausgangspunkt für die Entwicklung elektronischer Rechner.

Da der Umbau des mechanischen Differential Analysers sehr aufwendig war, wurde der

zweite große Differential Analyser von Vannevar Bush 1942 zwar mit Scheibenintegratoren,

aber mit „elektronischen Wellen“ gebaut. 28

Wie oben bereits gezeigt, wurden die Rechner dann vollständig elektronisch. Die Mechanik

wurde durch elektrische Schaltungen ersetzt, so dass der Rechner flexibel programmierbar

wurde. Der digitale Rechner war geboren. Der Begriff digital wird sehr oft mit binär in

Verbindung gebracht. So wird häufig vom Digitalrechner gesprochen, der ja mit einem binären

Zahlensystem arbeitet. Der Digitalrechner ist eine Maschine, die nicht mechanisch, sondern mit

einem vorgegebenen Vorrat an Zeichen, konkret Zahlen arbeitet. Grundsätzlich kann dies mit

allen Zahlensystemen realisiert werden, aber die binäre, also auf zwei Zustände reduzierte

Darstellung ist sehr geschickt. Denn sie kann sehr einfach mit den zwei Zuständen Strom

„fließt“ oder „fließt nicht“ umgesetzt werden. Wie also die beiden Begriffe zusammenhängen

soll im Folgenden gezeigt werden.

2.4 Das Binär- und Dezimalsystem

Für die meisten Menschen scheint das beim Zählen übliche dezimale Zahlensystem

naturgegeben zu sein. Es wird selten als Erfindung des Menschen angesehen. Von den

ersten Anfängen des Zählens und des Ordnens bis zu unserem, den Alltag beherrschenden

dezimalen Zahlensystem war es ein langer Weg. Die Erfindung des Dezimalsystems muss

man aus der heutigen Sicht als geniale Leistung bezeichnen. Um hiervon eine Vorstellung zu

bekommen, wollen wir uns kurz mit der allgemeinen Problematik des Zählens

auseinandersetzen. Dabei versteht man, dass andere Zahlensysteme genauso natürlich sind

wie das dezimale.

Ein Schäfer der Abends seine Schafe durchzählen wollte, konnte dies einfach tun, indem er

die Menge der Schafe mit der Menge der kleinen Steine in seinem Lederbeutel verglich. Wenn

die Mengen übereinstimmten konnte er beruhigt sein Schäferstündchen beginnen. Die

Grenzen dieses vergleichenden Systems waren aber schnell erreicht, denn mit zunehmender

Größe der Herde, hätte der Schäfer eine ebenso große Menge an Vergleichsgegenständen

28 Vgl. Vortrag: Andreas Brennecke, Physikalische Analogien und Ziffernrechenmaschinen – Von mechanischen Rechengeräten zu

Integrieranlagen und programmgesteuerten Maschinen.

Quelle: http://iug.uni-paderborn.de/iug/veroffentlichungen/2000/anbr_greifswald/text.html (11.3.2002)

21


herumtragen müssen. Dieses Problem konnte mit einer Übertragung der konkreten

Vergleichsgegenstände auf abstrakte Zeichen gelöst werden. Nehmen wir an, der

vorgeschichtliche Mensch habe Feuersteine hergestellt und sie zum Tausch angeboten. Um

dieses Geschäft bewältigen zu können, hat er Symbole erfunden (und mit anderen Menschen

vereinbart), die jeweils die Anzahl der Tauschobjekte oder deren Wert repräsentierten.

Dies mag ursprünglich so ausgesehen haben, wie es Abbildung 4 (links) zeigt. Dieses

Strichlisten-Verfahren ist heute noch gebräuchlich zum Beispiel bei einer Verkehrszählung

oder auf dem Bierdeckel in der Gaststätte. Auch der Ausdruck „etwas auf dem Kerbholz

haben“ ergibt sich übrigens so. Das Kerbholz war ein Gegenstand auf dem zum Beispiel

Schulden eingeritzt wurden, um Streitigkeiten zu vermeiden. Jeder konnte den Stand ablesen

und einer nachträglichen falschen Behauptung war vorgebeugt.

Mit der wachsenden Anzahl der zu zählenden Elemente nimmt bei diesem System natürlich

auch die Anzahl des wiederkehrenden gleichen Symbols zu. Bei großen Stückzahlen wird

das Ganze bald nicht mehr überschaubar.

Eine andere denkbare Möglichkeit der Darstellung von Zählergebnissen zeigt Abbildung 4

(rechts). Für jede bestimmte Anhäufung von abzuzählenden Elementen wird ein der Anzahl

entsprechendes Symbol gesetzt. Das Problem hierbei ist, dass mit größer werdender Anzahl

der Elemente irgendwann einmal der Vorrat an Symbolen erschöpft ist. Darüber hinaus führt

die Vielfalt der Symbole unvermeidlich zu Verwirrungen und zu Mißverständnissen.

I

II

III

I


Abbildung 4 : Zählen nach dem Strichlisten-Verfahren / Zählen durch Symbol-Zuordnung

Die große Errungenschaft des Zählens war die Begrenzung der Symbole. Das erstaunliche

war, dass ein System entwickelt werden konnte, das mit einer endlichen Anzahl von

Symbolen beliebig viele Zahlen beschreiben konnte. Dazu mussten die wenigen festgelegten

Symbole mehrfach verwendet werden. Die ersten Ansätze dazu finden sich bereits bei den

Römischen Zahlen. Je nach Kombination der Symbole ergeben sich verschiedene

Zahlenwerte, wobei das Repertoire der zur Verfügung stehenden Symbole begrenzt ist.

Allerdings war das System sehr unübersichtlich und damit nicht sehr praktisch. Dies zeigt

sich auch darin, dass in dieser Zeit nur sehr wenige mathematische Weiterentwicklungen

entstanden.

Der wesentliche Trick war dann ein so genanntes Positionssystem zu entwickeln. Dabei

verwendet man eine begrenzte Anzahl von verschiedenen Symbolen. Diese werden je nach

der Position auf der sie stehen unterschiedlich gewichtet.

22


Im dezimalen Zahlensystem werden die zehn verschiedenen Ziffern 0 bis 9 in der so

genannten Stellenschreibweise eingesetzt. So ist zum Beispiel die Zahl 124,3 als eine

Abkürzung der ausführlichen Summenschreibweise 1 * 100 + 2 * 10 + 4 * 1 + 3 * 0.1

aufzufassen. Die einzelnen Ziffern werden entsprechend ihrer Position im Stellensystem mit

Gewichten multipliziert, die Potenzen von 10 sind. Die 10 ist dabei die so genannte Basis, da

alle Gewichte in der Form 10 hoch x dargestellt werden können. Die Basis dieser Potenzen

gibt dem Zahlensystem den Namen „Zehnersystem“, also „Dezimalsystem“ oder auch

„dezimales Zahlensystem“.

Dezimalzahl ... 1 2 4 , 3 ...

Stelle ... 2 1 0 -1 .... 1 * 100 + 2 * 10 + 4 * 1 + 3* 0.1

Gewichtung 100 10 1 0.1

Abbildung 5 : Schematische Darstellung der Funktionsweise des Dezimalsystems

Man könnte natürlich ohne weiteres eine andere Zahl als Basis für ein Zahlensystem wählen.

So wird beim „Binären-“ oder „Dualsystem“ die Zwei als Basis genommen. Jetzt werden alle

Zahlen mit den Gewichten der Form 2 hoch x multipliziert. Wenn man zum Beispiel die dezimale

Zahl 11 binär darstellen will, muss man sie schrittweise in Potenzen von 2 auflösen. Dies sieht

dann so aus: 1 * 8 + 0 * 4 + 1 * 2 + 1 * 1. Also entspricht die binäre Zahl 1011 der dezimalen

11. Mit genau diesem Zahlensystem arbeiten die Digitalrechner, weil alle Zahlen mit nur zwei

Symbolen, eben der Null und der Eins dargestellt werden können. Mit Computern können aber

nicht nur Zahlen, sondern auch Schrift oder Bilder verarbeitet werden. Dies geschieht zum

Beispiel bei der Schrift durch Zuordnung von Buchstaben zu binären Zahlen. Die

Informationen müssen also codiert werden. Damit nicht jeder Rechner ein anderes System der

Zuordnung verwendet, wurden in diesem Zusammenhang Standards definiert. Einer dieser

Standards ist der so genannte ASCII-Code (American Standard Code for Information

Interchange). Er legt zum Beispiel fest, dass der Buchstabe „A“ den binären Code „1000001“

besitzt (dezimal 65). Über die Begriffe „Code“ und „Information“ wird im Folgenden noch

ausführlich zu sprechen sein. Denn wie bereits gesagt, werden ja auch Bilder derart codiert

und um diese wollen wir uns speziell kümmern.

2.5 Konsequenzen

Die Klärung der Begriffe und der Rückblick in die Begriffsgeschichte haben eine gute

Vorstellung von den Bedeutungen der Begriffe gegeben. Es ist jetzt klar, dass der Begriff

„digital“ in seiner Bedeutung, wenn er im Zusammenhang mit Medien verwendet wird, sehr

23


jung ist. Die neue Bedeutung im Sinne von „in Stufen, in Schritten“ wurde erst mit der

Entwicklung der „Ziffernrechenmaschinen“, also den „digitalen“ Rechnern geprägt. Diese sind

als Weiterentwicklung der bis dahin vorhandenen „analogen“ Rechner beziehungsweise

Rechenmaschinen entstanden. Wir haben gesehen, dass die „digitalen“ Rechner im

Unterschied zu den analogen Apparaten elektronisch und mit einem Zeichenvorrat arbeiten,

also mit einem vorgegebenen Symbolsystem. Dabei ist dieses Symbolsystem in seinem

Umfang beschränkt, besitzt nur endlich viele verschiedene Symbole.

Wir können festhalten, dass die Frage, warum analoge Medien, als analog bezeichnet

werden, zunächst nur teilweise beantwortet werden kann. Eine Möglichkeit der

Beantwortung ergibt sich aus der Bedeutung und der Begriffsgeschichte, indem man sagt,

dass analoge Bilder eine Entsprechung, dessen was sie darstellen, aufweisen. Dies wäre

zum Beispiel bei einem gemalten oder gezeichneten Porträt der Fall oder bei einer Fotografie

mit ihrer hohen „Wiedergabetreue“. In allen Fällen besteht sozusagen eine Ähnlichkeit

zwischen dem Bild und dem Abgebildeten. Dabei besitzt das Wort „analog“, wenn man es in

dieser Bedeutung versteht, kein zugehöriges Gegenstück in den Bedeutungen des Wortes

„digital“. In diesem Sinne kann im Übrigen auch ein digitales Bild analog sein. Wenn man daran

denkt, dass man eine Porträtfotografie auch „einscannen“, also in den Computer einlesen kann

und diese dann digital vorliegt. Hierbei würde es sich dann um ein analoges digitales Bild

handeln. Ein erster Eindruck der sich aufzwängt ist, dass wir mit den begrifflichen

Annäherungen keine besonders klare Vorstellung der spezifischen Eigenschaften der beiden

Medienklassen erhalten haben. Es scheint als wären die Begriffe nicht selbsterklärend.

Aber da gibt es ja noch die andere Bedeutungsebene der beiden Begriffe: „Analog“ im Sinne

von „kontinuierlich“, als Gegenstück zu „digital“ im Sinne von „in Stufen, in Schritten“ oder

auch „diskret“. Um dies auf die Situation der Bilder zu übertragen und den Zusammenhang zu

den Eigenschaften herstellen zu können, müssen wir uns im Folgenden etwas eingehender

mit den Medien und ihren Produktionsbedingungen beschäftigen.

24


3. Analoge und digitale Bildmedien

3.1 Grundsätzliches

Es gibt so genannte analoge und digitale Bildmedien 29 . Ziel dieses Kapitels soll es sein, die

Eigenschaften der analogen und digitalen Medien darzulegen. Wenn man dann die

Unterschiede betrachtet, kann man feststellen, welches die spezifische Eigenschaften der

analogen und digitalen Medien sind. Am Beispiel der Fotografie werden die Verfahren

vorgestellt und ihre Unterschiede heraus gearbeitet.

Die Fotografie bietet sich aus zwei Gründen an. Zum einen gibt es in der Fotografie beide

Verfahren, also sowohl die analoge, als auch die digitale Verarbeitung. Dies macht einen

Vergleich sinnvoll und auch einfacher. Zum anderen habe ich durch eigene künstlerische

Arbeit mit diesem Medium selbst praktische Erfahrungen sammeln können.

Um die Erkenntnisse allgemein zu halten, sie also nicht ausschließlich auf die Fotografie zu

beziehen, wird im Anschluss das grundsätzliche Prinzip der Digitalisierung und des inversen

Verfahrens der Analogisierung erläutert. Schließlich sollen also die beiden abstrakten

Transformationsprozesse dargestellt werden.

Im Folgenden werde ich mich im wesentlichen auf Veröffentlichungen von Christian

Wittwer 30 , sowie Gottfried Jäger 31 beziehen, weil ich bei der Durchsicht der Literatur viele

meiner Gedanken dort bereits angedacht fand.

29 „Das Wort Medium kann in drei verschiedenen Bedeutungen verstanden werden. So wird es im allgemeinen Sprachgebrauch

(erstens), als Wort, heißt Medium „Mittel“ oder „Vermittelndes“. In verschiedenen Disziplinen wird Medium sodann (zweitens) als

Fachbegriff verwendet. In diesem Sinn spricht die Pädagogik von den „Unterrichtsmedien“, die Literaturwissenschaft vom Medium

„Literatur“, die Musikwissenschaft vom „Medium Musik“, die Kunstwissenschaft vom „Medium Kunst“, die Sprachwissenschaft vom

„Medium Sprache“. In diesem Zusammenhang spielt aber der Medienbegriff keine zentrale Rolle für die jeweilige Fachwissenschaft;

vielmehr wird „Medium“ in aller Regel nur im übertragenen, analogen Sinn gebraucht, oder es dominiert der Charakter des

Instrumentellen. Darauf kann kaum deutlich genug hingewiesen werden: Wenn man vom Licht oder vom Rad, von der Uhr oder von der

Schreibmaschine usf. als von „Medien“ spricht (z.B. Marshall McLuhan), dann sind damit stets nur ganz allgemein, oft metaphorisch

umkleidet, Werkzeuge oder Mittel oder Instrumente gemeint. In dieser Form kann schlechthin alles ein Medium sein.

Einige Disziplinen widmen sich zentral dem „Medium“, und hier kann man nicht mehr lediglich von Begriffen oder gar nur Wörtern

sprechen, sondern hier wurde (drittens) komplexere theoretische Bedeutungen von „Medium“ als spezifische Phänomen entwickelt.

Schon in der Terminologie unterscheiden sich die Auffassungen beträchtlich voneinander: Einmal heißt Medium „Zeichenvorrat“

(Informatik und Kybernetik), dann „technischer Kanal“ (Kommunikationssoziologie und Massenkommunikationsforschung/Publizistikwissenschaft),

dann wiederum „ästhetisches Kommunikationsmittel“ (Einzelmedientheorie und

Medienwissenschaft) oder schließlich „gesellschaftliche Interaktion“ (Soziologie, speziell Systemtheorie). Neuerdings wird verstärkt

vom einzelnen Medium als einem eigenständigen „System“ gesprochen; teilweise meint System hier aber auch die Gesamtheit aller

Medien.“ Werner Faulstich (Hrsg.), Grundwissen Medien, 4. Auflage, Wilhelm Fink Verlag, München 2000, S. 21

Das Wort Medium wird im Folgenden in der Bedeutung „ästhetisches Kommunikationsmittel“ verwendet werden.

30 Christian Wittwer, Das digitale Bild ist keine Fotografie, in: Neue Zürcher Zeitung 8.11.1996

31 Gottfried Jäger, Andreas Dress (Hrsg.), Visualisierung in Mathematik, Technik und Kunst, Vieweg, Braunschweig, Wiesbaden 1999

25


3.2 Analoge und digitale Darstellungen

3.2.1 Einführung

Um analoge und digitale Medien zu verstehen, ist es nützlich zunächst eine Vorstellung von

analogen und digitalen Darstellungen zu haben. Eines der augenfälligsten

Unterscheidungsmerkmale zwischen analoger und digitaler Darstellung findet man bereits bei

der Darstellung von Größen- und Sachzusammenhängen. Zur Darstellung von Größen, zum

Beispiel physikalischer Natur, können zwei grundsätzlich verschiedene Prinzipien

angewendet werden. Beide gebräuchliche Darstellungsformen, die analoge wie auch die

digitale Darstellung, sind gewiß bekannt. Dennoch kurz zur Erinnerung ein erstes Beispiel:

Europa

Asien

Afrika

Amerika

Australien und Ozeanien

10 000 000 km 2

44 200 000 km 2

29 800 000 km 2

42 000 000 km 2

8 900 000 km 2

Abbildung 6: analoge bzw. digitale Darstellung der Landflächen der Erdteile

Es sind die Landflächen der Erdteile vergleichend darzustellen. In der analogen

Darstellungsform (Abbildung 6 links) werden die Landflächen der Erdteile zum Beispiel durch

Rechtecke dargestellt, deren Länge ein Maß für die Größe der Erdteile sind und die mit einem

Vergleichsnormal, zum Beispiel 1 cm = 10 Mill. km 2 , verglichen werden müssen. Es besteht

eine Analogie zwischen den Rechtecklängen und den Landflächen der Erdteile. Oder mit

anderen Worten: Die Längen der dargestellten Rechtecke stehen im richtigen Verhältnis zu

den Landflächen der Erdteile, es besteht Verhältnisgleichheit.

Bei der digitalen Darstellung der gleichen Gegebenheiten werden die Erdteilflächen durch

Zahlenangaben, das heißt durch ein Aneinanderreihen verschiedener Ziffern (digits),

dargestellt (Abbildung 6 rechts). Es ist ersichtlich, dass durch Hinzufügen weiterer Ziffern die

Genauigkeit der Flächenangaben erhöht werden könnte.

In der alltäglichen Welt sind nahezu alle Erscheinungen analog. Dabei können die

physikalischen Größen, mit denen Vorgänge beschrieben werden, beliebige Zwischenwerte

annehmen. Ein weiteres Beispiel kann diese verdeutlichen: Ein Auto beschleunigt von 0 auf

100 km/h. Während der Beschleunigung durchläuft es alle Geschwindigkeiten, die es

zwischen 0 km/h und 100 km/h gibt, also unendlich viele. Mit einem mechanischen

Tachometer, der mit einem Zeiger arbeitet, kann jeder dieser unendlich vielen

Geschwindigkeiten angezeigt werden, weil der Zeiger ebenfalls unendlich viele Positionen

überstreicht beziehungsweise anzeigt. Anschaulich verändert sich der Zeigerausschlag mit

26


steigender Geschwindigkeit. Der Zeiger ist daher ein analoges Meßgerät. Ganz anders sieht

es mit einem Tachometer aus, der die Geschwindigkeit mit Ziffern angibt. Dieser Tachometer

wird mit einer Geschwindigkeit von 0 km/h beginnen und dann während der Beschleunigung

über 1 km/h, 2 km/h usw. bis 100 km/h hochzählen. Ein solcher Tachometer liefert digitale

Daten. Er kann nur eine endliche Anzahl von Werten anzeigen. Alle Zwischenwerte werden

entweder aufgerundet oder abgerundet. Während also analoge Daten kontinuierliche Werte

mit beliebig vielen Zwischenstufen annehmen können, sind digitale Daten auf diskrete Werte

beschränkt. Dies ist als ein bedeutender Unterschied der beiden Darstellungsformen

festzuhalten.

3.3 Funktionsweise analoger / digitaler Medien am Beispiel der Fotografie

Diese beiden grundsätzlichen Prinzipien wirken auch in den künstlerischen Medien. Die

Fotografie bietet bei einer Untersuchung den Vorteil, dass beide Verfahren in der Fotografie

realisiert wurden. Im Folgenden werden die beiden Methoden zunächst von ihrer technischen

Seite beleuchtet. Daran schließt ein gründlicher Vergleich beider Medien an. Ausgehend vom

anschaulichen Beispiel, können dann die abstrakten Vorgänge im Digitalisierungs- und

Analogisierungprozess beschrieben werden.

3.3.1 Analoge Fotografie

„Fotografie ist die technologische Verknüpfung des optischen Prinzips der

perspektivischen Wahrnehmungsweise mit dem chemischen Aufzeichnungsverfahren der

empfindlichen fotografischen Schicht.“ 32

Was Bernd Busch hier kurz und prägnant beschreibt, sind die beiden Grundlagen der

analogen Fotografie. Hinter dem chemischen Aufzeichnungsverfahren stecken konkret die

lichtempfindlichen Eigenschaften von Silberhalogeniden, von der chemischen Verbindung

aus Silber und Halogenen (Brom, Chlor oder Iod). Bei der Belichtung eines Filmes, der aus

einer festen Dispersion von feinsten Silberhalogenidkörnern in einem Schutzkolloid

(Gelatine) auf einer transparenten Trägerschicht aus Celluloseacetat oder Polyester

besteht, gehen die Silberhalogenide chemische Reaktionen ein und bilden ein so genanntes

latentes Bild (die Dispersion wird im Allgemeinen Sprachgebrauch auch als Emulsion

bezeichnet). Bei der Entwicklung eines Filmes wird das latente – verborgene – Bild sichtbar

und beständig. Die so erhaltene Abbildung wird als Negativ bezeichnet, da in ihr dunkle

Stellen des Ursprungsmotivs hell, helle aber dunkel wiedergegeben werden. Bei

Farbnegativen sind Farbwerte komplementär wiedergegeben. In einem zweiten

32 Bernd Busch, Belichtete Welt - Eine Wahrnehmungsgeschichte der Fotografie, Fischer Verlag, Frankfurt am Main 1995, S. 8

27


Belichtungsprozess, bei dem der fotografische Papierabzug entsteht, werden diese Werte

erneut umgekehrt und so den realen Farbgegebenheiten des Motivs angepaßt (Negativ-

Positiv-Verfahren). Die für die Fotografie relevanten physikalischen Grundsätze sind

maßgeblich solche der geometrischen Optik. Dies gilt sowohl für die analoge, als auch für

die digitale Fotografie. Fotografische Filme weisen hinsichtlich ihrer Reaktionen auf

verschiedene Wellenlängen des Lichtes unterschiedliche Eigenschaften auf. Die ersten

Schwarzweißfilme reagierten nur auf die kürzeren Wellenlängen des sichtbaren Spektrums,

also auf blaues Licht. Später wurden den Filmemulsionen chemische Stoffe

(Sensibilisatoren) beigemischt, um die fotografische Schicht auch für andere Wellenlängen

empfänglich zu machen. So ist der orthochromatische Film für jedes Licht (außer für rotes)

empfindlich und stellte somit eine deutliche Verbesserung gegenüber dem blauempfindlichen

Schwarzweißfilm dar. Beim panchromatischen Film endlich sind der Emulsion auch

Sensibilisatoren für rotes Licht beigemischt, wodurch der Film für den gesamten sichtbaren

Spektralbereich empfänglich wird. Daher benutzt die Mehrzahl der Amateur- und

Berufsfotografen heute den panchromatischen Filmtyp. Eine spezielle Art des

Schwarzweißfilmes ist der Reprofilm, der in erster Linie zur Reproduktion in den

graphischen Künsten verwendet wird. Reprofilme sind extrem kontrastreich, so dass Bilder

entstehen, die als Werte nur Schwarz und Weiß, also keinerlei Grauabstufungen,

aufweisen. Weitere Spezialfilme sind für Wellenlängen empfindlich, die über das sichtbare

Spektrum des Lichtes hinausgehen. Dazu gehören zum Beispiel Infrarotfilme. Sofortbildfilme

für spezielle Kameras, die Ende der vierziger Jahre von Polaroid entwickelt wurden, geben

die fertigen Abzüge kurz nach der Aufnahme aus, dabei ist der Entwickler als Paste in das

Filmpapier integriert.

3.3.2 Digitale Fotografie

Von Digitaler Fotografie spricht man, wenn zur Aufnahme Kameras eingesetzt werden, bei

denen anstelle des Films eine aus CCD-Elementen gebildete Rezeptionsfläche in der

Fokussierebene liegt. Dieser Chip wandelt die einfallende Lichtenergie in elektrische Energie

um. Als Bildsensor ist er das Herzstück der Digitalen Kamera und seine Qualität entscheidet

letztlich über die Qualität der Fotos. Zu den wichtigsten Charakteristika zählen die Anzahl der

Sensorzellen (Pixelauflösung) und die Art, wie die Farbinformation gewonnen wird.

Die Mehrzahl aller digitalen Video- und Fotokameras ist derzeit noch mit CCD-Bildsensoren

ausgestattet. Jedes Sensorelement besteht aus einer lichtempflindlichen Fotozelle und einer

ebenso winzigen Speicherzelle. Fotozellen wandeln Licht in elektrische Spannung, die sofort

in der Speicherzelle als elektrische Ladung gespeichert wird. Das Akronym „CCD“ steht dabei

für „charge coupled devices“ (etwa „ladungsgekoppelte Halbleiterelemente“). Der Name

verweist auf die zeilenweise Zusammenschaltung der einzelnen Elemente, die das lineare

28


„Herausschieben“ der elektrischen Ladungen mittels eines Taktsignals erlaubt. Die Ladungen

werden einfach von Element zu Element durchgereicht,

bis die Zeile leer ist. Auf diese Weise

entsteht aus den ursprünglich parallel

vorliegenden Informationen ein serielles Signal,

wie es die Computertechnik benötigt. CCD-

Sensoren, die nur aus einer Zeile bestehen,

arbeiten übrigens seit langem in Faxgeräten und

Flachbettscannern. Der Papiertransport oder das

Bewegen eines Schlittens unter dem

Vorlagenglas schafft dabei die zweite Dimension,

die dem Zeilensensor fehlt. In Kameras

Analog-Digital-Wandler, ein elektronisches

Gerät, mit dem analoge Daten für elektronische

Anlagen wie Digitalcomputer, digitale Kassettenund

Videorekorder und Kommunikationsgeräte in

digitale Daten umgewandelt werden. Als Eingabe

erhält der Wandler analoge oder kontinuierlich

variierende elektrische Wellen, deren Werte in

gleichbleibenden Zeitabständen gemessen werden

(Sampling). Diese Werte drückt das Gerät als

digitale Zahl aus. Die sich ergebenden Digitalcodes

können in verschiedenen Arten von

Kommunikationssystemen verwendet werden.

sind ganze CCD-Matrizen (Flächensensoren) eingebaut, doch das Prinzip bleibt gleich. In

digitalen Video- und Fotokameras wird das analoge Signal mit einem Analog-Digital-Wandler

(A/D-Wandler) in Zahlenwerte umgewandelt. Das Hauptkennzeichen eines Bildsensors ist

die Anzahl der Sensorzellen. Sie bestimmt maßgeblich die erzielbare Bildauflösung und wird

bei Digitalkameras oft als Pixelauflösung angegeben. Strenggenommen ist die in Pixel

gemessene Bildauflösung jedoch nur dann mit der Anzahl der CCD-Zellen identisch, wenn es

sich um einen Sensor für Schwarzweiß-Aufnahmen handelt. Bei den Farbdigitalkameras für

den Consumerbereich liegt die theoretisch erzielbare Bildauflösung, physikalisch bedingt,

immer unter der Anzahl der Sensorzellen.

CCD-Sensoren sind nämlich, genauso wie Silberhalogenidkristalle, grundsätzlich nicht farbsondern

nur lichtempflindlich. Es gibt momentan verschiedene Verfahren, um zu den

Farbinformationen zu gelangen. Man kann beispielsweise drei Filterfolien in den Grundfarben

Rot, Grün und Blau nacheinander über den Sensorchip legen und jeweils eine Aufnahme

machen. Eine andere Möglichkeit ist das Ausleuchten des Motivs mit Lampen in den drei

Grundfarben, ebenfalls nacheinander. Da für eine Farbaufnahme drei Einzelaufnahmen

notwendig sind, heißen diese Kameras Multi-Shot-Kameras.

Statt einen Chip durch drei Farbfilter dreimal zu belichten, kann man auch drei Sensorchips,

die jeweils ihren eigenen Farbfilter tragen, optisch parallel schalten (mittels halbdurchlässiger

Spiegel). Auch hierbei entstehen drei Bilder in den Grundfarben, doch nun mit einer einzigen

Aufnahme, man spricht von One-Shot-Kameras. Diese Technik ist aber nur in professionellen

Video- und Digitalkameras verwirklicht.

Außerhalb der Studios sind solche Techniken zu langsam, zu teuer oder beides.

Digitalkameras für den Consumer-Markt arbeiten deshalb mit Sensorchips, deren

lichtempfindliche Zellen jede für sich farbempfindlich gemacht wurden. Dazu dienen

fotochemisch aufgebrachte, transparente Lack-Linsen in den Grundfarben Rot, Grün und

Blau. Die Farben wechseln von Zelle zu Zelle. Ähnlich arbeitet das Auge, dessen Netzhaut ja

bekanntlich ebenfalls drei Sorten von farbempfindlichen Zäpfchen enthält.

29


Die Farbfähigkeit wird bei dieser Methode allerdings mit einer Verringerung der Auflösung

erkauft, denn für ein Bild-Pixel mit der vollen RGB-Farbinformation werden die Werte von drei

Fotozellen benötigt. In der Praxis versucht man durch geschickte Interpolation den

Auflösungsverlust zu verringern. Trotzdem kann die Pixel-Auflösung einer Digitalkamera, die

nach diesem Prinzip arbeitet, nie mit der Anzahl der lichtempfindlichen Elemente auf dem

Sensorchip identisch sein. Letztere wird aber in der Werbung und in den Produktinformationen

als Pixel-Auflösung beworben. Eine Kamera mit einer Auflösung von 1,5 Megapixel (1,5

Millionen) Sensorzellen hat streng genommen nur eine physikalische Auflösung von etwa

500.000 Pixeln, auch wenn sie durch Interpolation beispielweise 1,3 Millionen Pixel große

Bilder liefert. Die Physik setzt sich trotz aller Interpolationstricks durch, in diesem Fall durch

Kantenunschärfe und Farbsäume bei Strukturen, die bei echten 1,5 Millionen Pixeln noch

einwandfrei abgebildet werden müssten.

Ganz so streng muss man jedoch nicht sein, denn schließlich ist auch das Auge ein sehr

unvollkommenes Gebilde. Bekanntlich ist es für Farbinformationen wesentlich weniger

empfindlich als für Helligkeitsunterschiede. Die Farbauflösung darf also geringer sein als die

Schwarz-Weiß-Auflösung eines Bildes. 33

3.4 Was unterscheidet analoge und digitale Fotografie

Nachdem jetzt die technischen Grundlagen vorgestellt worden sind, kann man sich genauer

auf die veränderten Produktionsbedingungen einlassen. Dabei gibt es verschiedene Punkte an

denen man die Veränderungen ausmachen kann. Diese werden im Folgenden einzeln

besprochen. Wie bereits kurz erwähnt, kann man durch die verschiedenen

Produktionsbedingungen davon ausgehen, dass die erzeugten Bilder Unterschiede aufweisen

werden. Insofern ist eine Untersuchung dieser Art von erheblichem Interesse, um die

spezifischen Eigenschaften der analogen und digitalen Bilder zu erhalten. Ein anderer Aspekt

zielt auf die Qualität der Arbeiten, die mit den neuen Verfahren hergestellt werden. Denn erst

durch das Wissen um die spezifischen Eigenschaften, können die Möglichkeiten ausgeschöpft

werden und das Medium im künstlerischen Prozess sinnvoll eingesetzt werden.

Dazu Gottfried Jäger: „Die Unterscheidung erweist sich heute als notwendig, um eine

„Fotografie nach der Fotografie“ zu beschreiben. Es ist dabei unumgänglich, sich das

bisher Selbstverständliche, die analoge Eigenschaft des Fotos, erneut bewußt zu machen,

um das „andere“ das digitale Foto, von ihm zu unterscheiden.“ Und ein anderer Aspekt: „Es

ist wichtig, diese Unterschiede kenntlich zu machen, denn die Präzision künftiger

Kommunikation wird von dieser Unterscheidung mit abhängig sein.“ 34

33 Vgl. Tim Daly, Handbuch digitale Photographie, Benedikt Taschen Verlag, Köln 2000, S.32-34

34 Gottfried Jäger, Abbildungstreue. Fotografie als Visualisierung: Zwischen Bilderfahrung und Bilderfindung, in: Gottfried Jäger,

Andreas Dress (Hrsg.) (1999), S. 146-147

30


Das Verständnis für Digital Imaging führt also zur Präzisierung zukünftiger Bildfindungen, über

die ja die visuelle Kommunikation abläuft. Diese ist aber nur mit einem vorhandenen Wissen um

die analoge Fotografie möglich. Auch deshalb scheint es mir sinnvoll im Folgenden einen

gründlichen Vergleich anzustellen.

3.4.1 Kameramodelle

Betrachtet man zunächst die äußere Erscheinung der Kameramodelle, muss man feststellen,

dass sich die Geräte eigentlich kaum voneinander unterscheiden. Erst sehr spät kamen die

Hersteller auf die Idee, das Design der digitalen Fotoapparaten zu verändern. Denn durch die

neue Technik sind gewisse Konstruktionsvorgaben nicht mehr notwendig und man kann den

inneren Aufbau der Apparate neu gestalten. So ergibt sich heute ein neues Erscheinungsbild

der Digitalkameras, die bekannten Gehäuseformen wurden durch veränderte abgelöst. Bisher

wurde durch die äußere Ähnlichkeit suggeriert, dass beide Apparate auch gleich arbeiten.

Aber wie zuvor gezeigt wurde, hat man es mit zwei sehr verschiedenen Verfahren der

Aufzeichnung von Bildinformationen zu tun.

Christian Wittwer, der 1996 in der Neuen Zürcher Zeitung eine Serie von Artikeln zur digitalen

Fotografie veröffentlichte, beschreibt die Situation wie folgt: „Äußerlich haben sich die

Geräte erst spät gewandelt, denn anstatt von Grund auf neue Kameramodelle zu

konstruieren, werden schon vorhandene Gehäuse (von Nikon und Canon) zu Digitalkameras

umgerüstet, wodurch bestehendes Zubehör weiter eingesetzt werden kann. Dies hat den

Nachteil, dass eine enge Verwandtschaft zwischen analoger und digitaler Bildtechnologie

angenommen wird, dies umso mehr, als das Endresultat, das Bild als Farbprint oder

Druckerzeugniss, keine Rückschlüsse auf seine Entstehungsgeschichte mehr zulässt.“ 35

Dies zeigt die Problematik. Im Prinzip stellt er dasselbe fest, spricht aber noch einen

interessanten Punkt an. Er bemerkt, dass man am Endresultat keine Rückschlüsse mehr auf

die Enstehungsgeschichte des Bildes ziehen kann. Hierin besteht natürlich ein großes

Problem. Wenn man an den fertigen vorliegenden Bildern nicht mehr erkennen kann, wie sie

erzeugt wurden, ist es zum Beispiel unmöglich auf die bisher gewohnte hohe Authentizität

des analogen Bildes zu vertrauen. Das ist ein sehr sensibler Bereich. Denn es könnten den

Bildkonsumenten sehr leicht „gefakte“ Bilder untergeschoben werden, denen sie hilflos

ausgeliefert sind. 36 Auf die Differenz der Authentizität wird noch eingehend in Kapitel 3.4.6

eingegangen.

35 Christian Wittwer (1996), S. 37

36 vgl. hierzu auch Christian Doelker, Ein Bild ist mehr als ein Bild: visuelle Kompetenz in der Multimedia-Gesellschaft, Klett-Cotta,

Stuttgart 1997, S.24-28

31


3.4.2 Die Bezeichnung Digital Imaging

In einem seiner Artikel nimmt Wittwer eine aus meiner Sicht sinnvolle Begriffsbestimmung vor.

Er sieht den Begriff der „Digitalen Fotografie“ als unzutreffend an und äußert: „Der Begriff

Digitale Fotografie ist irreführend, denn er impliziert, dass es sich bei der neuen digitalen

Bildtechnologie nur um eine technische Weiterentwicklung der konventionellen

Silbersalzverfahren handelt.“ und schlägt weiter vor: „Digital Imaging ist als Begriff

konsistenter.“ Er begründet seine Aussage wie folgt: „ ...denn er verweist nicht mehr auf den

vom griechischen "phos"=Licht und "graphein"=schreiben abgeleiteten Begriff Photographie,

also auf den Vorgang des selbsttätigen Einschreibens von Information in die

lichtempfindliche fotografische Schicht. Zudem umfasst Digital Imaging mehr, nämlich alle

Verfahren zur Bearbeitung und Visualisierung digitaler Daten.“ 37

Ich halte diese Argumentation und die daraus resultierende Begriffsbestimmung für sinnvoll

und werde im weiteren die neue Bezeichnung verwenden. Denn Digital Imaging ist, wie

gesagt, nicht nur eine Weiterentwicklung der analogen Fotografie, sondern birgt vielmehr neue

Eigenschaften und Möglichkeiten, wie die der Bearbeitung und Visualisierung digitaler Daten.

Zunächst einmal nimmt die Loslösung vom Ausdruck „Fotografie“ die Nähe zur konventionellen

Fotografie. Und Digital Imaging meint mehr. Es ist nicht nur der Moment der Aufnahme, sondern

ist vielmehr als ein Prozess zu verstehen. Der Ausdruck weist so deutlicher auf die

unterschiedlichen Verfahren hin.

3.4.3 Technische Differenzen der Verfahren

Nachdem wir uns bereits die technischen Unterschiede vor Augen geführt haben, werden

nun die daraus resultierenden Konsequenzen, die ja im Bild wirken, betrachtet.

3.4.3.1 Informationsmodifikation

Eine aus der Technik resultierende Differenz ist die, der unterschiedlichen

„Informationssammlung“. Es werden also unterschiedliche Abbilder eines Urbildes erzeugt.

Konkret heißt das: Wenn man mit einer konventionellen Kamera und einer Digitalkamera vom

gleichen Standpunkt aus, also vom gleichen Punkt im Raum, eine Aufnahme mit denselben

Einstellungen macht, entstehen nicht dieselben Bilder, weil nicht dieselben Objektpunkte

„eingesammelt“ werden. Für dieses Problem der Differenz liefert Jäger eine Beschreibung,

indem er den Unterschied zwischen analoger und Digital Imaging im Bild wie folgt erklärt: „Im

konventionellen Foto entspricht jeder Bildpunkt einem - „seinem“ - Objektpunkt. Beide

Punkte sind durch den Lichtstrahl ursächlich miteinander verknüpft: Das Bild ist Ergebnis

37 Christian Wittwer (1996), S. 37

32


einer Analogie zwischen der Welt außerhalb und innerhalb der Kamera. Es entsteht bei der

Belichtung und in der Regel in einem kurzen Augenblick, „mit einem Mal“, als komplexer,

ganzheitlicher Vorgang, nicht etwa durch einen Aufbau Punkt für Punkt. Diese beiden

Prinzipen, Analogie und Komplexität, sind bei der digitalen Bildherstellung aufgehoben. Das

„Foto“ mutiert von einem komplexen in ein lineares Medium. Sein Bild ist nicht mehr wie

vorher „mit einem Mal“ da, sondern es wird Punkt für Punkt und Zeile für Zeile in einen

elektronischen Datenträger eingelesen - gescannt - , dort entsprechend gespeichert und

später weiterverarbeitet.“ 38

In seiner Beschreibung steckt zunächst eine brauchbare Definition für den Begriff analog,

indem er das Bild als „Ergebnis einer Analogie zwischen der Welt außerhalb und innerhalb

der Kamera“ sieht. Es besteht sozusagen Verhältnisgleichheit zwischen dem erzeugten Bild

und den Objekten, die abgebildet wurde. Dies wäre auch sehr nahe an der Bedeutung des

Begriffes, die uns die Etymologie geliefert hat (vgl. Kapitel 2.1.1).

Die Aussage, dass im konventionellen Foto jeder Bildpunkt „seinem“ Objektpunkt entspricht, ist

intuitiv nachvollziehbar, aber entspricht so nicht den technischen Gegebenheiten. Dann

müssten beide Punktmengen gleichmächtig sein, die Anzahl der Punkt im Urbild und im

resultierenden Foto gleich groß sein. Es würde sich also um eine bijektive Abbildung

handeln 39 . Tatsächlich aber gibt es natürlich nur endlich viele Molekülstrukturen auf der

Oberfläche, die sich durch eintreffende Photonen verändern können. Es werden also mehrere

einfallenden Lichtstrahlen, in etwa wie in einem Trichter, zusammengefasst und an ein Molekül

gebunden. Die Information anderer Lichtstrahlen geht dabei vielleicht ganz verloren. Die

Aussage, dass somit beide Punkte ursächlich miteinander verknüpft sind, ist somit nicht

haltbar.

Was man sagen kann ist, dass die analoge Fotografie zur Zeit noch die wesentlich höhere

Auflösung bietet. Es findet aber auch bei der analogen Fotografie ein „massiver“

Informationsverlust statt. Dabei spreche ich hier nicht das Problem der Reduktion der

Informationskanäle an. Also das Wegfallen von Sound, Gerüchen, Zeitverlauf, der dritten

Dimension etc.. Mit zunehmender Verbesserung des Aufzeichnungsverfahren beim Digital

Imaging wird diese Grenze aber irgendwann genommen werden. Da die technischen

Möglichkeiten ständig weiterentwickelt werden, wird es nur eine Frage der Zeit sein, bis dies

geschehen wird. Jäger spricht aber auch von der Mutation des Fotos von einem komplexen in

ein lineares Medium. Das wäre also eine Überführung vom überdeterminierten Bild 40 in eine

lineare Form, also eine Art Text. Dies scheint mir ein weiterer wichtiger Punkt. Denn im Text

ist die Lesart bekannt und die Überbestimmung aufgehoben. Dies ist ja tatsächlich so, denn

38 Gottfried Jäger , Abbildungstreue. Fotografie als Visualisierung: Zwischen Bilderfahrung und Bilderfindung, in: Gottfried Jäger,

Andreas Dress (Hrsg.) (1999), S. 146

39 Zu den Begriffen „gleichmächtig“ und „bijektiv“ siehe Kapitel 3.4.7.2

40 Gottfried Boehm spricht im Zusammenhang der konkreten Kunsterfahrung, der Rezeption von Bildern, von einem unausschöpfbaren

Potenzial, das durch eine unerhörte Überdetermination gekennzeichnet ist, weil es eine unabsehbare Zahl von Konjunktionen der

Bildelemente gibt. Gottfried Boehm: Kunsterfahrung als Herausforderung der Ästhetik, in: Willi Oelmüller (Hrsg.), Kolloquium Kunst

und Philosophie 1: Ästhetische Erfahrung, Schöningh Verlag, Paderborn 1981, S.19

33


das als codierte Information vorliegende digitale Bild kann nur reproduziert werden, indem es

ausgelesen und erzeugt wird. Also ist die Lesart in dieser Weise bekannt.

3.4.3.2 Zeitlichkeit

Die entstehende Linearität bewirkt aber noch eine weitere Veränderung des Bildes. Die

Zeitlichkeit, die im Bild steckt ist eben eine andere, wie die der analogen Fotografie. In der

analogen Fotografie können die Lichtstrahlen für einen festgelegten Zeitraum, eben während

der Belichtungszeit, durch das Linsensystem auf den Film gelangen. Dabei gelangen alle

Lichtstrahlen synchron, was Jäger als ganzheitlichen und komplexen Vorgang beschreibt,

gleichzeitig auf den Film und werden dort festgehalten. Dagegen haben wir beim Digital

Imaging das „lineare Herausschieben“ der Bildinformationen. Wenn im analogen

Aufzeichnungsprozess jeder Raumpunkt seine relative Position zum Nachbarpunkt behält,

werden die Bildpunkte beim Digital Imaging neu angeordnet und verlieren so die frühere

Zeitlichkeit. Während beim analogen Foto die Struktur der Bildpunkte zueinander auf eine

gewisse Weise erhalten bleibt, wird diese beim Digital Imaging aufgelöst.

Betrachtet man den Vorgang genauer wird es wirklich komplexer. Denn ein Lichtstrahl

bewegt sich mit einer immens hohen Geschwindigkeit von ca. 300.000 km/s und dennoch

benötigt er Zeit für den Weg den er zurückgelegt hat. Sind also die Objekte die fotografiert

werden in unterschiedlichem Abstand zur Fotokamera, so benötigen die ausgesandten

Lichtstrahlen verschiedene Zeiten. Dies würde aber bedeuten, das man generell im

festgehaltenen Bild verschiedene Zeitlichkeiten festhält. Also noch einmal etwas abstrakter:

Belichtet man im Zeitraum t0 bis t1 den Film, so sind die Objekte im Abstand s0 Distanzeinheiten

(z.B. Meter) zur Realzeit t0 - k0 bis t1 -k0 festgehalten und die Objekte im Abstand s1

Distanzeinheiten (z.B. Meter) zur Realzeit t0 - k1 bis t1 -k1. Wobei sich die Verschiebungs-

Summanden k1 und k2 aus der Zeit die das Licht vom Objekt auf den Film benötigt berechnen.

Also k0 = s0 / c und k1 = s1 / c , wobei c = const. die Lichtgeschwindigkeit darstellt. Der

Sachverhalt spielt natürlich bei geringen Distanzdifferenzen eine kleine Rolle. Mit

zunehmenden Distanzdifferenzen ∆s entsteht ein nicht unerheblicher Unterschied in der

festgehaltenen Realzeit der Objekte. Dies wird besonders offensichtlich bei astronomischen

Aufnahmen, wie man sie auch zum Beispiel im Werk von Thomas Ruff 41 sehen kann. Ruff

thematisiert genau dieses Phänomen, indem er Sternenbilder aus dem Archiv der ESO

(European Southern Observatory) ankauft, nachbearbeitet und ausstellt. Als

Lichtzeichnungen im ursprünglichsten Sinn zeigen sie genau die unterschiedliche Zeitlichkeit

der Sterne zu einem bestimmten Aufnahmezeitpunkt. Das gezeigte Phänomen wirkt aber

sowohl bei der analogen, wie auch beim Digital Imaging, führt also zu keiner Unterscheidung.

41 Thomas Ruff: Fotografien 1979 - heute, hg. von Thomas Winzen, Ausstellungskatalog: Baden-Baden 2001/02, Verlag der

Buchhandlung Walther König, Köln 2001, S.193

34


3.4.4 Unmittelbare Wahrnehmung als Differenz

Einen anderen Aspekt der Unterscheidung erwähnt Wittwer. Für ihn „handelt es sich beim

fotografischen Bild um ein analoges Medium, denn die Information ist für den Menschen

unmittelbar erfassbar und nicht codiert.“ 42 Eine Fotografie ist also dann analog, wenn sie für

unser kognitives System unmittelbar wahrnehmbar ist. Ich halte diese Auffassung für

fragwürdig, denn wie bereits erläutert (vgl. Kapitel 3.3.1) entsteht im Verlauf des analogen

Bilderzeugungsprozesses zunächst ein so genanntes latentes Bild. Dies ist der Schritt, wenn

das Licht, das von den aufgenommenen Objekten reflektiert wurde, auf den Film auftritt. Wir

haben jetzt einen Zustand, in dem die Bildinformationen übertragen wurden, die eigentliche

Abbildung also statt gefunden hat und dennoch kann zu diesem Zeitpunkt die Information nicht

unmittelbar mit unseren Sinnen erfasst werden. Erst über einen chemischen

Transformationsprozess erhält man das Negativ und die Information wird uns zugänglich.

Dennoch ist diese Definition nicht ganz von der Hand zu weisen. Die analog fotografierten

Objekte liegen nämlich sofort wieder materiell in einer Weise vor, dass wir sie nur für unsere

Augen sichtbar machen müssen. Dies geschieht beim Entwicklungsprozess, durch chemische

Verfahren. 43 Beim Digital Imaging haben wir die Bildinformation codiert als Zeichenkette von

Nullen und Einsen vorliegen. Über den Aspekt der Codierung kann man aber geteilter Meinung

sein. Man könnte auch argumentieren, dass das latent vorliegende Filmbild eine Codierung,

also einen Code des Urbildes darstellt.

Umberto Eco liefert für den Begriff des „Codes“ folgende vorläufige Definition: Ein Code ist

„jedes System von Symbolen, welches durch vorherige Übereinkunft dazu bestimmt ist, die

Information zu repräsentieren und sie zwischen Quelle und Bestimmungspunkt zu

übertragen“ 44 . Geht man von dieser Definition aus, dann ist aus meiner Sicht auch das latent

vorliegende Filmbild ein Code. Denn die Farbpunkte sind Symbole in Abhängigkeit der Position,

die Information repräsentieren und zwischen Sender und Empfänger übermitteln können.

Wobei der Empfänger die Information eben nur technisch abfragen kann, die Entschlüsselung

mit seinen Sinnen nicht möglich ist. Beide Medien sind aber auf eine andere Art codiert.

Während beim analogen Bild die Struktur des Urbildes erhalten bleibt, wird diese im digitalen

Bild linearisiert und so aufgelöst. Auf die offensichtliche Codierung des digitalen Bildes

werden wir in Kapitel 4 noch ausführlich eingehen.

42 Christian Wittwer (1996), S. 37

43 Filme müssen nicht unbedingt entwickelt werden. So verwendete zum Beispiel Daguerre zunächst Jodsilberplatten, bei denen das

Bild bei sehr langer Belichtungszeit von selbst erscheint. Dies ändert aber nichts an der Tatsache, dass das Bild materialisiert vorliegt.

Vgl. Bernd Busch (1995), S.186

44 Umberto Eco, Einführung in die Semiotik, Wilhelm Fink Verlag, München 1972, S.19

35


3.4.5 Medientheoretische Unterscheidung

Die unterschiedliche Rezeptionsweise der beiden Medien ermöglicht auch eine Zuordnung zu

verschiedenen Kategorien nach medientheoretischen Gesichtspunkten. Sieht man von dem

Punkt ab, dass bei der analogen Fotografie zunächst ein latenten Bild entsteht, dass sich auch

unserer unmittelbaren Wahrnehmung entzieht, scheint dies nützlich.

Wittwer: „In der Medientheorie mit ihrer charakteristischen Unterscheidung von Primär-,

Sekundär- und Tertiärmedien wird der Unterschied zwischen Fotografie und Digitaler

Bildbearbeitung explizit. Während ein Sekundärmedium wie die Fotografie den

Technikeinsatz nur auf der Produktionsseite kennt, charakterisieren sich Tertiärmedien

durch den Technikeinsatz sowohl auf der Produktions- als auch auf der Rezeptionsseite.

Das konventionelle fotografische Bild ist dem menschlichen Wahrnehmungsapparat direkt

zugänglich, das digitale erst über einen Transformationsprozess.“ 45

Interessant ist die Unterscheidung durch die Zuordnung der analogen Fotografie zu den

Sekundärmedien und des Digital Imaging zu den Tertiärmedien. 46 Durch die vorgenommene

Einbettung in die Medientheorie wird ein gravierender Unterschied erneut offensichtlich, der

uns im Folgenden noch beschäftigen wird: Der notwendige Einsatz von Technik im

Rezeptionsprozess beim Digital Imaging. Denn beim Digital Imaging liegt das digitale Bild

zunächst als lineare „immaterielle“ Information vor und muss über Einsatz von Technik

umgewandelt, materialisiert werden. Der Ausdruck „immateriell“ ist folgendermaßen zu

verstehen. Es ist klar, dass es unmöglich ist Informationen ohne Veränderungen von Materie

„dauerhaft“ zu speichern. Gespeicherte Information ist meiner Auffasung nach eigentlich

immer eine Zustandsveränderung von Materie. Auch der vorliegende Bildcode muss

irgendwie auf einem Datenträger zwischengespeichert werden, zum Beispiel auf einer

Diskette, einer MOD (Magnetical Optical Disc) oder einer Festplatte. In diesem Zustand ist er

materialisiert, zum Beispiel durch Ausrichtung der Spins der Elektronen der mikroskopischen

Eisenteilchen durch Magnetköpfe beim Schreiben der Daten. Der Code selbst aber, der dann

wieder abgerufen und im Lesevorgang hergestellt wird, ist eine reine Aneinanderreihung von

Ziffern. Beim Binärcode sind dies eben Nullen und Einsen. Der Code ist natürlich immateriell,

denn die Zeichen, die Ziffern des Codes sind abstrakte Erfindungen vom Menschen erdacht

und sind keine materiellen Objekte. In dieser Weise ist die Immaterialität des Codes zu

verstehen.

So muss also beim Digital Imaging, das digitale Bild, das zunächst als lineare „immaterielle“

Information vorliegt, über Einsatz von Technik umgewandelt, materialisiert werden. Es ist

bekannt, dass die so erzeugten Erscheinungen des Bildes sehr unterschiedlich ausfallen

können. So sieht die Ausgabe auf einem Bildschirm sicherlich anders als ein Ausdruck auf

45 Christian Wittwer (1996), S. 37

46

„Durchgesetzt hat sich weitgehend die Unterscheidung in Primärmedien (das heißt Medien ohne notwendigen Einsatz von Technik

wie z.B. das Theater), Sekundärmedien (mit Technikeinsatz auf der Produktionsseite wie z.B. die Zeitung) und Tertiärmedien (mit

Technikeinsatz auf Produktions- und Rezeptionsseite wie z.B. die Schallplatte). Ergänzend spricht man inzwischen auch von

Quartärmedien...“, in: Werner Faulstich (2000), S.21

36


einem Drucker aus. Genau mit diesem Problem hat ja die Zunft der Grafik-Designer zu

kämpfen. Die Problematik, die hier angesprochen wird, berührt wieder einmal die Frage nach

der Substanz des digitalen Bildes, das sich ja so unterschiedlich manifestieren kann. Damit

werden wir uns ebenfalls noch eingehend in Kapitel 4 beschäftigen.

3.4.6 Die veränderte Authentizität

Ein viel diskutierter Aspekt ist die Frage der Objektivität, besser der Authentiziät der Bilder

beim Digital Imaging. Oft wird gefordert, dass Begriffe wie Glaubwürdigkeit, Wahrheit und

Echtheit in diesem Zusammenhang neu ausgelotet werden müssen. Denn beim Digital Imaging

haben wir die Situation, dass die so erzeugten Bilder nicht mehr aufgrund kausaler

Zusammenhänge zwischen Urbild und Abbild entstehen, sondern ganz für sich stehen. Ein

weiterer Gesichtspunkt ist der Prozess der digitalen Nachbearbeitung. Er ist im Vergleich zur

herkömmlichen Retusche technisch wesentlich ausgefeilter. Das heißt die Möglichkeiten der

Manipulation sind erheblich größer und aufgrund der „verlorenen Spuren“ des

Arbeitsprozesses (vgl. Kapitel 5) ist eine nachträgliche Überprüfung des Bildes

ausgeschlossen. Außerdem kann das digitale Bild komplett am Computer künstlich erzeugt

werden. Hier bricht der Realitätsglaube an die Fotografie endgültig zusammen. Es gibt keine

Realitätsreferenz mehr, wie in der analogen Fotografie.

Wittwer dazu: „Das digitale Bild, seinem Wesen nach nicht mehr direkt mit einem realen

Objekt verknüpft, erhebt keinerlei Anspruch auf Authentizität. Es ist ganz sich selbst und

lässt keinen Rückschluss zu, dass das abgebildete Objekt auch wirklich existent war.“ 47

Dies wirft natürlich die Frage nach der Authentizität der Fotografie im Allgemeinen auf. Warum

ist die analoge Fotografie überhaupt ein Bild, dem so hohe Glaubwürdigkeit zugeschrieben

wird. Letztendlich hat sich dies ja auch auf Medien, wie das Fernsehen oder das Kino mit

seinen Filmen übertragen. Vielleicht hängt die starke Authentizität des analogen Bildes mit der

Tatsache zusammen, dass nur das abgebildet werden kann, was faktisch vorhanden ist. Das

Bild zeichnet sich selbst, durch die einfallenden Lichtstrahlen, die durch optische Verfahren in

ihre Bahn gezwungen werden, so dass wir ein perspektivisches Bild erhalten, dass unserer

gewohnten, durch doppelkonvexe Linsen geprägten Wahrnehmung sehr nahe kommt. Und

doch müssen wir es gelernt haben, diese „imaginativen“ Bilder, wie sie Vilém Flusser nennt,

zu lesen. 48 Denn sie sind Ausschnitte aus der vierdimensionalen Raumzeit und reduziert auf

zwei Dimensionen. Trotz dieser Umstände erkennen wir eine starke Ähnlichkeit zwischen der

Realität und den abgebildeten Objekten.

47 Christian Wittwer (1996), S. 37

48 Vgl. Vilém Flusser, Für eine Philosophie der Fotografie, 9. Auflage, European Photography, Göttingen 2000, S. 8

37


Wobei uns der Grad der Ähnlichkeit zwischen der Realität und der Abbildung sehr hoch

scheint, was vielleicht mit der Strukturerhaltung und der Farbimitation in gemeinsamer

Verbindung zu erklären ist.

Ein interessanter Ansatz, diese Strukturerhaltung zu beschreiben, findet sich bei Gernot

Böhme. Er versucht über eine Verbindung zum mathematischen Begriff der Abbildung der

Frage nach der Authentizität des Fotos näher zu kommen:

„Die Behauptung, dass Fotos realistisch seien, findet ihre Stütze auch von

wissenschaftlicher bzw. technischer Seite her, und zwar mit Hilfe des Begriffs der

Abbildung. Dieser Begriff ist wesentlich bestimmter bzw. kann bestimmter sein als der

Begriff der Mimesis. [...] Der Begriff der Abbildung aber läßt sich so verschärfen, dass damit

eine ganz spezifische Relation zwischen Urbild und Abbild gemeint ist. Solche

Verschärfungen finden sich in der Mathematik. Hier spricht man von der Abbildung einer

Menge in die andere, wenn jedem Element der ersten Menge mindestens ein Element der

zweiten zugeordnet ist. Man nennt sie eindeutig, wenn jedem Element aus der ersten Menge

nur ein einziges Element aus der zweiten zugeordnet ist, sonst mehrdeutig. Man nennt eine

Abbildung umkehrbar, wenn aufgrund der Abbildungsrelation auch jedem Element der

zweiten Menge ein Element der ersten Menge zugeordnet ist; man nennt sie umkehrbar

eindeutig, wenn jedem Element der zweiten Menge nur ein einziges Element der ersten

Menge zugeordnet ist.“ 49

Böhme versucht sich also vom Begriff der „Mimesis“ zu lösen und diesen zu verschärfen.

Das fotografische Bild hat für ihn also nicht nur nachahmenden Charakter, sondern lässt sich

aufgrund der zugrundeliegenden geometrischen Optik mit naturwissenschaftlicher Präzision

beschreiben. Dies geschieht indem er den mathematischen Begriff der Abbildung verwendet

und damit auch das sehr schwierige Diskussionsfeld um die Ähnlichkeit von Abbildungen

verlassen kann.

Hier muss man allerdings kurz intervenieren. Die Äußerung, dass man von einer Abbildung

einer Menge in eine andere spricht, wenn jedem Element der ersten Menge mindestens ein

Element der zweiten zugeordnet ist, muss auf genau ein Element korrigiert werden. Sonst

handelt es sich auf keinen Fall um eine Abbildung im mathematischen Sinn. Um weitere

Unklarheiten vorzubeugen halte ich es für sinnvoll die verwendeten Begriffe in Kapitel 3.4.7

kurz zu erläutern.

Nach Böhme lassen sich die Methoden der Mathematik sehr gut auf die Verhältnisse der

Fotografie anwenden. Die im Produktionsprozess eingesetzte geometrische Optik, kann mit

den Gesetzen der Physik beschrieben werden, und lässt sich damit mathematisch

formalisieren. Da es sich dabei zumindest im theoretischen Sinne um eine bijektive Abbildung

handelt, sind die Abbildungsverhältnisse beim Fotografieren eindeutig und umkehrbar.

Eindeutig deshalb, weil es sich um eine Abbildung handelt und umkehrbar, weil diese bijektiv

ist. Somit existiert, wie gezeigt, die Umkehrabbildung. Aber die technische Realität setzt

49 Gernot Böhme, Theorie des Bildes, Wilhelm Fink Verlag, München 1999, S.115-116

38


Schranken und so sind diese Verhältnisse im Konkreten eingeschränkt, einerseits durch die

Schärfe des Bildes und andererseits durch die Körnigkeit des Fotos. Unschärfe bedeutet,

dass einem Punkt des Originals nicht nur ein Punkt auf dem Bild, sondern ein Hof um einen

Punkt zugeordnet ist. Dieses Phänomen ist durch das fotografische Verfahren bedingt. Wie

bereits angesprochen, wird dadurch nicht jedem Lichtstrahl ein materielles Gegenstück zur

Verfügung gestellt, das dessen Bildinformation aufnehmen kann.

Körnigkeit bedeutet, dass ein ganzer Hof des Originals nur einem Rasterpunkt, das heißt also

dem Korn entspricht. Aber diese Beschränkungen des Auflösungsvermögen, die durch die

Körnigkeit gegeben ist und die durch die Linsenoptik bedingte beschränkte Schärfe, setzen

nur der technischen Realisierung des Abbildungsprinzips Schranken. Diese können durch

verbesserte Technik immer wieder verschoben werden.

Das hindert aber nicht, dass das Prinzip eindeutiger Abbildung praktisch gültig ist, das heißt es

lässt sich für den jeweiligen Verwendungszweck mit hinreichender Genauigkeit realisieren.

Das ist allerdings ein sehr starkes Argument für den Realismus von Fotos. Es wird noch

dadurch verstärkt, dass dieses Prinzip als Naturgesetz der geometrischen Optik, realisiert im

technischen Apparat, unabhängig vom jeweiligen Benutzer wirkt.

Insofern kann das entstandene Bild, wie Eco sagt, als ein natürliches Zeichen angesehen

werden, nämlich als Spur, die aufgrund kausaler Prozesse von dem Gegenstand, den das Bild

bezeichnet, selbst erzeugt wird. 50 Man könnte also einen Apparat aufstellen, der automatisch,

durch einen Timer gesteuert, Aufnahmen durchführt. Dies könnte in der Abwesenheit und

damit unabhängig von Personen geschehen. Ich möchte aber kurz anmerken, dass sich ein

generatives Computerbild selbst „schreibt“. Wir erhalten auch hier ein Bild aufgrund kausaler

Prozesse. Es wäre aber fraglich, ob man dabei den Apparat als Produkt eines theoretischen

Konzeptes mit dem ausführenden Computerprogramm vergleichen könnte.

Der Charakter der Fotografie wird nun noch durch den Begriff des Isomorphismus präzisiert

(vgl. Kapitel 3.4.7 ). Eine Abbildung nennt man isomorph, wenn die Beziehungen von Punkten

des Urbildes den Beziehungen der Punkte des Abbildes entsprechen, also die Art der

Beziehung der Punkte untereinander erhalten bleibt.

Dies kann im schärfsten Fall bedeuten, dass die Punkte des Abbildes in derselben Relation

wie die Punkte des Urbildes stehen, also das zum Beispiel die Größenverhältnisse erhalten

bleiben oder dass eine gerade Linie im Urbild sich als gerade Linie im Abbild wiederfindet.

Genau diese Verschärfung kann aber im fotografischen Bild gar nicht realisiert sein, weil ja

das abfotografierte Urbild dreidimensional, das Abbild nur zweidimensional ist. Hier sind die

Verhältnisse durch die Zentralperspektive geregelt. Das Foto entspricht danach einer

Schnittfläche des Kegels, der vom Augenpunkt zum im Bild sichtbaren Ausschnitt der

Wirklichkeit durch gerade Linien konstruiert werden kann.

50 Vgl.Umberto Eco, Zeichen. Einführung in einen Begriff und seine Geschichte, Suhrkamp Verlag, Frankfurt am Main 1977, S.37

39


Daraus folgt, dass die Beziehungen zwischen zwei Punkten des Urbildes sich zwar nicht als

dieselben Beziehungen zwischen den Punkten des Abbildes wiederfinden, wohl aber dass

diese Beziehungen selbst zueinander in einem rationalen Verhältnis stehen. Sie werden

nämlich in einem von der Richtung abhängigem Maß verkürzt oder verlängert. Auch hieraus

ergibt sich wieder ein starkes Argument für den Realismus von Fotos: Die Verhältnisse, die

zwischen den Teilen des Originals bestehen und also seine Struktur ausmachen, finden sich

in rational nachprüfbarer Weise im Bild wieder. 51

Alle diese Eigenschaften besitzt das digitale Bild prinzipiell auch, sofern es sich um eine

Abbildung der sinnlich wahrnehmbaren Welt und nicht um ein generatives Bild handelt. Also

zum Beispiel eine mit einer Digitalkamera aufgenommene Stadtsituation.

Aber die bereits gezeigten Unterschiede in der Zeitlichkeit des Abbildungsprozesses, der Art

und Weise, wie die Bildinformationen gesammelt und festgehalten werden, lassen Zweifel

aufkommen, ob es sich hierbei tatsächlich um gleiche Bilder handelt, da die Bedingungen

derart voneinander abweichen. Vor allem die potenziell vorhandene Möglichkeit der

Bildbearbeitung, oder schärfer gesagt der bewussten Manipulation, führt zu einem weitaus

stärkeren Vertrauensverlust an den Bildern. Diese könnten ja sogar vollständig am Rechner

erzeugt sein, also evolutionäre oder generative Bilder sein, die selbstständig durch

Algorithmen entstehen. „Das Reale weicht dem Kalkulierten, das jetzt das eigentliche Reale

wird. Die Fiktion wird zum Faktum, das Foto gerät zu einer Einbildung. Glaubwürdig ist jetzt

nur noch das Bild als Bild im Zusammenhang mit anderen Bildern und Texten.“ 52

Es geht also ein hohes Gut verloren, die Beweiskraft. Der Konsens über die Abbildungstreue

des Apparates verliert durch das Digital Imaging an Bedeutung.

51 Vgl. Gernot Böhme (1999), S.115-117

52 Gottfried Jäger , Abbildungstreue. Fotografie als Visualisierung: Zwischen Bilderfahrung und Bilderfindung, in: Gottfried Jäger,

Andreas Dress (Hrsg.) (1999), S. 148

40


3.4.7 Abbildungen, Mengen und andere mathematischen Begriffe

Hierzu ein kurzer mathematischer Exkurs als Einschub. Die folgenden Begrifflichkeiten sind

sicherlich nicht adhoc für jedermann zu verstehen, es erfordert vielleicht ein wenig Geduld

und Ausdauer sich die Begrifflichkeiten zu erarbeiten. Es ist aber im Zusammenhang der

Beschreibung von Authentizität von Böhme, die auf den Abbildungsbegriff baut, unumgänglich

diese Vorarbeit zu leisten.

Unter einer Abbildung versteht man als Künstler zum Beispiel eine „realistische“ Darstellung

einer Landschaft oder vielleicht eines Menschen. Wenn also ein Bild in seiner Ähnlichkeit dem

ursprünglichen Anlass sehr nahe kommt. Was ist nun aber eine Abbildung im mathematischen

Sinn? Aus der Schule kennt man den Begriff der Funktion, der dort eine zentrale Rolle spielt.

Im Prinzip bezeichnen beide Begriffe denselben Sachverhalt, wobei der Begriff der Abbildung

den allgemeineren Charakter besitzt.

Der Abbildungsbegriff beruht auf den Mengenbegriff. Als Begründer der Mengenlehre gilt

Georg Cantor (1845-1918). Die Mengenlehre hat nahezu alle Gebiete der Mathematik

entscheidend vorangebracht beziehungsweise erst ermöglicht und hat sich zu einem

zentralen Fundament der Mathematik entwickelt.

3.4.7.1 Der Mengenbegriff

Bevor man den Begriff der Menge verwenden kann, muss zunächst einmal geklärt werden,

was man denn unter diesem verstehen will. Aus dem alltäglichen Sprachgebrauch haben wir

eine intuitive Vorstellung einer Menge. Eine Menge wird in diesem Zusammenhang oft als

Anhäufung, Ansammlung oder auch als Größenangabe verstanden.

In der Mathematik ist es häufig notwendig, gewisse Zahlen oder sonstige mathematische

Objekte mit gemeinsamen Eigenschaften zusammenzufassen. Dazu dient der Begriff der

Menge. Der grundlegende Begriff der Mengenlehre ist die Elementbeziehung. Cantor lieferte

eine Definition, die den Mengenbegriff wie folgt bestimmt: Eine Menge A ist eine

Zusammenfassung bestimmter, wohlunterschiedener Objekte a unserer Anschauung oder

unseres Denkens zu einem Ganzen.

Diese Objekte heißen Elemente der Menge. Man kann nun unterscheiden, ob ein Objekt zur

Menge gehört oder nicht. Wenn nun ein Element a zur Menge A gehört, so schreibt man a ∈ A,

sonst a ∉ A. So könnte man zum Beispiel verschiedene Städtenamen zu einer Menge

zusammenfassen. Dies könnte die Menge M:={Berlin, Stuttgart, Ludwigsburg} sein. Man

verwendet dabei die so genannte Aufzählung in geschweiften Mengenklammern. Die

Elemente diese Menge wären „Berlin“, „Stuttgart“ und „Weimar. Das heißt das Element „Berlin“

gehört zur Menge und die Stadt „Freiburg“ gehört nicht zur Menge. Man würde deshalb

schreiben Berlin ∈ M und Freiburg ∉ M.

41


Ein wichtiger Begriff ist die Teilmenge. Nimmt man aus einer Menge einen Teil oder auch die

ganze Menge heraus, nennt man die neu entstehende Menge Teilmenge.

Damit kann man nun den Begriff der „disjunkten Teilmenge“ erläutern. Wenn man es schafft

eine Menge in Teilmengen aufzuteilen, die jeweils keine gemeinsamen Elemente besitzen, so

spricht man von einer Disjunktion oder disjunkten Teilmengen. Dies heißt aber auch das es

möglich ist, das jedes Element der Ausgangsmenge einer der vorhandenen Teilmenge

eindeutig zuzuordnen. Die von Cantor entwickelte Definitionen werden heute gelehrt und

ständig verwendet, es ist aber bekannt, dass der so genannte „naive“ Mengenbegriff bei der

Betrachtung von unendlichen Mengen zu erheblichen Widersprüchen, so genannten

Antinomien führen kann. Denn man hat festgestellt, dass es Sinn macht, auch Mengen mit

unendlich vielen Elementen bezüglich der Anzahl ihrer Elemente zu unterscheiden. Damit

werden wir uns später noch eingehend beschäftigen.

3.4.7.2 Der Abbildungsbegriff

Unter einer Abbildung versteht man nun die eindeutige Zuordnung der Elemente einer Menge A

zu den Elementen einer Menge B. Jedem Element von A muß genau ein Element von B

zugeordnet sein, verschiedenen Elementen von A kann aber dasselbe Element von B

zugeordnet sein. Ist f eine solche Abbildung, so schreibt man

f: A à Z

und sagt: f ist eine Abbildung von A in Z. Man nennt A die Ausgangsmenge oder

Definitionsmenge von f und Z die Zielmenge, Wertemenge oder Bildmenge von f.

3.4.7.3 Abbildungstypen

Auf den Abbildungsbegriff aufbauend, kann man verschiedene Arten von Abbildungen

unterscheiden. Dies ist wichtig, da diese wiederum verschiedene Eigenschaften besitzen. Im

wesentlichen unterscheidet man drei Arten von Abbildungen.

Ordnet die Abbildung f dem Element a ∈ A das Element z ∈ Z zu, so heißt z das Bild von a

unter der Abbildung f, und man schreibt

f: a à z oder f(a)=z.

Bestehen die Mengen A und Z aus Zahlen, so verwendet man auch die Bezeichnung

Funktion.

Eine Abbildung f: A à Z heißt injektiv oder eine Injektion, wenn zwei verschiedene Elemente

von A immer zwei verschiedene Bilder haben, wenn also für a1 ≠ a2 auch f(a1) ≠ f(a2) gilt.

Eine Abbildung f: A à Z heißt surjektiv oder eine Surjektion, wenn jedes Element von Z als Bild

vorkommt, wenn für jedes z ∈ Z also ein a ∈ A mit f(a)=z existiert.

42


Eine Abbildung heißt bijektiv oder eine Bijektion, wenn sie injektiv und surjektiv ist. Jedes

Element z ∈ Z ist dann Bildelement von genau einem Element a ∈ A.

Ist f: A à Z eine bijektive Abbildung dann existiert die Umkehrabbildung f -1 : Z à A

Eine bijektive Abbildung ist also umkehrbar. Die bijektive Abbildung spielt auch im Vergleich von

Mengen eine Rolle. Wenn man wissen will, ob zwei gegebene Mengen gleich „groß“ sind, also

gleich viele Elemente besitzt, versucht man eine bijektive Abbildung zwischen beiden

anzugeben. Gelingt dies besitzen beide Mengen gleich viel Elemente und man nennt sie

gleichmächtig, wenn man zeigen kann, dass es eine bijektive Abbildung zwischen beiden gibt.

Denn dann wird ja jedem Element der ersten Menge, genau ein Element der zweiten

zugeordnet. Wenn man zum Beispiel wissen will, ob in einer Schulklasse gleichviel Jungen

und Mädchen sind, kann man versuchen Pärchen aus jeweils einem Jungen und einem

Mädchen zu bilden. Gelingt dies, so dass niemand übrig bleibt, hat man die Menge der Jungen

der Menge der Mädchen bijektiv zugeordnet. Es sind also gleichviel Mädchen und Jungen in

der Klasse.

3.4.7.4 Der Isomorphismus

Aufbauend auf den Begriff der bijektiven Abbildung, lassen sich nun Abbildungen

beschreiben, bei denen zusätzlich die Beziehungen der Elemente untereinander erhalten

bleiben. Die Struktur der Elemente wird also mit abgebildet. Es besteht sowohl im Urbild, als

auch im Bild dieselbe Struktur der Elemente zueinander. Eine Abbildung mit den oben

genannten Eigenschaften nennt man Isomorphismus. Als Beispiel könnte man sich ein

dreidimensionales Modell der Planeten des Sonnensystems vorstellen. Im Modell haben sich

verschiedene Eigenschaften im Vergleich zum Original verändert. Das Modell ist zum Beispiel

in der Größe geschrumpft aber die Struktur der Planeten, die Größenbeziehungen und

Stellungen der Planeten zueinander ist erhalten geblieben.

43


3.5 Digitalisierung / Analogisierung

3.5.1 Einführung

Wie die verschiedenen Apparate arbeiten, haben wir am Beispiel der Fotografie

beziehungsweise des Digital Imaging gesehen. Dabei haben wir bis jetzt nur am Rande über

den Übergang vom analogen zum digitalen Bild gesprochen, wie er ja auch zum Beispiel beim

Digital Imaging passiert. Hier haben wir zunächst die analoge Erscheinung der Welt und

erhalten als Endergebnis ein digital umgesetztes Bild. Den Vorgang der Umsetzung nennt man

Digitalisierung. Da herkömmliche Computer nur mit digitalen Daten umgehen können, müssen

analog vorliegende Daten zunächst digitalisiert werden. Dabei ist gerade der eigentliche

Umwandlungsprozess, also der Übergang vom analogen zum digitalen Bild von großem

Interesse. Denn an dieser Stelle erhält das zukünftige digitale Bild seine Beschaffenheit.

Die Frage was beim Erzeugen eines digitalen Bildes eigentlich genau passiert, soll im

Folgenden geklärt werden. Dabei werden wir auch vom Bild weggehen und etwas abstrakter

über den Transformationsprozess sprechen. Doch zunächst zu den Bildern.

Abbildung 7: Illustration des Digitalisierungspozesses 53

Um Bilder mit Rechnern verarbeiten zu können, müssen sie in Datenformate umgesetzt

werden, die rechnerkompatibel sind. Das heißt die Bilder müssen derart aufbereitet werden,

dass sie der Computer „versteht“. Für fotografische Vorlagen oder Strichzeichnungen

werden hierzu so genannte Scanner oder auch Zeilenabtaster eingesetzt. Das eigentliche

Gerät, das die Umwandlung vornimmt, ist ein Analog-Digital-Wandler. In Digitalkameras findet

dieser Vorgang ebenfalls mithilfe eines A/D-Wandlers statt.

53 Bildquelle: http://www.agfanet.com/de (07.01.2002)

44


3.5.2 Umwandlung von Bildern

Zwei Vorgänge sind bei der Umwandlung von Bildern von besonderer Bedeutung, zum einen

die Rasterung, zum anderen die Quantisierung.

Bei der Rasterung wird das vorliegende Bild durch die Überlagerung eines zumeist

rechteckigen oder quadratischen Gitters in einzelne Rasterflächenstücke unterteilt. Die

Rasterung des Bildes überführt dieses in ein zweidimensionales rechteckiges Zahlenschema,

eine so genannte Bildmatrix. (Abbildung 8) Eine Zeile der Bildmatrix wird als Bildzeile, eine

Spalte wird als Bildspalte und eine Rasterfläche, also ein Bildelement, als Bildpunkt, oft auch

als Pixel bezeichnet. Pixel ist ein Kunstwort, gebildet aus der englischen Bezeichnung „picture

elements“. Die Bildmatrix selbst kann unterschiedliche Geometrien aufweisen. Für die

zweidimensionale Bildmatrix wird fast ausschließlich eine rechteckige Basiszelle benutzt und

keine quadratische, da die gängigen Bildformate rechteckig sind (Kleinbildfilme: 24 x 36 mm,

Videobilder haben ein Seitenverhältnis von 3 zu 4), aber im digitalen Bild eine gleiche Anzahl

von Bildpunkten in beiden Koordinaten erwünscht ist. Ein Bildpunkt auf dem Gitter nennt man,

wie bereits gesagt, Pixel. Die Pixelposition wird mit einem Zahlenpaar (m,n) ∈ (0,..,M-1,0,..,N-

1) angegeben. Mit n bezeichnet man auch den Zeilenindex und entsprechend bezeichnet m

den Spaltenindex, dabei ist N die Zeilenanzahl und M die Spaltenanzahl der Matrix. Durch die

Beschaffenheit der Bildmatrix, es handelt sich hierbei um eine so genannte diskrete

Geometrie, ergeben sich verschiedene Konsequenzen. So können die Bildinhalte nur um

bestimmte Winkelgrade gedreht werden, bei quadratischen Rastern um ein Vielfaches von

90°. Auch bei der Vergrößerung oder Verkleinerung von Bildinhalten ergeben sich

ungewünschte Veränderungen.

Abbildung 8: Rasterung des Bildes

Die Rasterung führt zu einer Begrenzung der Auflösung des Bildes. Je feiner das Raster ist,

das über die Vorlage gelegt wird, desto höher ist die resultierende Auflösung des Bildes. Es

gibt also mehr Bildelemente, Pixel pro Längeneinheit (Zentimeter, Inch oder ähnliches).

Die Rasterung erfolgt teilweise schon bei der Aufnahme eines Bildes mit einer digitalen Fotooder

Videokamera, welche die ortsabhängige Lichtintensität des projizierten Bildes in

45


elektrische Signale überträgt. Eine konventionelle Röhrenkamera zerlegt ein Bild durch

zeilenweises Abtasten mit einem Elektronenstrahl in einzelne Zeilen. Damit ist die vertikale

Rasterung schon gegeben. Eine CCD-Kamera hat als Sensor ein zweidimensionales Feld von

Photodioden. Jede dieser Dioden kann als Rasterpunkt einer diskreten zweidimensionalen

Bildmatrix betrachtet werden. Beim „einlesen“ einer Vorlage geschieht die Rasterung beim

Scannen. Dabei können sich in Abhängigkeit von der Lage des Originals auf dem

quadratischen Raster Unterschiede in der Form ergeben.

Zur Quantisierung wird jeder dieser Rasterflächen mit einer der vorgegebenen Farb- oder

Grauwerte, im einfachsten Fall nur schwarz oder weiß, gefüllt. Das heißt jeder Rasterfläche

muss einer der zur Verfügung stehenden Farbwerte zugeordnet werden. Dabei muß

entschieden werden, welcher der Farbwerte in Frage kommt. Das Problem an dieser Stelle ist,

daß den „kontinuierlich“ vorliegenden Farbwerten des Urbildes nur endlich viele Werte des

zukünftigen Bildes gegenüberstehen.

Zur Erläuterung nehmen wir einmal an, dass wir ein analoges Schwarz-Weiß-Bild

digitalisieren wollen, wobei wir im digitalen Bild nur zwei Grauwerte verwenden wollen. Im

vorliegenden Beispiel (Abbildung 9) haben wir also zunächst ein analoges „Schwarz-Weiß-

Bild“. Bei diesem Grautonbild erfolgt die Abbildung des Motivs durch unterschiedliche

Schwärzung der Photoschicht. Im Quantisierungsprozeß wird nun jedem Farbwert, hier

Grauwert, des Originals ein möglicher Farbwert zugeordnet. Das heißt konkret es können nur

die zwei Farbwerte „weiß“ und „schwarz“ zugeordnet werden. Dazu muss überprüft

werden, wie stark ein Bildpunkt vom Objekt überdeckt ist. Wenn die Fläche eines Bildpunktes

zu 50% oder mehr vom Objekt überdeckt wird, wird dieser Schwarz gefärbt, sonst ist er

weiß.

Abbildung 9: Quantisierung des Bildes mit zwei Grauwerten

So erhalten wir das Computerbild. Dieses Schwarz-Weiß-Bild ist nur aus zwei Grautönen

(Schwarz und Weiß) zusammengesetzt. Hier werden also nur zwei Farbwerte zur

Verfügung gestellt. Es ist klar, dass die Farbqualität des Bildes umso besser wird, je mehr

Grauwerte zur Verfügung stehen. Dabei ist eine Grauwertmenge von 256 Grauwerten in den

meisten Fällen für das menschliche Auge ausreichend.

Bei Farbbildern läuft dieser Vorgang gleich ab, nur daß anstatt der Grauwerte nun echte

Farbwerte zur Auswahl stehen. Meist werden in mehreren Schritten die drei Grundfarben

46


zugeordnet, also drei Bilder erzeugt, die dann miteinander verrechnet werden. Es werden so

genannte Rot-, Grün- und Blauauszüge angefertigt. Jeder der drei Abtastvorgänge ergibt ein

Grundfarben-Teilbild des entstehenden Bildes. Schließlich können die jetzt „digital“, als

Zahlenwerte vorliegenden Bilder gespeichert werden und stehen für die Weiterverarbeitung

zur Verfügung.

3.5.3 Umwandlung abstrakt betrachtet - Theorie

Wir wollen uns primär um Bilder kümmern, aber man kann den Digitalisierungsvorgang auch

abstrakt betrachten, also losgelöst von der konkreten Anwendung. Dies ist nützlich, um den

Ablauf prinzipiell zu verstehen.

Ausgehend von analogen Daten, die vielseitig vorliegen können, als Bild, als Schallwelle (Ton,

Geräusch) oder auch als abstrakte Messdaten, geht es im Digitalisierungsprozess darum, die

Informationen derart zu codieren, dass sie unter Verwendung eines begrenzten Repertoires

an Zeichen dargestellt werden können.

Abbildung 10: analoges Bild mit

überabzählbar vielen Bildpunkten

Mathematisch schreiben wir die Digitalisierung des Bildes als Abbildung f einer

zweidimensionalen Bildfunktion mit einem unendlichen Definitionsbereich auf eine

zweidimensonale Matrix mit diskretem Definitionsbereich:

f: g( x1, x2) à g(m,n) ; x1, x2 ∈ R m, n ∈ N

dabei können die Funktionswerte g(m,n) der Matrix noch Werte aus einem unendlichen

Wertebereich annehmen. Dies stellt den Zustand des Bildes nach der Rasterung dar. Dazu

müssen die kontinuierlich vorliegenden Informationen abgetastet werden. Das heißt es

müssen im weitesten Sinn Messungen vorgenommen werden. Diese Messungen finden in

gleichmäßigen Abständen statt, das heißt die Rasterpunkte sind äquidistant zueinander.

Handelt es sich zum Beispiel um musikalische Daten wird dieser Vorgang auch Sampling

genannt. Hier findet eine Abtastung in gleichen Zeitabständen statt Die Samplingrate oder

Samplingfrequenz, gibt also darüber Auskunft, wie oft pro Sekunde (Hz = 1/s) Informationen

47


abgetastet werden. Es ist klar, dass die Qualität der digitalisierten Daten umso höher ausfällt,

je öfter die analogen Werte abgefragt werden.

4,34532...

Abbildung 11: gerastertes Bild mit endlich vielen Bildpunkten

Dabei ist auch klar, dass alle Werte des Originals, die zwischen zwei Messpunkten liegen

verloren gehen. Dies gilt selbstverständlich sowohl für Bilder, wie auch Sound und andere

Daten. Wenn man nur einen Teil der vorliegenden Daten auswählt, geht der andere Teil

selbstverständlich verloren, man verliert also zwangsläufig ein gewisses Maß an Information.

In diesem Zusammenhang spricht Goodman von Tilgung 54 , was den Sachverhalt sehr

anschaulich nahelegt. Auf die Bilder übertragen, wäre dies der Fall, wenn das Gitter bei der

Rasterung zu grob gewählt wurde. Dann wäre die sich ergebende Auflösung des Bildes

derart unscharf, dass ein „Wiedererkennen“ des ursprünglichen Bildes unmöglich wäre. 55

Dies also ist der Zustand nach der Rasterung des Bildes. Der Verlust ist aber auch

vorhanden, wenn wir dies nicht mehr mit unserem kognitiven System überprüfen können, die

Ausmaße der Verluste also außerhalb des für uns sinnlich Wahrnehmbaren liegen.

Abbildung 12: Prinzip der Digitalisierung

54 Nelson Goodman (1998), S. 158

55 Vergleiche hierzu auch die Arbeit von Holger Friese (Berlin). Friese verwendete in seiner Installation eine digitalisierte Version des

Filmes „Zabriskie Point“ aus den 60-er Jahren, den er auf 3x3 Pixel reduziert. Die verbleibenden 9 Pixel zeigt er mit großen von Innen

beleuchtbaren Kisten, die auf- und nebeneinander gestapelt als Quadrat angeordnet sind. Es geht ihm dabei genau um die Frage der

Wiedererkennung, also um die Grenze der Auflösung. Dabei hat er die visuelle Grenze verschoben, indem er einen zusätzlichen Kanal,

nämlich den der Musik ins Spiel bringt. Friese spielt zum 3x3 Pixel Bild den Original Soundtrack des Filmes synchron ab, also unter

anderem die psychedelische Musik von Pink Floyd. Er versetzt den Betrachter in dieser Weise in einen merkwürdigen Zustand der

Wiedererkennung und der Irritation.

48


Im zweiten Schritt der Quantifizierung werden die noch kontinuerlich vorliegenden Werte den

zur Verfügung stehenden diskreten endlichen Farbwerten zugeordnet. Es muß also wie

bereits erläutert werden, welcher Farbwert für welchen Datenwert in Frage kommt. Wenn

man eine Größe, die beliebig viele Zwischenstufen annehmen kann, in eine andere mit nur

bestimmten Werten umwandelt, verliert man zwangsläufig ein gewisses Maß an Information.

4

Abbildung 13: gerastertes und quantifiziertes Bild

Beide Aspekte bestimmen wesentlich die Qualität und davon abhängig die Datenmenge.

In der Praxis stellt man die Samplingrate beziehungsweise die Empfindlichkeit des

Messvorgangs bei der Digitalisierung deshalb oft so ein, dass der Informationsverlust

möglichst vernachlässigbar gering ist und die Datenmenge nicht zu groß wird. Man kann

diesen Informationsverlust sehr gut anhand von digitalisierten Fotos sehen. Je weniger

verschiedene Farben und je weniger Bildpunkte im digitalisierten Bild verwendet werden,

desto größer der Informationsverlust. Letztendlich ist die Digitalisierung ein Vorgang, bei dem

Erscheinungen der wirklichen Welt (Bilder, Töne, Messwerte etc.) in Folgen von Bits

umgewandelt werden. Je genauer die Digitalisierung erfolgt, desto umfangreicher sind diese

Bitfolgen. Allein mit solchen Bitfolgen kann ein Computer umgehen. Weil ein Computer nur

begrenzte Kapazitäten besitzt, um solche Bitfolgen zu speichern, kann die Digitalisierung nur

mit begrenzter Genauigkeit erfolgen. Ein Problem der Digitalisierung, ist die mögliche

Verfälschung als Folge des Informationsverlustes. Das Phänomen tritt dann auf, wenn die

Abtastrate ungünstig gewählt wurde, und die erhaltenen Messdaten ein „falsches“ Bild des

ursprünglichen Sachverhaltes wiedergeben.

Abbildung 14: Prinzip des Sampling

49


Dieser Vorgang ist in Abbildung 14 dargestellt. Während im linken Bild die Abtastrate

angemessen gewählt wurde, ist dies im rechten Bild nicht der Fall. Betrachtet man die

resultierenden schwarzen Punkte der Messung, also die digitalen Daten, erhält man im linken

Bild einen sinnvollen Eindruck des Verlaufs der Kurve. Dies ist im rechten Bild nicht der Fall,

hier kann man keine Aussagen mehr über den ursprünglichen Verlauf der Kurve machen. Als

anschauliches Beispiel kann man sich ein gewöhnliches Flüssigkeitsthermometer vorstellen,

an dem man alle 10 Minuten die Temperatur abliest.

Wenn man die abgelesenen Temperaturwerte vor sich liegen hat, ist es im nachhinein

unmöglich Aussagen darüber zu machen, welche Temperaturen zwischen zwei Messungen

geherrscht haben. Intuitiv würde man davon ausgehen, dass bei einer Erhöhung der

Temperatur von 2° auf 5° diese langsam angestiegen ist. Es wäre aber auch durchaus

denkbar, dass die Temperatur zwischenzeitlich auf 8° gestiegen ist und dann wieder auf 5°

gefallen ist. Dies kann aufgrund der vorliegenden Daten nicht mehr mit Sicherheit rekonstruiert

werden. In umgekehrter Weise funktioniert die Analogisierung von Daten. Dabei übernimmt ein

so genannter Digital/Analog-Wandler die Aufgabe der Umwandlung. Es ist klar, dass bei

diesem Vorgang, die Werte wieder ergänzt werden müssen. Goodman spricht in diesem

Zusammenhang anschaulich von „Ergänzung“.

3.7 Spezifische Eigenschaften

Nachdem wir jetzt am Beispiel der Fotografie beziehungsweise des Digital Imaging die

Unterschiede der beiden Medienarten, also der „analogen“ und „digitalen“ Bildmedien heraus

gearbeitet haben, können wir versuchen die spezifischen Eigenschaften noch einmal kurz

anzugeben. Zumindest die, die wir bis jetzt herausgefunden haben. Wir müssen uns aber

auch um die Übertragung auf die anderen künstlerischen Medien kümmern. Die Frage die sich

stellt, ist, ob sich bei den herausgefundenen Eigenschaften, vielleicht nur um spezielle

Eigenschaften der Fotografie handelt. Welche der gefundenen Eigenschaften darf man auf

andere Bildmedien übertragen? Im Folgenden werde ich versuchen eine kurze

Zusammenfassung dessen zu geben.

3.7.1 Analoge Bildmedien

Eine der wichtigen Eigenschaften der analogen Bildmedien, haben wir festgestellt, ist die der

unmittelbaren Wahrnehmung. Sie sind für den menschlichen Wahrnehmungsapparat

unmittelbar erfassbar. Dieses Phänomen zeigt sich in der Malerei, der Zeichnung, aber auch in

den reproduzierbaren Medien wie der Fotografie oder der Druckgrafik.

In den ersten beiden Fällen haben wir eine materielle Beschaffenheit, die im Arbeitsprozess

festgelegt wird, und die jederzeit unmittelbar sinnlich erfasst werden kann. So funktioniert ja

50


überhaupt der Arbeitsprozess, durch ständig wiederholtes Bearbeiten, Wahrnehmen und

Reflektieren und erneutes Verändern des als unfertig eingeschätzten.

Bei den reproduzierbaren Medien haben wir zunächst eine „Form“, aber auch diese kann

eigentlich immer visuell erfasst werden und Künstler die mit diesen Medien, zum Beispiel der

Radierung arbeiten, lernen mit der Zeit diese schon im Zustand der Form zu „lesen“ und zu

„schreiben“. Eine Ausnahme wäre dagegen die analoge Fotografie, bei der zunächst ein

„latentes“ Bild entsteht, auch eine Art „Form“, die aber nicht durch unser kognitives System

wahrgenommen werden kann. Nicht weil wir es nicht gelernt haben, sondern weil es uns

generell nicht möglich ist, die Informationen in diesem Zustand sinnlich zu erfassen.

Eine andere Eigenschaft der Malerei und auch der Zeichnung, den die digitale Umwandlung

und Aufbewahrung der Bilder zunichte macht, ist die Oberflächenbeschaffenheit. Wenn die

Malerei und die Zeichnung auch für gewöhnlich als zweidimensional angesehen wird, so

spielt diese Beschaffenheit doch eine nicht unerhebliche Rolle. Durch die oft reliefartige

Beschaffenheit der Oberfläche entstehen spezielle Wirkungen. Durch die Bearbeitung des

Materials können Erhöhungen oder auch Vertiefungen entstehen. Durch das Überlagern

verschiedener Bildschichten können Erhöhungen oder Verdickungen und durch das Einritzen

oder Kratzen können Vertiefungen an bestimmten Stellen entstehen. Damit entsteht minimale

Plastizität, die aber am fertigen Artefakt eine nicht unerhebliche Rolle spielt. Den digitalen

Bildern fehlt diese Eigenschaft gänzlich, sie werden deshalb oft auch als „tot“ bezeichnet.

Man kann das an „eingescannten“ Zeichnungen oder auch Malereien sehr schön sehen.

Die im Bereich der Fotografie und des Digital Imaging festgestellte Differenz der Authentizität

ist nur schwer und wenn sehr differenziert auf die anderen Medien zu übertragen. Bei

Bildern, die von Apparaten erzeugt wurden (wie es bei der Fotografie der Fall ist) gehen wir

von einer relativ hohen Authentizität aus, weil sich die Bilder sozusagen selbst „schreiben“,

ohne das Zutun eines Menschen. Das entstandene Bild ist in seiner Beschaffenheit von Form

und Farbe sehr nah an dem dran, was uns die Realität zeigt. Dabei bleibt in der Fotografie

sogar die Struktur der Bildelemente zueinander, wie gezeigt wurde, in der Art eines

Isomorphismus erhalten. Dieser Vertrauensvorsprung wurde durch das Digital Imaging

erschüttert. Es besteht nun im extremsten Fall die Möglichkeit autonome Bilder losgelöst von

der Welt zu produzieren.

Bei den traditionellen Medien der Kunst, wie der Zeichnung oder Malerei haben wir es

eigentlich immer mit direkt vom Menschen angefertigten Werken zu tun. Damit haben wir eine

„subjektivere“ Sichtweise der Dinge. Je nachdem welche Eigenschaften der Dinge der

Künstler herausarbeiten möchte, fällt auch die Erscheinung im Bild anders aus. Der Künstler

entwickelt eine eigene Sprache, mit der er versucht, die Welt, die er wahrnimmt, zu

beschreiben. Es ergeben sich erhebliche Unterschiede aus der Art der Focusierung, also der

Auswahl des Wahrgenommenen. Daraus entsteht in den Arbeiten ein ganz anderer

Bedeutungsschwerpunkt.

Ein anderer Bereich sind die fiktiven Bilder, die ja als Bilderfindungen des Künstlers gesehen

werden können, in denen es „unwirkliche“ Konstellationen von Wirklichkeit geben kann, oder

51


die losgelöst von jeder Realität eigene Welten darstellen. Dies geht bis zu den „konkreten“

Werken, in denen fast gar kein oder überhaupt kein Bezug mehr zu Realität besteht. Hier ist es

schwierig zu argumentieren, denn man könnte auf der einen Seite sagen, dass diese absolut

authentisch sind, da sie ja ganz das darstellen, was sie sind, oder aber man spricht ihnen

jegliche Authentizität ab.

3.7.1 Digitale Bildmedien

Die digitalen Bilder sind auf jeden Fall Bilder, die für den Computer und nicht für den Menschen

verständlich vorliegen. Die digitalisierten Bilder liegen also materialisiert auf einem von einer

elektronischen Datenverarbeitungsanlage lesbaren Speicher. Eine EDV-Anlage kann in diesem

Zusammenhang ein Personalcomputer oder ein MAC sein, aber auch das Innenleben einer

Digitalkamera. Das Bild, das nun auf einem Datenträger abgespeichert ist (es könnte auch

unter ständiger Stromzufuhr im Arbeitspeicher verbleiben, dies ist aber nicht der Punkt) kann

von Menschen nicht visuell erfasst werden. Dies hat zwei Gründe, zum einen ist das

Auflösungsvermögen des menschlichen Auges überschritten und zum anderen sind wir es

nicht gewohnt solche Bilder zu „lesen“, wir haben dies nicht gelernt. Wir können diese also

nicht decodieren. Die digitalen Bilder sind also codiert und um diese darzustellen, müssen sie

erst aufbereitet, der Code zurück verwandelt werden. So kann ein und dasselbe Bild in

verschiedenen Versionen erscheinen, je nachdem, wie es reproduziert wird. Es könnte zum

Beispiel am Bildschirm angezeigt oder auf einem Drucker ausgedruckt werden.

Das ist ein wichtiger Punkt: Denn das digitale Bild muss sich immer erst materiell manifestieren,

wobei die verschiedenen Manifestationen sehr unterschiedlich ausfallen können. Es scheint

als hätte man eine ähnliche Situation wie bei den reproduzierbaren Medien. Auch hier existiert

eine Art „Code“, nämlich die Form, von der Abzüge gemacht werden. Es wäre dabei auch ein

Unterschied, ob man mit einer Linolplatte als Form auf ein Kupferdruckpapier, eine Tapete oder

einen Teppich druckt. Die Resultate wären sicherlich sehr unterschiedlich, dennoch wären die

Ergebnisse sehr nah beieinander und sie sind direkt abhängig von der Form die eingesetzt

wird. Dies ist beim digitalen Bild nicht alleinig ausschlaggebend. Worin genau die Unterschiede

zwischen Form und Code bestehen werden wir noch genau in Kapitel 4.3 untersuchen.

Was man auf jeden Fall festhalten kann, ist der Informationsverlust der bei der Digitalisierung

einer Vorlage eintritt. Dabei ist es egal, ob es sich bei der Vorlage um die Welt, die uns umgibt

oder eine Zeichnung handelt. Wir können davon ausgehen, dass beim Umwandlungsprozess

ein Informationsverlust stattfindet. Wir haben also unterschiedliche Informationen bezüglich

der Urbilder vorliegen. Dieses Phänomen haben wir am Beispiel der Fotografie und den

entstehenden Bildern explizit gezeigt. Ein anderes Beispiel wäre eine eingescannte

Zeichnung, bei der die Rasterung eine Verringerung der Auflösung zur Folge hat.

Anders sieht es dagegen bei direkt am Computer hergestellten Bildern aus, diese werden ja

nicht umgewandelt. Hier haben wir einen ganz eigenen neuen Bereich, den wir als spezifisch

für die digitalen Medien markieren können. Es können Bilder mit Algorithmen erzeugt werden,

52


wie es zum Beispiel in der Informationsästhetik oder auch bei den Fraktalen geschieht. Die

digitalen Bilder sind „mathematisiert“ und damit rechenbar. Jeder Bildpunkt ist zu jeder Zeit

direkt ansprechbar, abfragbar und modifizierbar. Damit sind auch Transformationen im Bild

möglich, wobei an Morphing als ein Beispiel im visuellen Bereich gedacht werden kann. Oder

es können mit einer Grafik-Software Bilder aus anderen Bildern zusammengestellt und

weiterverarbeitet werden. So werden neue „unwirkliche“ Bilder erzeugt, die eigenständig für

sich stehen und die als Visualisierung von bereits vorhandenen Informationen verstanden

werden können.

3.8 Zusammenfassung

Wir haben jetzt die andere, die technischere Bedeutung der beiden Begriffe „analog“ und

„digital“ kennengelernt. Wir verstehen nun die Bedeutung des Wortes „digital“ im Sinne von „in

Schritten, in Stufen“ beziehungsweise „diskret“ und die zugehörige Bedeutung von „analog“

im Sinne von „kontinuierlich“ oder auch „stetig“. „Analog“ hat hier nicht mehr die Bedeutung

von „entsprechend“ oder „ähnlich“, wie wir es zuvor festgestellt haben. 56

Gottfried Jäger hatte vorgeschlagen, dass man Bilder, bei denen man davon ausgehen kann,

dass sie eine Art „Entsprechung“ der Welt zeigen analog nennen soll. Nach unserem neuen

Verständnis muss bei analogen Bildern dagegen keine Entsprechung mehr zum abgebildeten

Gegenstand bestehen. Es besteht also keine funktionale Analogie mehr zwischen Bild und

Abgebildetem. Vielmehr geht es hier um die Struktur der Bilder, also die Beschaffenheit der

Bilder. Vielleicht kann man den Bogen zur anderen Bedeutung derart spannen, wenn man

sagt, dass eigentlich alle sinnlich wahrnehmbaren Phänomene in der Welt analogen Charakter

besitzen und die strukturell analogen Bilder, die aber nichts aus der Welt repräsentieren

müssen, in diesem Sinne ähnlich zur Welt sind. Die wäre also „Ähnlichkeit“ im Hinblick auf die

Struktur von Welt und Bild. Es handelt sich, wenn man es so sehen will, um eine strukturelle

Analogie.

Wir müssen also zum einen die Bedeutung des Bildes von der Beschaffenheit des Bildes

unterscheiden. Wenn wir nach der Bedeutung fragen, betrachten wir das Bild als Abbildung

von etwas und schauen danach, was es darstellt. Wenn wir dagegen nach der

Beschaffenheit fragen, schauen wir, wie es gemacht ist. Man spricht in diesem

Zusammenhang auch vom Syntax und der Semantik des Bildes.

Zur Veranschaulichung hilft vielleicht die Vorstellung des Fensterblickes. Wie beim Fenster hat

man beim Bild zwei Möglichkeiten. Entweder man schaut hindurch und betrachtet das

dargestellte oder man betrachtet die Oberfläche, den Bildträger und schaut nach der

Beschaffenheit, dann geht der Fensterblick durch das Fenster hindurch verloren. Der

56

Die Begriffe „kontinuierlich“, „diskret“ und „stetig“ werden in Kapitel 4.2.5 noch eingehend erläutert.

53


Augenmerk kann nur zwischen den beiden Zuständen hin und her pendeln, es ist eigentlich

unmöglich beides gleichzeitig wahrzunehmen.

Da wir gesehen haben, dass die Begriffe „analog“ und „digital“ in diesem neuen Verständnis,

die Beschaffenheit der Bildträger beschreiben, werden wir uns im Folgenden Kapitel intensiv

mit der „Oberfläche“, also mit der Beschaffenheit der Bildträger beschäftigen. Die Theorie von

Nelson Goodman versucht die Bildhaftigkeit primär über die Beschaffenheit der Bilder, den so

genannten syntaktischen Strukturen zu beschreiben, was den Vorteil hat, dass man sich

vorerst nicht um die semantische Bedeutung des Bildes kümmern muss.

54


4. Bildtheorie

4.1 Einführung

Nachdem wir am Ende des letzten Kapitels das digitale Bild gründlich seziert und damit

analysiert haben, wollen wir nun zu einer der Kernfragen, nämlich die der eigentlichen

Substanz des digitalen Bildes vordringen. Dafür muss ein bißchen Vorarbeit geleistet werden.

Wenn wir die Differenz von analogen und digitalen Bildern bezüglich ihrer Beschaffenheit

untersuchen wollen, müssen wir diese erst einmal kennen. Die Beschaffenheit des digitalen

Bildes haben wir bereits aus einer bestimmten Perspektive kennengelernt. Was wir zuvor in

einem sehr technischen Verständnis gesehen haben, wollen wir nun mit den Mitteln der

Bildtheorie beschreiben und dabei versuchen beides in Einklang zu bringen.

Die Bildtheorie beschäftigt sich mit der Erklärung des Begriffes des Bildes, mit dessen

vollständiger Klärung eine sichere Klassifikation gegebener Gegenstände als Bilder möglich

wäre. Die Bildtheorie versucht Antworten auf die Fragen zu geben, was ein Bild ist, wie es

abbildet oder darstellt, und wie sich Bilder von anderen Arten von Symbolen und

insbesondere von sprachlichen Symbolen unterscheiden. Desweiteren versucht die

Bildtheorie die Bedingungen der Bilder zu klären. Was ein Bild zum Bild macht, was insofern

Kriterien für Bilder sind. Unter welchen Umständen ein Bild ein Bild ist, also welches die

Bedingungen sind, damit ein Bild ein Bild ist. Was sie nicht leisten kann und will, ist es

Aussagen über die Qualität der Bilder zu treffen.

Klaus Sachs-Hombach, als Herausgeber mehrerer Sammelbände zur Bildtheorie, schätzt die

momentane Situation der Bildtheorie wie folgt ein: „Es haben sich in der philosophischen

Bilddiskussion insbesondere zwei Stränge herausgebildet: Bilder werden entweder mit Blick

auf die Semiotik primär als spezielle Zeichen verstanden oder aber mit Blick auf

psychologische Theorien sehr eng an spezielle Wahrnehmungsphänomene gebunden. Bei

den zeichentheoretischen Ansätzen dominiert teilweise das Bemühen um eine Übertragung

der sprachwissenschaftlichen Termini, teilweise stehen Fragen einer kognitivistischen

Ästhetik im Vordergrund.“ 57

Bilder werden heute also entweder als Zeichen gesehen oder als

Wahrnehmungsphänomene, als „reine Sichtbarkeit“. Aus dieser Sicht könnte man sagen:

Bilder sind Dinge, bei denen sich die Sichtbarkeit verselbständigt. Bilder zeigen etwas,

was sie selbst nicht sind, im Gegensatz zu einer Imitation, die etwas nachahmt und dieses

Nachgeahmte auch sein will.“ 58

Der andere Ansatz ist, wie gesagt, das Bild als Zeichen aufzufassen. Ein Zeichen ist

zunächst einmal ein Gegenstand der für etwas anderes steht. Es verweist auf etwas, das

existent oder fiktiv sein mag, und diese Verweisfunktion kann jeder beliebige Gegenstand

57 Klaus Sachs-Hombach und Klaus Rehkämper (Hrsg.), Bildgrammatik, Scriptum Verlag, Magdeburg, 1999, S.13

58 Lambert Wiesing: Sind Bilder Zeichen, in: Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bild - Bildwahrnehmung -

Bildverarbeitung, Deutscher Universitätsverlag, Wiesbaden 1998, S.98

55


übernehmen, wenn sich die Zeichenbenutzer konventionell darauf verständigen. Damit kann

auch ein Bild konventionell als Zeichen für jeden beliebigen Gegenstand oder Sachverhalt

erklärt werden. Die philosophische Semiotik geht davon aus, dass es Ähnlichkeiten zwischen

Bildern und sprachlichen Symbolen gibt. Dabei verwendet man die Annahme, dass Bilder auch

Zeichen sind, denn Bilder weisen die Intentionalität von Zeichen auf, sind auf einen

Gegenstand oder einen Inhalt gerichtet. Sie beziehen sich auf etwas, handeln von etwas oder

gehen über etwas. Sie sind mit einer bestimmten Absicht gemacht worden und nicht zufällig

entstanden, wie zum Beispiel der Schatten einer vorübergehenden Person an der Wand 59 .

Wenn man von Bildern spricht, hat man es mit einer großen Vielfalt von Symbolen zu tun:

Künstlerische Bilder, Diagramme, Landkarten, Partituren, technische Zeichnungen und viele

mehr. Es ist fragwürdig, ob man diese für eine Untersuchung überhaupt alle gleichzeitig

berücksichtigen kann, oder ob man nicht eine Einteilung vornimmt, um präzisere Aussagen für

die einzelnen Kategorien machen zu können. Ich werde mich deshalb im Folgenden

hauptsächlich auf künstlerische Bilder beziehen.

Die Versuche, eine allgemeine Zeichen- oder Symboltheorie zu entwickeln, besitzen eine

lange Tradition, aber erst Charles W. Morris verwendete den Begriff der „Semiotik“ für jede

wissenschaftliche Untersuchung von Zeichensystemen. 60 Die Semiotik lässt sich dabei in die

Bereiche Syntax oder auch Syntaktik, Semantik und Pragmatik untergliedern. Wobei es sich bei

dieser Unterteilung nicht um drei separate, voneinander isolierte semiotische Disziplinen

handelt. Die Syntax beschäftigt sich mit der formalen Struktur von Symbolen und ihren

strukturellen Beziehungen untereinander. In der Semantik werden nicht nur die Symbole und

ihre Beziehungen untereinander, sondern auch die Entitäten berücksichtigt, die durch die

Symbole bezeichnet oder denotiert werden. Die Pragmatik schließlich ist das umfassendste

Gebiet. In ihr werden nicht nur Symbole und das, was sie denotieren, sondern auch die

Benutzer oder Interpreten der Symbolsysteme in die Untersuchung einbezogen. Wie bereits

dargelegt, erscheint es durchaus sinnvoll die Prämisse zu akzeptieren, dass auch Bilder

Zeichen sind. und damit ergibt sich die Möglichkeit der Übertragung der gewonnenen

Verfahren und Erkenntnisse aus der Semiotik auf den Bereich der Bilder.

Nelson Goodman versuchte in seinem Buch „Languages of Art. An Approach to a Theory of

Symbols“ (1968) eine universelle Symboltheorie zu entwickeln. Dabei wird das Wort

„Symbol“, wie er selbst sagt, „als ein sehr allgemeiner und farbloser Ausdruck gebraucht. Er

umfaßt Buchstaben, Wörter, Texte, Bilder, Diagramme, Karten, Modelle und mehr, aber er

hat nichts Gewundenes oder Geheimnisvolles an sich.“ 61

Er versucht also für alle Zeichen eine allgemeingültige Theorie zu entwickeln, um die Fragen

nach der Wirkung, der Klassifikation und der Beschaffenheit der Zeichen zu klären.

59 Wobei Phänomene wie ein „nasser Fleck auf dem Boden“ oder ein „Schatten an der Wand“ im weitesten Sinne als Zeichen

verstanden werden können. Sie werden genauer als Index bezeichnet, wobei ein Index etwas ist, was die Aufmerksamkeit auf den

angezeigten Gegenstand mittels eines blinden Impulses richtet. So schließt man aus dem Anblick des „nassen Fleckes“ auf das

Wasser, das gefallen ist, ebenso wie man beim Anblick des „Schattens an der Wand“ auf eine vorübergehende Person schließt. Jeder

Index teilt also aufgrund von Konventionen oder erlernten Erfahrungen etwas mit.

Vgl. Umberto Eco (1972), S. 198

60 Vgl. Richard Schantz, Die Ordnung der Bilder, in: Klaus Sachs-Hombach und Klaus Rehkämper (1999), S. 94

61 Nelson Goodman (1998), S. 9

56


Dabei scheint es mir in mehrfacher Hinsicht interessant und lohnenswert, die wesentlichen

Inhalte der Theorie von Goodman kurz zu rekapitulieren. Zum einen werden diese in der

Bildtheorie sehr oft zitiert und zum anderen versuchte Goodman bereits 1968 sich den

Begriffen „analog“ und „digital“ zu nähern, was die Theorie für uns sehr interessant macht. Er

schreibt: „Natürlich hat ein digitales System eigentlich nichts mit Digits und ein

Analogsystem nichts mit Analogie zu tun. [...] Wenn eine Eins-zu-eins-Korrelation zwischen

Charakteren und Erfüllungsklassen ein System analog macht, dann erweisen sich digitale

Systeme auch als analoge. Da man sich wahrscheinlich nicht von den traditionellen

Ausdrücken „analog“ und „digital“ trennen wird, besteht die beste Verfahrensweise vielleicht

in dem Versuch, sie von Analogie und Digits und einer Fülle ungenauer Redeweisen zu

trennen und mit Hilfe von Dichte und Differenziertheit zu unterscheiden, obwohl diese keine

Gegensätze darstellen.“ 62

Er schlägt also vor, sich von den traditionellen Ausdrücken „analog“ und „digital“ zu trennen

und statt dessen mit Hilfe der Begriffe „Dichte“ und „Differenziertheit“ eine Unterscheidung

vorzunehmen. Wir werden uns damit noch genauer beschäftigen, doch zunächst interessiert

uns, wie Goodman bildhafte Symbole beschreibt. Er sieht die bildhaften Systeme ja ebenfalls

als Zeichen.

Wenn man den Weg dieses Ansatzes wählt, kommt man nicht darum, an manchen Stellen

Begriffe der Semiotik zu erklären. Wir werden dies sozusagen „en passant“ an den

entsprechenden Stellen tun. Es schien mir daher sinnvoll, dazu auf einen der bedeutendsten

Sprachwissenschaftler, jüngerer Zeit, einer der Pioniere der Semiotik, nämlich Umberto Eco

zurückzugreifen. Zudem ist es reizvoll das ganze parallel aus dem Blick des Semiotikers zu

betrachten. Besonders interessant ist die Tatsache, dass Eco sich 1972 in seinem Buch

„Einführung in die Semiotik“ ebenfalls mit dem Problem des „analogischen und digitalen“

auseinandergesetzt und sich dabei sogar ganz speziell auf bildhaften Zeichen oder wie Eco

es nennt die „visuellen Codes“ bezieht.

Ich werde versuchen in einer wechselseitigen Verflechtung der Diskurse von Goodman und

Eco die Sachverhalte zu ergänzen und zu vervollständigen.

62 Nelson Goodman (1998), S. 154

57


4.2 Was ist ein Bild? „Bildhaftigkeit“ in der Symboltheorie von Goodman

4.2.1 Einführung

Die schwierige und immer wieder gestellte Frage „Was ist ein Bild?“, kann in dieser Arbeit

selbstverständlich nicht abschließend geklärt werden. Es würde den Rahmen der Arbeit

sprengen, ja, es wäre eine eigene Arbeit wert, eine umfassende Darstellung des aktuellen

Standes und der gängigen Positionen der Bildtheorie zur Bildproblematik vorzustellen. Es

scheint mir aber angesichts der Frage nach der Substanz des digitalen Bildes notwendig, eine

ausreichende zweckmäßige Vorstellung von „Bildhaftigkeit“ zu entwickeln, also eine Art

heuristische „Arbeitsdefinition“ für die weiteren Argumentationen. Denn wenn wir die

Unterschiede zwischen den analogen und digitalen Bildern erkennen wollen, müssen wir

zunächst einmal wissen, wie bildhafte Symbole zu verstehen sind. Wir wollen uns dabei auf

die Theorie von Goodman beziehen. Eine Darstellung der relevanten Teile seiner Theorie ist

notwendig. In einer angemessenen Rekapitulation werden im Folgenden deshalb die

wichtigsten Sachverhalte erläutert. Ein Ausflug in diese Bildtheorie lohnt sich in jedem Fall, ist

aber mit erheblichem Aufwand verbunden. Denn auch hier müssen wir uns wieder

mathematisches Rüstzeug aneignen, um die vorgestellten Sachverhalte adäquat zu

verstehen. Denn letztendlich greift Goodman oft auf Begriffe der Mathematik zurück oder

illustriert seine Thesen anhand von Beispielen aus der Mathematik. Deshalb werde ich

Erklärungen an den notwendigen Stellen einschieben, damit auch der mathematisch

unversierte Leser den Gang der Theorie nachvollziehen kann. 63

Zunächst kann man sagen, dass die Bildtheorie von Goodman das Ziel verfolgt, Bildhaftigkeit

primär über syntaktische Merkmale zu beschreiben. Die Bilder werden also auf ihre formalen

Strukturen hin untersucht. Diese Bildtheorie, die man der analytischen Philosophie zurechnet,

hat den Vorteil, dass sie auch Bilder einbezieht, die „leer“ oder „ungegenständlich“ sind.

Goodman versucht über eine Analyse der syntaktischen Strukturen von Objekten, diese als

Bilder einzuordnen oder sie als Bilder auszuschließen, indem er in seiner Symboltheorie primär

die syntaktischen, darüber hinaus aber auch die semantischen Bedingungen der Bilder

untersucht. Zunächst möchte ich aber zwei wichtige Begriffe, die „Denotation“ und die

„Exemplifikation“ vorstellen. Diese stehen eigentlich der Semantik näher, werden aber oft in

der Symboltheorie von Goodman verwendet.

63 Hier will ich mich dem Vorschlag von Goodman nicht anschließen, der in einer eigenen Fußnote anmerkt: „Der Leser ohne

Grundkenntnisse in Logik, Mathematik oder technischer Philosophie mag den Rest dieses Kapitels überfliegen oder überspringen und

darauf vertrauen, daß er die hier dargelegten Prinzipien aus den Anwendungen und Illustrationen in späteren Kapiteln erschließen kann.“

Vgl. Nelson Goodman (1998), S. 128

58


4.2.2 Denotation oder das Problem der Ähnlichkeit

Wenn man bei einem Bild danach fragt, was es darstellt, muss man zunächst einmal

unterscheiden, um was für eine Art von Bild es sich handeln könnte. Wir wollen uns hier auf

zwei große Gruppen konzentrieren. Die erste Gruppe sei die der „gegenständlichen“ Bilder,

die andere die der „ungegenständlichen“. Diese Differenzierung scheint verständlich, ist im

Einzelfall aber gar nicht so einfach. So könnte ein Punkt als „Bildelement“ in einem Bild ein

„Auge“ darstellen in einem anderen Bild nur als abstrakte Form stehen, die sich nicht auf ein

„Auge“ bezieht. Die Grenze zwischen „gegenständlichen“ und „ungegenständlichen“ Bildern

lässt sich nicht klar ziehen, ist verwaschen. Je weiter man die Dinge abstrahiert, also von

ihrer eigentlichen Erscheinung „abzieht“ oder entfernt, desto näher gelangt man in das Umfeld

der konkreten Bilder. Dabei handelt es sich bei allen gegenständlichen Bildern, um

Abstraktionen in diesem Sinne.

Nun könnte man meinen, dass gegenständliche Bilder das darstellen, was sie repräsentieren.

Wobei sie dann repräsentieren, wenn sie Ähnlichkeit zum Original zeigen.

Die Ähnlichkeitstheorie der Abbildung, also die weitverbreitete Auffassung, dass ein Bild

einen Gegenstand nur dann abbildet, wenn es ihm ähnlich ist, weist Goodman mit Nachdruck

zurück. Denn es ist klar, das kein Grad der Ähnlichkeit eine hinreichende Bedingung für

Repräsentation ist.

„Ein Gegenstand ist sich selbst in höchstem Maße ähnlich, repräsentiert sich jedoch selten

selbst. Ferner repräsentiert in vielen Fällen keine von zwei einander sehr ähnlichen

Gegenständen den anderen: Keines der Autos, die vom Montageband kommen, ist ein Bild

eines der übrigen; und ein Mann ist normalerweise keine Repräsentation eines anderen

Mannes, nicht einmal seines Zwillingbruders.“ 64

Eine ähnliche Feststellung findet sich bei Eco: „Ein ikonisches Zeichen [...] ist das Zeichen,

das in einigen Aspekten dem, was es denotiert, ähnlich ist. Folglich ist die Ikonizität eine

Frage des Grades.“ 65

Auch Eco konstatierte die Unschärfe der Formulierung „Grad der Ähnlichkeit“, die für das

abbildhafte, also die eigentliche Bezugnahme verantwortlich ist. Das ganze Problem liegt darin,

welchen Sinn man dem Ausdruck „in einigen Aspekten“ geben soll und dies kann nicht trivial

geklärt werden. Anders herum ist es auch möglich, dass ein Bild konventionell auf etwas

Bezug nimmt, ohne das die geringste Ähnlichkeit vorhanden ist. So können Bilder

metaphorisch verwendet werden und es kann zum Beispiel eine weiße fliegende Taube für

die Freiheit stehen. Es kann also eigentlich jedem Zeichen jede Bedeutung konventionell

zugeordnet werden. Über das Problem der Ähnlichkeit und die daraus resultierende

Unschärfe des Begriffes der Repräsentation gelangt man schließlich zum Begriff der

Denotation.

64 Nelson Goodman (1998), S. 16

65 Umberto Eco (1972), S. 201

59


Für Goodman ist Denotation der Kern der Repräsentation. Für ihn heißt „denotieren“ Bezug

nehmen. Mit Denotation meint man nun das, was das Bild darstellen soll. Dabei lassen sich

unter den Bildern, die einen Bezug haben, singulär denotierende von generell multipel

denotierenden unterscheiden. Das heißt, es gibt zum einen Bilder, die eine bestimmte Person,

einen bestimmten Gegenstand denotieren, wie es ein Porträt von einem bestimmten Menschen

leistet. Zum anderen gibt es Bilder, die sich nicht auf einen bestimmten Gegenstand beziehen,

sondern auf jedes beliebige Ding einer gewissen Art. So ist das Bild einer Pflanze in einem

botanischen Lehrbuch nicht auf eine spezielles Individum bezogen, sondern auf jedes

beliebige Exemplar dieser Spezies.

Nun können sich aber sowohl die Sprache, als auch bildhafte Symbole auf Dinge der Realität

beziehen. Die Denotation existiert also auch im Symbolsystem Sprache. Überhaupt ist die

Denotation ein Begriff der auch in der Semiotik Verwendung findet.

Eco versteht unter Denotation die unmittelbare Bezugnahme eines Ausdruckes, die im

Empfänger einer Botschaft ausgelöst wird, wobei dies in Abhängigkeit der Kultur, die einen

Code verwendet zu sehen ist. 66 Das Denotat kann also als der bezeichnete Gegenstand oder

Sachverhalt in der „außersprachlichen“ oder „außerbildlichen“ Wirklichkeit bezeichnet

werden, auf die sich die Sprache oder das Bild bezieht. Es handelt sich um den „Inhalt“ eines

Zeichens, dessen Hauptbedeutung. Dagegen bezeichnet das Konnotat, die zusätzlichen

Vorstellungen, Assoziationen, welche die Grundbedeutung eines Wortes begleiten, die so

genannten Nebenbedeutungen.

Ein Beispiel aus dem Bereich der Sprache wäre wie folgt: die denotative Bedeutung „der

Mond“ als „Erdtrabant, der durch das von ihm reflektierte Sonnenlicht oft die Nächte erhellt.“

steht dabei im Gegensatz zur konnotativen Bedeutung von „Mond“, mit der sich

Gedankenverbindungen wie „Nacht, romantisch, kühl, Liebe“ einstellen. 67

Desweiteren gibt es Bilder die nicht denotieren. Dies können zum Beispiel fiktionale Bilder sein,

wie zum Beispiel „Einhorn“-Bilder, die sich auf keinen exisitierenden Gegenstand beziehen.

Man spricht in diesem Zusammenhang auch von „Nulldenotation“.

Auch in der Sprache können aus dem Repertoire der zur Verfügung stehenden Symbole,

einige derart ausgewählt und kombiniert werden, so dass diese keine Bedeutung tragen. So

hat die Aneinanderreihung der Buchstaben „klodf“ als Wort keine Bedeutung im herkömmlichen

Sinn. Hierbei würde es sich um eine Nulldenotation handeln. Durch Konvention könnten auch

neue Wörter definiert werden, wie etwa „gloko“, die konventionelle Sachverhalte denotieren

würden. Im Anschluss an Goodman hat sich durchgesetzt, die Möglichkeit der bildlichen

Bezugnahme auf Gegenstände oder Sachverhalte, losgelöst von der Ähnlichkeit, als

„Denotation“ zu bezeichnen.

66 Umberto Eco (1972), S.102

67 Duden - Das Fremdwörterbuch (1990)

60


4.2.3 Exemplifikation

Eine andere Art der Bezugnahme bezeichnet Goodman als Exemplifikation. Wenn wir bei

fiktionalen Bildern mit einer so genannten „Nulldenotation“, wie wir sie als „Einhorn Bilder

kennengelernt haben, noch einen Bezug zu „fiktionalen“ Sachverhalten feststellen konnten,

wird dies bei „ungegenständlichen“ Bildern schwierig. Bei „ungegenständlichen“ oder auch

konkreten Bildern sieht es nun ganz anders aus. Hier können wir nicht mehr davon sprechen,

dass diese auf etwas außerhalb des Bildes bezug nehmen. Es sei denn, man würde den

Bezug eines konkreten Bildes auf ein anderes konkretes Bild, als Bezugnahme verstehen.

Dennoch sieht Goodman speziell bei diesen Bildern, aber auch generell bei allen anderen, die

Exemplifikation als Bezugnahme. Die Exemplifikation stellt also auch eine Art der Bezugnahme

dar. Ein Symbol exemplifiziert, wenn es auf Eigenschaften verweist, die es selbst besitzt.

Exemplifikation könnte man also als selbstreferentielle Denotation verstehen. Während beim

denotierenden Bezug, die Bezugnahme vom Zeichen zum Gegenstand oder Sachverhalt

verläuft, bezieht sich das Bild nun auf sich selbst.

Die Eigenschaften, die ein Symbol exemplifiziert, können sehr verschieden sein. Solche

Eigenschaften können die Farbe eines Schriftzuges oder eines Bildes, seine Größe oder die

Struktur des Papiers sein, aber auch sein Gewicht oder die Temperatur einer Probe in einem

wissenschaftlichen Versuch. Goodman illustriert den Begriff am Beispiel von Stoffmustern

eines Schneiders. Die aus ihren zahllosen Eigenschaften einige wenige exemplifizieren:

Textur, Farbe, Musterung. 68 Dies lässt sich direkt auf Bilder übertragen. Diese exemplifizieren

zum einen die Prädikate der Bildqualitäten wie Textur, Farbe, etc. Zum anderen die Art und

Weise, wie das Bild zeigt, was es zeigt. Also zum Beispiel auch den „Stil“ oder die „Sprache“,

die der Künstler verwendet. Welche Prädikate ein Ding exemplifiziert, hängt auch von seiner

Funktion ab, welche zum Beispiel mit der Umgebung abhängt, in der es verwendet wird. So

kann man sich überlegen, dass ein und dasselbe Objekt, zum Beispiel ein Stück Rinde

unterschiedlich exemplifizieren kann. Wenn es im Garten liegt exemplifiziert es vielleicht gar

nicht. Im Schaukasten eines biologischen Museums kann es sein Alter, seine Farbe oder seine

Oberflächenbeschaffenheit exemplifizieren. Als „objet trouvé“ in einer Ausstellung moderner

Kunst mag es bestimmte taktile und visuelle, also gestalthafte Qualitäten exemplifizieren.

Es kommt also darauf an, in welchem Kontext, ein Objekt gesehen wird.

4.2.4 Differenz zwischen Bildern und anderen Symbolen

Auf die Frage, worin sich Bilder von anderen Arten von Symbolen und insbesondere

sprachlichen Zeichen unterscheiden, entwickelte Goodman die Auffassung, dass dieser

Unterschied hauptsächlich auf der Ebene der Syntax zu suchen ist. Die Differenz entsteht

also durch die verschiedenen syntaktischen Strukturen der jeweiligen Symbolschemata.

68 Nelson Goodman (1998), S. 59

61


Dies ist ein großer Vorteil, denn ein semantischer Ansatz würde sich hauptsächlich auf die

Frage nach der Denotation von Symbolen konzentrieren. Also auf die Frage, was die Symbole

bezeichnen beziehungsweise auf was sie sich beziehen, Aspekte der Denotation und

Repräsentation würden im Vordergrund stehen. Da es aber viele fiktionale, zum Beispiel

„Einhorn-Bilder“, oder leere Bilder oder andere nicht-denotierende Bilder gibt, würden diese

durch eine Untersuchung nicht berührt. Es scheint aber sinnvoll, dass eine Untersuchung von

Bildhaftigkeit sowohl denotierende als auch nicht-denotierende Bilder erfasst. Ein

semantischer Ansatz würde also nicht zu umfassenden Beschreibungen führen.

Dagegen versucht die Syntax als Disziplin, die Symbolsysteme hauptsächlich über die

formalen Aspekte von Zeichen und ihren strukturellen Beziehungen zueinander zu

beschreiben. Diese syntaktischen Differenzen werden wir uns im Folgenden genauer

anschauen. Wobei man ergänzen muss, dass natürlich starke wechselseitige Beziehungen

zwischen Syntax und Semantik bestehen.

Nun gibt es nach Goodman zum einen Symbolsysteme, die auf eine Art „Alphabet“ aufgebaut

sind. 69 Dabei braucht ein „Alphabet“ nicht aus Buchstaben zu bestehen. Es heißt vielmehr,

dass es eine endliche Liste von „Marken“ gibt, aus denen alle Charaktere in einem System

nach bestimmten Regeln aufgebaut werden können. Es steht also ein Repertoire an kleinsten

Einheiten, den Charakteren zur Verfügung, das nur endlich viele Elemente enthält. Dabei

können die verschiedenen Charaktere, in unserem römisch-lateinischen Alphabet die

Buchstabenmenge {a, ... , z}, zum Teil sehr unterschiedlich ausgeprägt in Erscheinung treten.

Diese Erscheinungen nennt Goodman Marken. In vielen Symbolschemata können zusätzlich

Marken zu neuen Marken kombiniert werden. Es gibt also atomare oder auch

zusammengesetzte Marken, aber auch dieses sind nur endlich viele. Das System ist endlich

differenziert. Man kann sich anschaulich vorstellen, das man den Buchstaben „a“ sehr

unterschiedlich schreiben kann. Er könnte zum Beispiel in den folgenden Varianten

auftauchen: „a“ und „a“ oder auch „a“. Dieses Phänomen kennen wir alle aus dem Feld der

Handschriften. Es sorgt zum Beispiel dafür, dass das Lesen einer unbekannten Schrift zum

leidigen Ereignis werden kann und eine ganze Forscherzunft sich mit dem Problem der

automatischen Schrifterkennung beschäftigt. Nun ist es aber notwendig, laut Goodman, dass

für Systeme, die auf Alphabete basieren, alle Marken eines Charakters syntaktisch äquivalent,

also gleichwertig sind. Das heißt, dass sie ohne irgendwelche syntaktischen Auswirkung

ausgetauscht werden können. Marken, die zu demselben Charakter gehören, sind echte

Kopien oder Replicas voneinander, denn sie werden in gleicher Weise buchstabiert. 70 Das

heißt anschaulich, das es keine Rolle spielen darf, ob ich den Charakter „a“ in der Ausprägung

„a“ oder „a“ notiere. Marken, die also gleich buchstabiert werden und die zum gleichen

Charakter gehören, sind „charakterindifferent“.

69 Nelson Goodman (1998), S. 128

70 dito, S.128-129

62


Charakterindifferenz ist übrigens eine typische Äquivalenzrelation 71 , sie ist reflexiv,

symmetrisch und transitiv. Das heißt wir können Äquivalenzklassen der Charaktere bilden.

Was nichts anderes bedeutet, als das wir zum Beispiel alle Marken, die zum Charakter „a“

gehören in einer Klasse zusammenfassen können oder etwas salopper gesagt, in eine

Schublade stecken können. Dabei geschieht bei der Strukturierung in der Art einer

Äqivalenzrelation folgendes: Die einzelnen Marken werden in Relation gesetzt, also

zueinander in Beziehung gebracht. Dies geschieht aufgrund Übereinstimmung in einer

bestimmten Hinsicht, hier der syntaktischen Gleichwertigkeit. Man kann also alle

Erscheinungen des Charakters „a“, wie zum Beispiel „a“ oder „a“ in die Schublade „a“

stecken, ebenso alle Ausprägungen des Charakters „b“, also zum Beispiel „b“ oder „b“ in eine

andere Schublade „b“. Damit es sich nun um eine Äqivalenzrelation handelt, müssen die drei

oben erwähnten Kriterien erfüllt sein. Dafür wählt man zwei beliebige Marken M1 und M2 aus

einer Äquivalenzklasse, also aus einer Schublade und setzt diese miteinander in Relation. Das

heißt man schaut, ob diese die Eigenschaft der syntaktischen Gleichwertigkeit erfüllen. Nun

müssen diese als erstes reflexiv, also selbstbezüglich syntaktisch gleichwertig sein. Das

heißt die Marke M1 muss syntaktisch gleichwertig zu sich selbst sein, ebenso die Marke M2

zu sich selbst. Dies ist sicherlich der Fall. Als zweites muss Symmetrie vorhanden sein. Das

heißt wenn M1 syntaktisch gleichwertig zu M2 ist, dann muss auch M2 syntaktisch

gleichwertig zu M1 sein. Auch dies ist offensichtlich der Fall. Und drittens muß Transitivität

vorhanden sein. Das heißt, wenn man drei beliebige Marken aus einer Schublade wählt und

die Marken M1 und M2 syntaktisch gleichwertig sind und ebenso die Marken M2 und M3

syntaktisch gleichwertig sind, dann müssen auch die Marken M1 und M3 syntaktisch

gleichwertig sein. Alle diese Kriterien sind nachprüfbar erfüllt und es handelt sich somit in

diesem Sinne um eine Äquivalenzrelation.

Ein solches Symbolsystem, das in Klassen einteilbar ist, ist syntaktisch disjunkt. Man sagt

auch, es zerfällt in disjunkte Klassen. Denn in einem syntaktisch disjunkten Symbolschema

gehört keine Marke zu mehr als einem Charakter und genau dies haben wir mit der

vorliegenden Äquivalenzrelation gewährleistet. Durch diese Bedingung ist klar gestellt, dass

es auf jeden Fall theoretisch möglich ist, so schwierig es auch praktisch sein mag, den

Charakter zu identifizeren, dem eine bestimmte Marke zugehört. Jede Marke kann also genau

einer Klasse zugeordnet werden. Die syntaktische Bedingungen der Disjunktheit und der

endlichen Differenzierung werden von den uns vertrauten sprachlichen, numerischen,

binären und musikalischen Notationen erfüllt. 72 Goodman bezeichnet solche Systeme auch

als Notationssysteme.

Aber genau das leisten bildhafte Symbolsysteme nach der Auffassung von Goodman nicht.

Bildsysteme sind nun weder syntaktisch disjunkt noch differenziert. Sie gehören zu den

syntaktisch dichten Systemen. Es gibt also keine deutliche Grenze zwischen den Marken. Sie

71 Vergleiche hierzu auch Kapitel 2.1.1 „Äquivalenz“

72 Nelson Goodman (1998), S. 137

63


gehen vielmehr ineinander über und es kann nicht eindeutig geklärt werden, zu welchem

Charakter eine Marke gehört.

Der Begriff der Dichte stammt wieder einmal aus der Mathematik. Goodman versteht und

veranschaulicht ihn am Beispiel der rationalen Zahlen. 73 An dieser Stelle ist es notwendig

erneut einen kleines Exkurs in die Mathematik einzuschieben, um zu verstehen, was er damit

meint. Dabei werden auch andere Begriffe, wie „diskret“, „abzählbar unendlich“ oder auch

„stetig“ erläutert, da wir diese im Folgenden noch benötigen werden.

4.2.5 Diskret, dicht, stetig und andere Begriffe

Die Begriffe „diskret“, „dicht“ , „stetig“ oder auch „abzählbar unendlich“ stammen aus der

Mathematik und werden unter anderem im Zusammenhang mit digitalen Bildern häufig

verwendet, aber auch analytische Philosophen wie Goodman illustrieren ihre Theorien oft mit

entsprechenden Beispielen, die mit diesen Begriffen arbeiten. Es ist sicherlich ein wenig

mühsam, diese Begriffe zu verstehen, aber es scheint angesichts der Verwendung in den

Theorien notwendig diese zur Verfügung zu stellen. Ich werde die Begriffe nicht in einem

mathematisch exakten Sinn herleiten, aber in der Art, dass sie hoffentlich verstanden und

verwendet werden können. Da die Begriffe in Verbindung mit den verschiedenen Zahlenarten

stehen, werden wir sie zusammen mit ihren Eigenschaften vorstellen.

Die natürlichen Zahlen, sind die elementarsten Zahlen. Man kennt sie vom Abzählen oder auch

vom Durchzählen. Beim Abzählen will man wissen wie viele Elemente eine Menge hat, also

zum Beispiel aus wie vielen Menschen eine Touristengruppe besteht. Man nennt die Zahlen in

diesem Zusammenhang auch Kardinalzahlen. Wenn man dagegen durchzählt, also eine

Reihenfolge aufstellt, nennt man sie Ordinalzahlen. Dies wäre der Fall, wenn man festhält,

wer von der Touristengruppe als erster, als zweiter und so fort in den Reisebus eingestiegen

ist. Die natürlichen Zahlen bezeichnet man in der Mathematik mit „N“. Das ist der Name der

Menge. Ich werde jetzt zur Auflistung eine so genannte Mengenklammer verwenden, mit der

man gewöhnlich die Elemente einer Menge darstellt. 74 Es sind dies die Zahlen N:= {1, 2, 3, ...}.

Wobei man sich darauf einigen muss, ob nun die Null dazugehört oder auch nicht. Die

natürlichen Zahlen werden ausgehend vom ersten Element der „1“ mit Hilfe der so genannten

Peano-Axiome konstruiert. Das heißt es gibt eine Vorschrift, von Peano erdacht, wie man die

nächste natürliche Zahl erhält. Immer wenn man eine „1“ addiert, erhält man die nächste

natürliche Zahl. Das heißt man kennt bei den natürlichen Zahlen den Nachfolger, oder etwas

lockerer formuliert den Nachbarn. Wie man schnell merkt, kann man mit den natürlichen Zahlen

so etwas wie einen 1/2 Kuchen nicht beschreiben, denn zwischen der „1“ und der „2“ gibt es

keine weitere Zahl. Nun ist es grundsätzlich möglich, dass es zwischen zwei natürlichen

Zahlen, zum Beispiel der „1“ und der „3“ eine andere natürliche Zahl gibt, hier die „2“, aber

73 Nelson Goodman (1998), S. 133

74 Vergleiche auch Kapitel 3.4.7.1 Der Mengenbegriff

64


dies muss nicht immer so sein. Zu zwei beliebigen ungleichen natürlichen Zahlen a und b gibt

es nicht immer eine dritte c, so dass c zwischen a und b liegt. Zum Beispiel wäre dies bei „1“

und „2“ oder auch bei „2014“ und „2015“ nicht der Fall. Das heißt, sie sind nicht „dicht“,

sondern diskret.

Wie wir gesehen haben, kann man ausgehend vom

kleinsten Element der Menge, der „1“, jede andere

natürliche Zahl herstellen. Aber man kann auch aus

jeder anderen natürlichen Zahl durch Addition von

„1“ die nächste, ihren Nachbarn, erzeugen. Dies

kann man nun mit der neu erzeugten Zahl,

wiederholen und immer so fort. Es gibt also keine

größte natürliche Zahl. Die natürlichen Zahlen hören

also nie auf, sind unendlich viele. Genauer gesagt

„abzählbar unendlich“, aber das werden wir noch

klären.

Als nächste Gruppe lernen wir die ganzen Zahlen

kennen. Sie werden in der Mathematik mit „Z“

bezeichnet. Es sind dies im Prinzip die positiven und

negativen natürlichen Zahlen, deren Menge wie

folgt aussieht: Z:= { ... -3, -2, -1, 0, 1, 2, 3, ...}. Man

hat also die natürlichen Zahlen um ihr jeweils

negatives Pendant erweitert. Wie man leicht sieht,

sind auch die ganzen Zahlen unendlich viele,

präziser wiederum „abzählbar unendlich“ viele.

Um nun auch Verhältnisse wie den 1/2 Kuchen zu

beschreiben hat man die so genannten rationalen

Zahlen eingeführt, die auch unter dem Namen der

Bruchzahlen bekannt sind. Diese bezeichnet man

mit „Q“. Was für den modernen Menschen der

Kuchen ist, war für unsere Vorväter die Beute und

auch die musste geteilt werden. Es wurde in zwei

Hälften oder drei Drittel und so weiter zerlegt. Wobei

die „Hälften“ sicherlich nicht immer genau gleich

groß waren, dies aber nur am Rande. 75 Die

rationalen Zahlen sind eingeführt als Verhältnis-

„Weißt Du was hinter der Mathematik steckt?„ frage

ich. „Hinter der Mathematik stecken die Zahlen.

Wenn mich jemand fragen würde, was mich richtig

glücklich macht, dann würde ich antworten: die

Zahlen. Schnee und Eis und Zahlen. Und weißt du,

warum? [...]

Weil das Zahlensystem wie das Menschenleben ist.

Zu Anfang hat man die natürlichen Zahlen. Das sind

die ganzen und positiven. Die Zahlen des Kindes.

Doch das menschliche Bewußtsein expandiert. Das

Kind entdeckt die Sehnsucht, und weißt du was der

mathematische Ausdruck für die Sehnsucht ist? [...]

Es sind die negativen Zahlen. Die Formulierung des

Gefühls, daß einem etwas abgeht. Und das

Bewußtsein erweitert sich immer noch und wächst,

das Kind entdeckt die Zwischenräume. Zwischen

den Steinen, den Moosen auf den Steinen, zwischen

den Menschen. Und zwischen den Zahlen. Und

weißt du, wohin das führt? Zu den Brüchen. Die

ganzen Zahlen plus die Brüche ergeben die

rationalen Zahlen. Aber das Bewußtsein macht dort

nicht halt. Es will die Vernunft überschreiten. Es fügt

eine so absurde Operation wie das Wurzelziehen

hinzu. Und erhält die irrationalen Zahlen. [...] Es ist

eine Art Wahnsinn. Denn die irrationalen Zahlen sind

endlos. Man kann sie nicht schreiben. Sie zwingen

das Bewußtsein ins Grenzenlose hinaus. Und wenn

man die irrationalen Zahlen mit den rationalen

zusammenlegt, hat man die reellen Zahlen. [...] Es

hört nicht auf. Es hört nie auf. Denn jetzt gleich, auf

der Stelle, erweitern wir die reellen Zahlen um die

imaginären, um die Quadratwurzeln der negativen

Zahlen. Das sind Zahlen, die wir uns nicht vorstellen

können, Zahlen, die das Normalbewußtsein nicht

fassen kann. Und wenn wir die imaginären Zahlen

zu den reellen dazurechnen, haben wir das

komplexe Zahlensystem. Das erste Zahlensystem,

das eine schöpferische Darstellung der

Eiskristallbildung ermöglicht. Es ist wie eine große,

offene Landschaft. Die Horizonte.“ 76

zahlen zweier natürlicher beziehungsweise ganzer Zahlen. Man kann sie entweder als Bruch

zweier endlicher ganzer Zahlen darstellen, oder in der Dezimalschreibweise. Also entweder

in der Art 1/2 oder 0,5. Es sind die Zahlen folgender Bauweise: Q:= { m / n ; m ∈ Z, n ∈ N; n ≠

75 Vgl. hierzu auch den legendären Sketch „Der Kosakenzipfel“ von Loriot

65


0}. Man kann also im Zähler eine beliebige ganze Zahl und im Nenner eine beliebige natürliche

Zahl einsetzen. Rationale Zahlen sind zum Beispiel 1/2 oder –3/4, eben die Bruchzahlen.

Nun ist es bei den rationalen Zahlen so, dass immer zwischen zwei beliebigen eine dritte

rationale Zahl liegt. Also zum Beispiel zwischen 1/3 (=4/12) und 1/2 (=6/12) liegt unter

anderem 5/12. Daraus ergeben sich zwei Konsequenzen. Zum einen sind die rationalen

Zahlen im Unterschied zu den ganzen und natürlichen Zahlen „dicht“. Das heißt, es findet sich

zwischen zwei rationalen Zahlen immer noch eine dritte, egal wie nah diese schon

beieinander liegen. Zum anderen gibt es nun keine eindeutige Nachfolgerelation mehr. Es kann

also nicht gesagt werden, welche rationale Zahl auf eine andere rationale Zahl folgt. 77

Überraschenderweise gibt es doch noch Zahlen die zwischen den ganz dicht liegenden

rationalen Zahlen liegen. Die griechischen Mathematiker entdeckten im Zusammenhang mit der

Berechnung von Strecken in Flächen und Körpern, dass sie diese nicht mit den ihnen

bekannten Zahlen lösen konnten. Sie standen bei der Berechnung der Diagonalen in einem

Quadrat vor einer unlösbaren Aufgabe. Mit Hilfe des Satzes von Pythagoras, der besagt,

dass im rechtwinkligen Dreieck das Quadrat der Länge der Hypotenuse gleich der Summe der

Quadrate der Katheten ist (a 2 + b 2 = c 2 ), war es ihnen nicht möglich eine geeignete Zahl zu

finden.

c?

b?

?

1

°

a? 1

°

Abbildung 15: Berechnung der Diagonalen im Quadrat

Dazu mussten sie erst eine Zahl c finden, die mit sich selbst quadriert eine andere rationale

Zahl (a 2 + b 2 ) ergibt, da ja durch Umformung gilt c=√ (a 2 + b 2 ). Im konkreten Beispiel, wenn

man ein Quadrat mit Seiten der Länge 1 betrachtet, würden wir heute die Lösung mit √2

angeben, da ja gilt c=√ (1+1)= √2. Man kann aber leicht mit elementarer Zahlentheorie zeigen,

dass es keine Lösung aus dem Bereich der rationalen Zahlen geben kann.

Die Konsequenz ist, dass es noch andere, die so genannten irrationalen, die „unvernünftigen“

Zahlen gibt. Weil sie noch zwischen den dicht liegenden rationalen Zahlen liegen, spricht man

76 Peter Hoeg, Fräulein Smillas Gespür für Schnee, Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg 1997, S. 129-130

77 Beweis zum Beispiel in: Konrad Königsberger, Analysis I, Springer Verlag, Berlin 2001, S. 15

66


auch von den „Zahlen zwischen den Zahlen“. Auch von ihnen gibt es unendlich viele, was

man leicht verstehen kann, weil es ja schon genügt eine von ihnen der Reihe nach mit den

natürlichen Zahlen zu multiplizieren. Diese sind nun aber „überabzählbar“, also nicht

„abzählbar unendlich“. Das heißt, es gibt mehr irrationale Zahlen, als rationale Zahlen. Dies ist

insofern verblüffend, weil es ja von beiden Sorten unendlich viele gibt. Die irrationalen Zahlen

werden mit „I“ bezeichnet und sind zum Beispiel Zahlen wie √2 oder π. Jede irrationale Zahl

besitzt nach dem Komma unendlich viele Stellen, kann also immer nur mit einer Näherung

angegeben werden.

Die reellen Zahlen sind gerade die Vereinigung der rationalen Zahlen mit den irrationalen

Zahlen. Auch von diesen gibt es „überabzählbar“ viele. Mit diesen „wirklichen“ Zahlen ist es

nun möglich zum Beispiel den Raum den wir kennen und Bewegungen darin zu beschreiben.

Sie sind das Fundament für den Grenzwertbegriff, den so genannten Limes. Erst mit diesem

ist der Zusammenhang zwischen dem zurückgelegten Weg eines bewegten Körpers, seiner

Geschwindigkeit und seiner Beschleunigung ohne Widersprüche zu beschreiben. Damit sind

die bekannten Paradoxien des Zenon überwunden. Die widersprüchliche „stehende“

Bewegung des fliegenden Pfeils oder auch der Wettlauf des Achilles mit der Schildkröte sind

bekannte Beispiele dafür.

Wir haben gesehen, dass es sowohl von den natürlichen Zahlen, wie auch von den

rationalen und reellen Zahlen unendlich viele gibt. Georg Cantor (1845-1918) warf die Frage

auf, ob es sich dabei um dieselbe Art von Unendlichkeit handelt, oder etwas unpräziser

ausgedrückt: ob es „genauso viele“ natürliche wie rationale oder reelle Zahlen gibt. Intuitiv

scheint es mehr rationale als natürliche Zahlen zu geben, und wiederum mehr reelle als

rationale. Doch scheint „unendlich“ zu bedeuten, dass die Frage nach einem mehr oder

weniger gar keinen Sinn hat. Die Lösung dieser scheinbaren Paradoxie besteht nun darin, ein

eindeutiges Zuordnungsschema zwischen den Elementen zweier unendlich großen Mengen

anzugeben. Gelingt dies, so gelten die beiden Mengen als von gleichem „Unendlichkeitstypus“.

Es gibt zwei verschiedene Typen von Unendlichkeit. Den ersten Typ nennt man „abzählbar“

oder auch „abzählbar unendlich“, den zweiten „überabzählbar“, also nicht „abzählbar.“ Dabei

hat man folgendes Verfahren entwickelt: Wenn man eine unendliche Menge durchnumerieren,

also jedem Element der unendlichen Menge genau eine natürliche Zahl zuordnen kann, dann

spricht man von einer „abzählbaren“ oder auch „abzählbar unendlichen“ Menge.

N:=

Z:=

...

1 2 3 4 5 6

0 1 -1 2 -2 3 ...

Abbildung 16: Abbildung der natürlichen auf die ganzen Zahlen

67


Genauer gesagt, wenn es gelingt eine bijektive Abbildung zwischen zwei Mengen M1 und M2

anzugeben, so spricht man von Gleichmächtigkeit der beiden Mengen. Noch einmal anders

gesagt, wenn es möglich ist, jedem Element der ersten Menge M1 genau ein Element der

zweiten Menge M2 zuzuordnen, dann haben beide Mengen gleichviel Elemente.

Auf diese Weise kann man zum Beispiel zeigen, dass es „genauso viele“ ganze wie natürliche

Zahlen gibt, und nicht etwa doppelt so viele, wie man naiv annehmen könnte. In diesem Sinne

sind die ganzen Zahlen eine abzählbare Menge. Dies ist etwas verwunderlich, weil die

natürlichen Zahlen ja eine Teilmenge der ganzen Zahlen sind. Die Abzählung könnte wie folgt

aussehen:

...

-2 -1 0 1 2 3 ...

Abbildung 17: Abzählverfahren der ganzen Zahlen

Man kann auch zeigen, dass die rationalen Zahlen abzählbar unendlich sind. Dazu muss man

zeigen, dass man sie „durchnumerieren“ kann. Die Menge der rationalen Zahlen also

gleichmächtig, gleich groß, wie die der natürlichen Zahlen ist.

1/5

1/4

2/4

3/4

4/4

1/3

2/3

3/3

4/3

1/2

2/2

3/2

4/2

1/1

2/1

3/1

4/1

5/1

Abbildung 18: Schema Cantorsches Abzählverfahren

Dazu verwendet man das so genannte Cantorsche Abzählverfahren. Man ordnet zunächst

alle rationalen Zahlen rasterartig an, wie in Abbildung 18 gezeigt. Man kann damit alle

rationalen Zahlen erfassen, irgendwann ist jede einmal aufgeführt. Wie graphisch angedeutet,

68


zählt man die ganzen Zahlen diagonal, oder auch spiralförmig ab. Es wird also jeder möglichen

rationalen Zahl eine natürliche Zahl zugeordnet.

Bei den irrationalen und reellen Zahlen ist dies nicht möglich. Man kann durch mathematische

Beweise zeigen, dass es nicht möglich ist, eine Abbildung anzugeben, die eine Abzählung

durch die natürlichen Zahlen leistet. Man nennt sie deshalb „überabzählbar“ oder auch

„überabzählbar unendlich“. Noch einmal kurz zusammengefasst ist es also so, dass man die

natürlichen N, die ganzen Z und die rationalen Zahlen Q als abzählbar unendlich bezeichnet

und die irrationalen und reellen Zahlen als „überabzählbar“.Es gibt also „mehr“ irrationale und

reelle Zahlen wie natürliche, ganze und rationale Zahlen, obwohl es von beiden Sorten

unendlich viele gibt. Ein kluger Kopf soll einmal gesagt haben, dass man mit dem Begriff

„unendlich“ vorsichtig sein soll, da er unendlich viele Schwierigkeiten bereitet.

Nun kommen wir noch zum Begriff der „Stetigkeit“, der etwas schwieriger ist und den wir

daher nur soweit erklären werden, wie es für das weitere Verständnis notwendig ist. Wir

haben gesehen, dass es diskrete Mengen, wie die natürlichen Zahlen gibt und andere

Mengen, wie die rationalen Zahlen, die dicht sind. Weiter ist es so, dass es noch irrationale

Zahlen gibt, die zwischen den schon dicht liegenden rationalen Zahlen liegen. Durch das

Zusammenfassen der rationalen und irrationalen Zahlen haben wir die reellen Zahlen erhalten.

Diese sind nun vollständig und füllen den ganzen Raum aus. Man spricht in diesem

Zusammenhang auch von „kontinuierlich“ oder „stetig“. Wenn man die reellen Zahlen für

Abbildungen verwendet, dann erhält man oft stetige Abbildungen. Etwas salopp gesagt sind

dies Abbildungen, die keine Sprünge aufweisen, die man „durchzeichnen“ oder mit einem

Linienzug darstellen kann. Würde man eine gezeichnete Linie auf einem Papier mit den

rationalen Zahlen beschreiben wollen, so würden sich Lücken auftun, an denen die Linie

springt, es wäre keine „glatte“ zusammenhängende Linie. Dies ist nun aber mit den

gefundenen reellen Zahlen gewährleistet und die Linie ist stetig.

Nach diesem etwas schwierigen Ausflug in die Mathematik kehren wir schnell wieder zurück

in die Bildtheorie. Gewappnet mit den neuen Begriffen, können wir uns jetzt um die Frage der

Bildhaftigkeit von Symbolsystemen kümmern.

4.2.5 Bildhaftigkeit nach Goodman

Ein System ist laut Goodman nur dann ein Bildsystem, wenn es ein syntaktisch dichtes

Schema besitzt, und ein Symbol ist nur dann ein Bild, wenn es zu einem durchgängig dichten

Schema oder zumindest zu einem dichten Teil eines teilweise dichten Schemas gehört. Was

man unter einem syntaktischen dichten Schema versteht beschreibt Goodman so: „Ein

69


Schema ist syntaktisch dicht, wenn es unendlich viele Charaktere bereitstellt, die so

geordnet sind, daß es zwischen jeweils zweien immer ein drittes gibt.“ 78

Diese Formulierung erklärt er dann am Beispiel der rationalen Zahlen, die wir bereits

kennengelernt haben. Denn die Dichte ist ja gerade eine Eigenschaft, die den rationalen Zahlen

eigen ist. Mit Hilfe des Begriffs der syntaktischen Dichte wird der Sachverhalt beschrieben,

dass in einem Bildsystem jeder noch so feine Unterschied in gewissen Zügen einen

Unterschied der Symbole ausmacht. Das heißt konkret, zwischen zwei Bildpunkten, könnte

immer noch ein dritter liegen. Es muss zumindest die Möglichkeit bestehen. Es darf also nicht

im voraus ausgeschlossen sein, dass ein Dritter existieren könnte. Das hat zur Folge, dass es

unmöglich ist zu entscheiden welche Marke zu demselben Charakter oder Symbol gehört. Dies

war ja gerade bei den Symbolsystemen der Fall, die auf Alphabete aufgebaut sind.

Es ist zu überlegen, ob die Definition sogar noch auf syntaktische Kontinuität verschärft

werden müsste. Denn Bildsysteme sind hinsichtlich vieler Merkmale syntaktisch dicht. Als

relevante Merkmale würden hierzu die Farbe, bezüglich des Farbtones, der Intensität und der

Sättigung, aber auch die Auflösung des Bildes, also die Lokalisierung der Farbe zählen. Auf

einer Leinwand können zum Beispiel an jeder beliebigen Stelle Farbpigmente aufgetragen

werden. Das heißt aber, die Position der Farbpunkte ist statt dicht eher als kontinuierlich

anzusehen.

Die Farbigkeit ist ebenfalls nicht diskret gestaltet. Es stehen alle Farben kontinuierlich zur

Verfügung. Es gibt nicht nur eine bestimmte Auswahl an Farben, zum Beispiel die drei

Grundfarben aus der Tube, sondern es können beliebige Zwischentöne daraus gemischt

werden. Auch hier sollte man eigentlich von kontinuierlich und nicht von dicht sprechen.

Der Grund für die syntaktische Dichte von Bildsystemen liegt darin, dass es für Bilder keine

Alphabete gibt, keine endliche Menge von wohlunterschiedenen Zeichen, aus denen alle

Charaktere des Systems nach bestimmten Kompositionsprinzipen aufgebaut werden können.

Für Bilder gibt es kein endliches Repertoire von Zeichen, aus denen alle Charaktere des

Systems aufgebaut werden können. Wenn es dieses gäbe, wären wir in der Lage zu sagen,

welche Marken das Bild an welcher Stelle hat, also welche Farben es an welchen Stellen

trägt und zu welchen Charakteren diese gehören. Eine Marke kann aber zu einem Charakter

der durch die Farbe definiert ist gehören oder zu einem anderen Charakter, der durch die

Gestalt definiert ist und zu weiteren Charakteren, die durch Größe und Position definiert sind.

Bilder unterscheiden sich also von sprachlichen Zeichen hauptsächlich in ihren syntaktischen

Eigenschaften: Bilder sind Elemente von syntaktisch dichten Systemen, sprachliche Zeichen

dagegen sind Elemente von syntaktisch disjunkten und differenzierten Systemen.

Der Vorteil des syntaktischen Ansatzes ist, dass er sich primär um die formalen Beziehungen

der Zeichen untereinander kümmert. Das heißt die Semantik bleibt zunächst außen vor und

somit werden auch die zuvor schon erwähnten leeren, nicht-denotierenden Bilder erfasst.

78 Nelson Goodman (1998), S. 133

70


4.2.6 „Analoge“ und „digitale“ Symbolsysteme nach Goodman

Nun kommen wir zu dem für uns zentralen Punkt der Symboltheorie von Goodman. Mit den

erarbeiteten Kriterien versucht Goodman ganz allgemein analoge und digitale Systemen und

Symbolschemata zu definieren. Mit Hilfe der neuen Begriffe werden die Differenzen geklärt

und präzisiert. Er liefert die folgende Definition: „Ein Symbolschema ist analog, wenn es

syntaktisch dicht ist; ein System ist analog, wenn es syntaktisch und semantisch dicht ist.

Analoge Systeme sind demnach sowohl syntaktisch als auch semantisch in extremer Weise

undifferenziert: Für jeden Charakter gibt es unendlich viele andere derart, daß wir für

manche Marken unmöglich festhalten können, daß die Marke nicht zu allen gehört, und

derart, daß wir für manches Objekt unmöglich festlegen können, dass das Objekt nicht alle

erfüllt. Ein System dieser Art ist offensichtlich das genaue Gegenteil eines

Notationssystems. Dichte impliziert zwar das völlige Fehlen von Differenziertheit, wird aber

von ihm nicht impliziert; und ein System ist nur dann analog, wenn es dicht ist.

Ein digitales Schema dagegen ist durchgängig diskontinuierlich; und in einem digitalen

System stehen die Charaktere eines solchen Schemas in einer Eins-zu-eins-Korrelation mit

den Erfüllungsklassen einer ähnlich diskontinuierlichen Menge. Diskontinuität wird zwar von

Differenziertheit impliziert, impliziert sie jedoch selbst nicht; [...] kann es sein, dass ein

System mit nur zwei Charakteren syntaktisch und semantisch durchgängig und

undifferenziert ist. Um digital zu sein, muß ein System nicht nur diskontinuierlich, sondern

auch syntaktisch und semantisch durchgängig differenziert sein.“ 79

Da wir uns nur um die syntaktischen Merkmale kümmern und nicht um die semantischen

können wir folgendes festhalten: Ein Symbolschema ist also analog, wenn es syntaktisch

dicht ist, und ein Symbolschema ist digital, wenn es syntaktisch durchgängig differenziert ist;

man könnte auch sagen, dass es syntaktisch diskret ist. Goodman illustriert seine Definition

am Beispiel eines Druckmessers. Dazu stellt man sich einen Druckmesser mit einem runden

Ziffernblatt und einem einzigen Zeiger vor, der sich mit zunehmenden Druck gleichmäßig im

Uhrzeigersinn bewegt. Wenn sich nun auf dem Ziffernblatt keine Ziffern oder Marken

befinden und jeder Unterschied in der Zeigerposition einen Unterschied im Charakter bewirkt,

dann ist das Instrument beim Anzeigen des Drucks nicht notational. Das heißt die Erfordernis

der syntaktischen Differenzierung ist nicht erfüllt, denn man kann die Position des Zeigers nie

mit absoluter Präzision feststellen.

Wenn man dagegen das Ziffernblatt durch Punkte etwa in fünfzig Abschnitte einteilen würde,

kommt es für eine Beurteilung darauf an, wie man das Messgerät abliest. Wenn es auf die

absolute Position des Zeigers auf dem Ziffernblatt ankommt und die Punkte dabei nur als

Hilfsmittel für eine annähernde Bestimmung dieser Position dienen, dann bleibt das Schema

syntaktisch undifferenziert, wäre also ein analoges Symbolschema. Denn die Punkte wären

nur ein Hilfsschema, das für die annähernde Lokalisierung, wo der Zeiger sich befindet, ganz

79 Nelson Goodman (1998), S. 154-155

71


nützlich ist. Nimmt man dagegen an, man würde dasselbe Ziffernblatt in der Art lesen, dass

jeder Punkt so verstanden werden soll, dass er das Zentrum oder den Rand eines Gebiets

markiert, dann wird jedes Erscheinen des Zeigers innerhalb dieses Gebiets als eine Inskription

desselben Charakters verstanden. Dieses Schema nun wäre notational, vorausgesetzt, die

fünfzig gewählten Gebiete sind disjunkt und durch Lücken voneinander getrennt, wie klein

diese auch sein mögen. Ebenso wie es bei einer Uhr mit Ziffernblatt bezüglich der

Stundeneinteilung in zwölf Abschnitte geschieht. Man hätte als Beispiel ebenso eine Uhr mit

Ziffernanzeige wählen können.

Daraus ergeben sich Vorteile und Nachteile der beiden Schemata. Digitale Systeme, wie

Digitalcomputer sind zu höchster Präzision fähig, wenn es um das Zählen geht, während der

Analogcomputer die bessere Möglichkeit hat, die absolute Position in einem Kontinuum zu

registrieren. Eco stellt in diesem Zusammenhang fest, dass diese statt mit „digitalem Code“ mit

einem „analogischen Modell“ arbeiten. Da man beim Digitalrechner bereits diskrete Werte

verwendet, die eine codifizierende Konvention voraussetzen ist die Bezeichnung „digitaler

Code“ angebracht; im Unterschied zum analogen Rechner, bei der man die Entsprechung

aufgrund einer vorhergehenden Ähnlichkeit festlegt. Der Mangel des analogischen Modells ist

es deshalb aber auch, dass wir nicht imstande sind es zu erklären, weil wir es nicht erzeugt

haben. 80

Die wirklichen Vorzüge von digitalen Instrumenten sind die von Notationssystemen. Sie bieten

eine Bestimmtheit und Wiederholbarkeit beim Ablesen der angezeigten Werte. Interessant ist

die Feststellung von Goodman, dass es Systeme gibt, die sowohl analog wie auch digital sind.

So genannte gemischte Systeme, die man auch als Hybride bezeichnet. Dies hat aber zur

Konsequenz, dass die beiden Begriffe „analog“ und „digital“ sich nicht gegenseitig

ausschließen. Das wiederum würde heißen, dass es durchaus Medien geben könnte, die

sowohl analog, als auch digital sind. Wir müssen das mal im Hinterkopf behalten, wenn wir

nun die Unterscheidungsmöglichkeit von Goodman auf Bilder übertragen. 81

4.3 Was ist ein digitales Bild?

4.3.1 Bild als Struktur

Wir haben bereits in Kapitel 3 die technischen Vorgänge bei der Entstehung von digitalen

Bildern beschrieben. Dabei haben wir gesehen, das digitale Bilder durch Umwandlung von

analogen in digitale Daten, in einem Prozess den man „Digitalisierung“ nennt, entstehen

können. Sie können aber auch direkt erzeugt werden. Dabei werden keine analogen Vorlagen

80 Umberto Eco (1972), S. 221

81 Vgl. Nelson Goodman (1998), S. 152-155

72


umgewandelt, sondern es werden aus den Bildinformationen, die uns die Welt liefert,

unmittelbar digitale Bilder hergestellt. Wie dies genau geschieht, haben wir am Beispiel des

Digital Imaging gesehen. Die digitalen Bilder, die dabei entstehen unterscheiden sich aber,

wenn sie erst einmal digital vorliegen, nicht mehr in ihrer Struktur. Wir können festhalten, dass

ein digitales Bild aus gerasterten Bildelementen besteht. Wobei die Bildpunkte oder Pixel die

eigentlichen Bildelemente darstellen, welche die Farbwerte an den entsprechenden

Bildpositionen zeigen.

CHRISTIAN Wittwer beschreibt das digitale Bild wie folgt: „Das digitale Bild ist also eine

codierte, mathematische Struktur in Form einer zweidimensionalen Matrix. Dem trägt die

französische Sprache mit dem Ausdruck „photographie numérique“ Rechnung. Die Matrix,

unterteilt in Linien und Kolonnen, besteht aus symmetrisch angeordneten Bildelementen,

„picture elements“ oder einfach Pixel genannt. Ein Pixel ist die kleinste Informationseinheit

des digitalen Bildes und beschreibt einen spezifischen Ton- oder Farbwert.“ 82

Das digitale Bild ist also eine Matrix und somit als eine mathematische Struktur zu verstehen, in

der festgesetzt wurde, wo welcher Bildpunkt sitzt und welchen Farbwert er trägt. Dabei kann

die Struktur der digitalen Bilder auch von der einer Matrix entfernt werden. Mittlerweile gibt es

Komprimierungsverfahren, welche das Bild nicht mehr in der Art einer zweidimensionalen

Matrix darstellen. Dabei werden zum Beispiel gleiche Elemente zu Gruppen zusammengefasst,

um redundante Daten zu ersetzen und damit zu verringern. Letztendlich beziehen sich jedoch

alle Zustände immer auf die eigentliche Matrix.

Nelson Goodman lieferte uns eine neue Beschreibung von analogen und digitalen

Symbolsystemen bezüglich ihrer Syntaktik, also ihrer Struktur. Was dies bei einer Übertragung

auf die Bilder bedeutet, wollen wir uns nun anschauen.

4.3.2 Das digitale Bild

Bei den analogen Bildern sind die Bildträger, als materielle Gegenstände, mit Oberflächen

ausgestattet, die man üblicherweise als reellwertig ansehen wird. Wie man in der Physik den

Raum als reellwertig ansieht, kann man den Bildträger, die Oberfläche als reellwertig ansehen.

Genau genommen müsste man dabei drei Dimensionen ansetzen, weil die Bilder auch

Vertiefungen und Erhöhungen aufweisen können. Man hat also drei Richtungen, die für das

Bild von Bedeutung sind, die Höhe, die Breite und die Tiefe. Beim Vorgang des Malens oder

Zeichnens können nun Markierungen aufgebracht werden. Dabei können die Markierungen

darauf (Farbflecke etwa) das Resultat von Bewegungen (eines Pinsels, eines Stiftes oder

eines Tintentröpfchens) sein. Um diese adäquat zu beschreiben, müssen wir von einem

Kontinuum möglicher Bewegungspositionen ausgehen. Das heißt, dass der dreidimensionale

82 Christian Wittwer (1996), S.37

73


Raum, als den wir uns die Bilder vorstellen, kontinuierlich sein muss. Er muss mit den reellen

Zahlen beschrieben werden, die ja kontinuierlich sind.

Für Goodman zeichnen sich analoge Symbolschemata durch ein System von durchgängiger

syntaktischer Dichte aus. Bei den analogen Bildern könnte man sagen, dass zum Beispiel die

möglichen Positionen der Bildelemente, zum Beispiel Farbflecke dicht sind. Es ist nicht im

Voraus festgelegt, an welchen Stellen ein Bildelement gesetzt werden kann. Auf einem Blatt

Papier kann theoretisch an jeder Stelle Farbpigment eines Stiftes aufgetragen werden. Wir

sollten die geforderte syntaktische Dichte im Zusammenhang mit den Eigenschaften der

Malerei oder auch der Zeichnung auf syntaktische Kontinuierlichkeit ausweiten, denn wenn

wir davon ausgehen, dass eine Marke wirklich überall gesetzt werden kann, müssen wir

diese Situation mit den reellen Zahlen beschreiben.

Die digitalen Symbolschemata sind nach Goodman syntaktisch differenziert. Dies trifft insofern

zu, als dass bei den digitalen Bildern die möglichen Bildpositionen, die markiert werden

können, eingeschränkt sind. Man bewegt sich auf einem festgelegten Raster. Es können nur

an vorher festgelegten Positionen Bildpunkte gesetzt werden. Damit sind auch die

entstehenden Marken endlich differenziert. Denn zwischen zwei Bildpunkten gibt es keine

weiteren. Egal wie fein das Raster gewählt wird, es gibt doch immer Bildpositionen, die nicht

markiert werden können.

Auch in einem anderen Sinn sind die digitalen Bilder endlich differenziert. Wie wir schon

gesehen haben, werden im Digitalisierungsprozess, genau beim Vorgang der Quantisierung

die kontinuierlich vorliegenden Farbwerte auf endlich viele reduziert. Das heißt die digitalen

Bilder sind auch bezüglich der Farbwerte endlich differenziert, es spielt also keine Rolle, ob

ein Bild nun 256 oder 2 Millionen Farben besitzt, es sind immer endlich viele diskrete Werte.

Deshalb können die Farbwerte ja gerade mit den natürlichen Zahlen beschrieben werden.

Dabei spielt es auch keine Rolle, dass die Farbwerte eigentlich aus einer Kombination von

Werten der drei Grundfarben angegeben werden.

Wir können also die Begriffe von Goodman sehr gut auf die künstlerischen Bilder, als eine

spezielle Menge, der analogen und digitalen Symbolschemata übertragen.

4.3.3 Ein struktureller Widerspruch und ein Lösungsvorschlag

Alles wäre zu schön, wenn es da nicht eine kleine Ungereimtheit gäbe. Denn wenn man sich

die Beschreibung der digitalen Bilder noch einmal genau überlegt, entdeckt man folgende

Unstimmigkeit. Diese hatten wir ja als syntaktisch endlich differenziert angesehen und konnten

dies auch gut mit dem Zustand der Bilder nach dem Digitalisierungsvorgang in Einklang

bringen. Nach der Definition von Goodman wären diese aber widersprüchlich definiert. Denn

Goodman sieht es ja als eine wesentliche Eigenschaft aller bildhafter Symbolsysteme, also

nennen wir sie ruhig einmal Bilder, dass diese syntaktisch dicht sind. Dies war gerade der

74


wesentliche Unterschied zu den notationalen Symbolschemata, wie zum Beispiel der Schrift.

Und wir kommen nicht darum, die digitalen Bilder, zum einen zu den bildhaften

Symbolsystemen, zum anderen zu den digitalen Symbolschemata zuzuordnen. Richard

Schantz zeigt, dass Goodman selbst diesen Einwand erkannt hat und eine notwendige

Präzisierung vorgenommen hat. 83

Es steht der Einwand im Raum, dass Analogizität gar keine notwendige Bedingung für

bildhafte Darstellungen ist. Dies zeigt sich an Bildern, wie Computergrafiken oder

Fernsehbildern, die aus digital kodierten Punkten erzeugt sind oder auch an Mosaiken, die aus

einer begrenzten Anzahl aus Steinen zusammengesetzt sind. In allen diesen Fällen, so

Schantz, scheint doch ein Alphabet zur Verfügung stehen, aus denen Bilder aufgebaut

werden können. Wie es dennoch zu einer konsistenten Aussage kommt, erklärt Goodman,

indem er klar stellt, dass „analog“ und „digital“ nicht auf isolierte Symbole, sondern auf

Symbolschemata angewendet werden. Kein Symbol ist an und für sich analog und keines

digital. Daraus würde man schließen, dass ein Bild ein Symbol in einem analogen Schema sein

muss. Dies verwirft er und formuliert eine Art Einbettung der digitalen in die analogen

Symbolschemata.

Das heißt, ein aus Punkten zusammengesetztes Bild gehört zu einem digitalen Schema, aber

es gehört auch zu vielen analogen Schemata. Die Behauptung, dass jedes Symbol zu

Schemata beider Typen gehört, illustriert er am Beispiel eines aus einer Art Karten

zusammengesetzten Porträts von Abraham Lincoln.

Das Porträt könnte man sich zunächst als ein Bild, dass auf ein Gitternetz aufgebaut ist

vorstellen. Die Felder des Gitternetzes werden dabei entweder weiß oder schwarz gefüllt.

Weiter stellt man sich vor, dass es für jedes denkbare Muster, also alle möglichen

Kombinationen eine Karte mit gefüllten Quadraten gibt. Dann wären diese Karten endlich

differenziert und das Schema digital. Nun kann man den Kartensatz erweitern, so dass alle

Quadrate mit Schwarz, Grautönen und Weiß, ohne Beschränkung auf irgendein Gitternetz

ausgefüllt werden. In diesem neuen Kartensatz ist jede Karte von den anderen undifferenziert

und das Schema wäre analog. Der ursprüngliche Kartensatz, von dem wir ausgegangen sind,

ist aber in dem erweiterten Kartensatz voll enthalten. Den ursprünglichen Kartensatz

bezeichnet Goodman als digitales Subschema, da es durch Elimination aus dem analogen

Schema entstanden ist.

Mein Vorschlag wäre, die Menge aller digitalen Bilder einfach als Teilmenge der analogen

Bilder zu sehen. Dies ist tatsächlich so, wenn man sich auch überlegt, dass die digitalen Bilder

einfach durch eine Nullmultiplikation außerhalb der Rasterpunkte entstehen. Das heißt, diese

wären also eine Art analoge Bilder, bei denen manche Bildpositionen gelöscht wurden. Bei

analogen Symbolschemata, die syntaktisch dicht sind, besteht ja die potenzielle Möglichkeit,

wirklich an jeder Bildposition eine Marke zu setzen. Wenn man sich nun dafür entscheidet, nur

an endlich vielen Stellen, den Rasterpunkten, eine Marke zu setzen und die anderen frei zu

83 Richard Schantz, Die Ordnung der Bilder - Nelson Goodmans syntaktische Explikation der Bildhaftigkeit, in: Klaus Sachs-Hombach,

Klaus Rehkämper (1998), S.100-102

75


lassen, erhält man ein digitales Bild. Man kann sie somit als spezielle analoge Bilder ansehen.

Wir können die digitalen Bilder also als eine Teilmenge verstehen, die man in die Menge der

analogen Bilder einbetten kann.

4.3.4 Syntaktische Veränderung und eine seltsame Verwandtschaft

Durch die Rasterung, also die Reduktion auf ein endliches diskretes Punktfeld, haben wir die

Möglichkeit die vorliegenden Werte linear „wegzuschreiben“. Das heißt, es kann eine

Umwandlung des zweidimensionales Feldes in eine eindimensionale „Linie“ stattfinden.

Dies ist deshalb möglich geworden, weil wir aus den ursprünglich überabzählbar unendlich

vielen Bildpunkten nur endlich viele ausgewählt haben und diese können wir auslesen. Wir

können sie auslesen, weil wir sie nun durchnumerieren können. Außerdem sind die Werte

diskret, vergleichbar den natürlichen Zahlen, womit wir über die Nachbarschaftsverhältnisse

Bescheid wissen. Wir können genau sagen welche Bildpunkte „direkt“ nebeneinander liegen.

Direkt heißt in diesem Zusammenhang nicht, dass sie ganz eng beieinander liegen müssen,

sondern dass es eben der nächstmöglich erreichbare Punkt ist.

Damit ergeben sich auch neue Möglichkeiten der Komprimierung der Zeichen. Da jetzt lineare

Nachbarschaftsverhältnisse vorherrschen, können benachbarte Zeichen miteinander

verglichen werden und gleiche zusammengefasst werden. Dabei gibt es verschiedene

Verfahren, wie man gleiche Zeichen zusammenfasst.

...

Abbildung 19: Lesevorgang des digitalisierten Bildes und Überführung in eine eindimensionale Darstellung

Erstaunlich ist auch, dass wir nun dadurch, dass wir dieses diskrete Punktfeld linear

wegschreiben können, eine Art Text erhalten. Denn normaler Text, im Unterschied zum

Hypertext, zeichnet sich gerade dadurch aus, das er linear geschrieben und gelesen wird.

Die Anordnung auf einer Buchseite ist nur aus praktischen und ökonomischen Gründen

zweidimensional. Man könnte sich jeden Text auch auf einem sehr langen „Streifen“

hintereinander als sehr lange Kette von Zeichen vorstellen, ohne dass sich dabei inhaltlich

76


irgendetwas ändern würde. In der Geschichte der Schrift war dies einmal ein beliebtes

Verschlüsselungsverfahren. Der Text wurde auf einem ausreichend langen Papierstreifen

geschrieben, der um ein Hölzchen mit einem bestimmten Durchmesser schraubenartig

gewickelt wurde. Nur wenn Sender und Empfänger ein Hölzchen mit demselben Durchmesser

besaßen, konnte der Empfänger den Text entschlüsseln, wobei der Durchmesser den

Schlüssel darstellte (dies aber nur als Beispiel für einen „wirklich“ linear geschriebenen Text).

Damit haben die digitalen Bilder dieselben Eigenschaften wie ein Text. Das digitale Bild ist

endlich differenziert und seine Elemente sind diskret. Die Leseweise ist linear. Das digitale Bild

entspricht also in dieser Art einem Text. Die Lesart ist bekannt und es gibt auch eine

Grammatik dieser Bilder. Man besitzt in Abhängigkeit des Grafikprogramms, oder allgemeiner

des Interpreters, wie auch die Semiotiker sagen würden, eine feste Vorgabe, wie die Zeichen

zueinander zu strukturieren sind.

Damit wäre aber auch gleichzeitig eine Verankerung des Textes im Bildbegriff verbunden,

was ich für einen interessanten Gedanken halte. Denn wenn man sich überlegt, wie der

konkrete Wahrnehmungsvorgang beim betrachten von Text abläuft ist dies nicht so abwegig.

Wir wollen das am Beispiel eines einfachen Bogen Papiers nachvollziehen. In der konkreten

Wahrnehmungssituation versucht das kognitive System zunächst aufgrund von Merkmalen,

wie dem Kontrast oder bekannten Strukturen, wie Linien, bekannte oder neue Objekte, besser

Gestalten auszumachen. Wobei die neuen vielleicht zu den bereits bekannten Objekten oder

Gestalten zugeordnet werden. 84

Was ich damit sagen will ist, dass ich den Wahrnehmungsvorgang prinzipiell zunächst als

visuelles Ereignis sehe, in dem das ganze als „Bild“ gesehen wird. Erst mit der Identifikation

von Zeichen eines Alphabetes wird das Bild zum Text.

Wenn uns jemand eine Schrift zeigt, die wir zuvor nie gesehen haben, können wir nicht

beurteilen, ob es sich um Schrift handelt, obwohl diese vielleicht endlich differenziert und

syntaktisch disjunkt ist. Wir können zum Beispiel in der deutschen Sprache ein „o“ auch nur

als Textelement erkennen und von einem Kreis als Bildelement unterscheiden, wenn wir

gelernt haben, dass es dieses als Teilmenge des Systems Schrift gibt. Man muß aber auch

erwähnen, dass die Umgebung der Bildelemente ebenfalls eine wesentliche Rolle für den

Vorgang der Identifizierung und Einordnung spielt. Die Auswertung ist also stark durch den

Kontext der Objekte abhängig.

Verlassen wir dieses Feld und kehren wieder zurück zur gemeinsamen Eigenschaft von

digitalem Bild und Text: der linearen Struktur. Wir hatten festgestellt, dass das „lineare

wegschreiben“ der Bildmatrix spätestens beim abspeichern der Bilddaten stattfindet.

Interessant wäre auch eine Untersuchung der Verteilung der Bilddaten im Hauptspeicher des

Computers. Eigentlich liegen die Bilddaten auch hier bereits linear vor. Denn der Speicher ist

ebenfalls linear adressierbar, das heißt jede Speicherzelle besitzt eine Art einstellige

Hausnummer, mit der sie angesprochen werden kann.

84 Martin Scholz, Gestaltungsregeln in der pictorialen Kommunikation, in: Klaus Sachs-Hombach, Klaus Rehkämper (1999), S.280

77


Beim abspeichern der Bilddaten werden diese linear weggeschrieben, aber bei vielen

Speichermedien eigentlich auch nicht sequenziell geschrieben. Am Beispiel der Musikcassette

kann man leicht das sequenzielle Speichern von Daten erklären. Dieses Medium ist nicht direkt

adressierbar, Daten müssen hintereinander aufgezeichnet werden. Auf einer Festplatte eines

Computers zum Beispiel werden die Bilddaten noch ökonomischen Gesichtspunkten verteilt

und liegen dann fragmentarisch, nicht notwendigerweise in der ursprünglichen Reihenfolge

vor.

In diesem Moment können wir damit aber auch eine syntaktische Veränderung feststellen.

Denn die Struktur der Zeichen untereinander hat sich entscheidend verändert, die

ursprüngliche flächige Beziehung wurde in eine lineare überführt.

4.4 Digitale Bilder ohne Apparate?

Im Folgenden wollen wir uns kurz mit der Frage beschäftigen, ob digitale Bilder grundsätzlich

und ausschließlich durch Apparate erzeugt werden können. Denn bis jetzt haben wir digitale

Bilder immer im Zusammenhang mit Apparaten gesehen, die sie erzeugen. Die Apparate haben

entweder unmittelbar ein digitales Bild erzeugt oder dieses durch die Digitalisierung aus einem

vorhandenen analogen Bild generiert. Den ersten Fall hatten wir beim Digital Imaging, das ja

direkt eine digitale Fotografie liefert, also ein digitales Bild. Den zweiten Fall haben wir, wenn

wir zum Beispiel eine Handzeichnung einscannen, auch hier erhalten wir als Resultat ein

digitales Bild.

Wenn man nun aber davon ausgeht, dass diese Apparate von Menschen erdacht und

konstruiert wurden, könnte man annehmen, dass die grundlegenden Mechanismen auch

manuell ausgeführt werden können. Es ist klar, dass zum Beispiel der menschlichen

Feinmotorik, dem Auflösungsvermögen der Augen oder auch der Reaktionsfähigkeit Grenzen

gesetzt sind. Es geht also nicht darum, den Ablauf eines Apparates zu imitieren, sondern um

die Frage, ob digitale Bilder, wie wir sie jetzt als digital verstehen, auch ohne den Einsatz von

Apparaten hergestellt werden können. Im auditiven Bereich haben wir die Sprache als ein

derartiges digitales Symbolsystem, das ohne den Einsatz von Apparaten anwendbar ist.

Diese wirkt aber wie gesagt auditiv und nicht visuell.

Geht man davon aus, dass ein digitales Bild syntaktisch differenziert sein muss, ist es

notwendig, zunächst ein endlich differenziertes Symbolsystem zu entwerfen, dass als

Repertoire der Gestaltung dienen soll. So könnte man sich neun quadratische Plättchen bauen,

die man mit zum Beispiel fünf verschiedenen Farben einfärbt. Mit diesem Vorrat an Plättchen,

wäre es nun möglich quadratische Bilder zu legen, die aus einem endlich differenzierten

Symbolsystem zusammengesetzt sind. Denn es gibt nur neun Plättchen zur Auswahl und

diese sind in ihrer Farbigkeit ebenfalls endlich differenziert. Dies soll nur zeigen, dass es

prinzipiell möglich ist, ohne den Einsatz von Apparaten digitale Bilder zu erstellen.

78


4.5 Substanz des digitalen Bildes

4.5.1 Einführung

Wir haben bis jetzt viel über die digitalen Bildmedien erfahren. Wir kennen den Prozess der

Herstellung digitaler Bilder beziehungsweise der Umwandlung, also der Digitalisierung. Wir

haben die syntaktische Struktur der digitalen Bilder kennengelernt und gesehen, dass digitale

Bilder als syntaktisch endlich differenzierte Symbolsysteme zu sehen sind, diese aber durch

Vorgänge wie die Komprimierung durchaus veränderte Syntakta erhalten können. Dabei liegen

die digitalen Bilder codiert vor. Denn aus den kontinuierlich vorliegenden Daten wurden nur

endlich viele ausgewählt und diese in eine endlich lange Zeichenkette umgewandelt. Durch die

Überführung in eine lineare Form handelt es sich dabei um eine Art von Text. Die Bilddaten, die

ja das Bild beschreiben, liegen als lineare Aneinanderreihung von digitalen Daten vor, dem

Code.

Wie bereits in Kapitel 3 angesprochen können wir den Code als immateriell ansehen und in

diesem Sinne wird auch von der Immaterialität der Neuen Medien gesprochen. Denn diese

beruhen nicht auf der Elektronik, sondern dem Binärcode, auf codierter Information. Daraus

resultiert ein wesentlicher Unterschied der digitalen zu den analogen Medien. Es bedarf

sowohl auf der Produktions- als auch auf der Rezeptionsseite des Technikeinsatzes. Das

digital vorliegende Bild muss also zunächst wieder erzeugt oder rekonstruiert werden und

wird erst dann - zum Beispiel in Form einer „Hardcopy“ - für den menschlichen

Wahrnehmungsapparat zugänglich.

Das digitale Bild muss sich also immer erst in irgendeiner Art materiell manifestieren, wobei die

verschiedenen Manifestationen durchaus sehr voneinander abweichen können. So ist es ein

erheblicher Unterschied in der Erscheinung des Bildes, ob es auf einem Monitor oder auf

einem Farbdrucker ausgegeben wird. Jedesmal wird eigentlich „dasselbe“ Bild dargestellt und

dennoch sind diese verschieden. Konkret können zum Beispiel Differenzen in der Farbigkeit,

aber auch in der Erscheinungsgröße auftreten.

Nun könnte man sagen, dass dies grundsätzlich bei reproduzierbaren Medien, wie zum

Beispiel bei einer Radierung der Fall ist. Hier haben wir auch eine Situation, in der das Bild

zunächst in einer Art Vorstufe des eigentlichen Bildes vorliegt und erst durch den

Reproduktionsvorgang endgültig und in seiner gewünschten Erscheinung sichtbar wird.

Diese Vorstufe möchte ich Form nennen. Wie bei einem Abguss in einer Gießerei, gibt es eine

materielle Vorlage, die dazu benützt wird, andere Materie zu formen, in Form zu bringen. Bei

einer Radierung wäre die Form also die Radierplatte, die Farbe und Papier in Form bringt.

Auch hier können die entstehenden Reproduktionen sehr unterschiedlich ausfallen. So ist das

Resultat bei einer Radierung zum Beispiel von der Farbmenge abhängig, die auf die Platte

aufgetragen und stehen gelassen wird. Die Beschaffenheit, die Konsistenz von Farbe und

Druckpapier spielen ebenfalls eine Rolle. Man könnte nun versucht sein die Form der

79


eproduzierbaren Medien mit dem Code des digitalen Bildes gleichsetzen. Zwischen Form und

Code besteht aber ein wesentlicher Unterschied. Die Form, als Vorlage für die Reproduktion

ist bereits materiell festgelegt, sie bleibt immer gleich und weist bereits wesentliche

Eigenschaften des zukünftigen Bildes auf. Auch wenn wir diese nicht unmittelbar mit unseren

Sinnen wahrnehmen können, so können wir bei einer unentwickelten Druckplatte in der

Offsetlithographie oder bei einem latent vorliegenden Foto eigentlich nichts von dem

zukünftigen Bild erkennen: Dennoch sind die Bilddaten bereits materiell verankert und es

besteht eine Analogie zwischen der Form und dem zukünftigen Bild. Der Code dagegen liegt

nicht materiell vor, hier liegen die Verhältnisse anders.

Im Zusammenhang mit den verschiedenen Erscheinungen ergibt sich eine der zentralen

Fragen dieser Arbeit, nämlich nach der eigentlichen Substanz des digitalen Bildes. Wobei wir

in diesem Zusammenhang das Wort „Substanz“ in der Bedeutung von „das Beharrende, das

unveränderliche, bleibende Wesen einer Sache“ 85 sehen wollen. Die Form bei

reproduzierbaren Medien könnten wir als Substanz im Sinne von „Stoff, Materie, Material“

verstehen. Dies gelingt uns beim Code nicht, der als immateriell zu sehen ist. Wir können von

Substanz im Sinne von „dem bleibenden Wesen einer Sache“ sprechen. In dieser Hinsicht sind

sich Form und Code ähnlich. Man könnte den Code als Substanz des digitalen Bildes ansehen,

der hinter jeder dieser Manifestationen steht, im Sinne vom „eigentlichem Inhalt, dem

Wesentlichen“. Ob dies zutrifft müssen wir im Folgenden klären. Dazu ist es sinnvoll

herauszufinden, was das andere, das spezifische am Code im Vergleich zur Form ist. Dafür

müssen wir die Bedingungen des Codes klären und vorab den Begriff des Codes erklären.

4.5.2 Begriff des Codes

Wir haben gesehen, dass man Bilder als Zeichen auffassen kann. Wir werden also schauen,

was die Semiotik uns für den Begriff des Codes zur Verfügung stellt. Um eine erste

Vorstellung des Codes zu bekommen, können wir uns an einer ad hoc Definition von Eco

orientieren. Für ihn ist der Code ein System von Symbolen, die nach vorheriger Absprache die

Möglichkeit besitzen Informationen zu repräsentieren und diese zwischen Sender und

Empfänger zu übermitteln. 86

Das heißt, der Code ist ein konventionelles Symbolsystem, mit dem Informationen zwischen

Sender und Empfänger kommuniziert werden können. Das ist eine Definition, die auf den

Informationsbegriff aufbaut. Für diese Definition müssen wir deshalb eine kurze Vorstellung

des Begriffes der Information geben, wie ihn die Semiotik und die Informationstheorie versteht.

Der Begriff der „Information“ wird in der Theorie nicht im weitläufigen Sinne von „Botschaft“

oder „Nachricht“ verstanden.

85 Zu den Bedeutungen des Wortes „Substanz“ vgl. Duden - Das Fremdwörterbuch (1990)

86 Vgl. Umberto Eco (1972), S.19

80


Um die Bedeutung zu erklären, ist es notwendig ein wenig auszuholen. Zunächst einmal kann

man vereinfacht sagen, dass man eine Information besitzt, wenn man weiß, welches von

zwei Ereignissen eintritt. Denn man nimmt an, dass die beiden Ereignisse die gleiche

Wahrscheinlichkeit haben und man besitzt keine Kenntnis darüber, welches der möglichen

Ereignisse eintreten wird. Bei einer Münze zum Beispiel, die man in die Luft wirft, hat man eine

Wahrscheinlichkeit von 1:2 für Wappen oder Zahl.

Die Informationstheorie nennt die Informationseinheit „bit“. 87 Das bit ist die Einheit der binären

Disjunktion, die man zur Identifikation einer Alternative braucht. Mit der Methode der binären

Entscheidung ist es möglich, ein Ereignis aus einer endlichen Anzahl möglicher Ereignisse zu

identifizieren. Das ist auch das Verfahren, dem die so genannten digitalen Computer folgen. Im

Falle der Identifikation eines Elements aus acht möglichen Fällen hat man 3 bit Informationen

erhalten. Der Sachverhalt kann durch folgendes Beispiel illustriert werden: Wenn man bei

einer Wanderung an drei Stellen vorbeigekommen ist, an denen sich der Weg in zwei neue

aufgeteilt hat, hatte man acht Möglichkeiten für den ganzen Weg der Wanderung. Man hätte

sich ja an jeder Gabelung anders entscheiden können. Das heißt, die Information ist ein Grad

für die Möglichkeiten.

Wichtig ist dabei die Unterscheidung zwischen Information und Inhalt. Das heißt, der Wert der

Information darf nicht mit dem Inhalt, der mitgeteilt wird, gleichgesetzt werden. In der

Informationstheorie zählt die mitgeteilte Bedeutung nicht. Für die Informationstheorie zählt die

Zahl der Alternativen, die für eine eindeutige Definition des Ereignisses erforderlich ist. Die

Information ist nicht so sehr das, was gesagt wird, sondern das, was gesagt werden kann.

Zurück zur Sprache. Eine mit einem bit berechenbare Botschaft (die Wahl zwischen zwei

gleichwahrscheinlichen Möglichkeiten) und eine mit drei bit berechenbare Botschaft (die Wahl

zwischen acht gleichwahrscheinlichen Möglichkeiten) unterscheiden sich durch die größere

Zahl möglicher Wahlen, welche die zweite Situation gegenüber der ersten an der Quelle

aufwies.

Im zweiten Fall informiert die Botschaft mehr, weil an der Quelle größere Ungewissheit über

die Wahl, die getroffen werden würde, bestand. Die Information ist das Maß einer

Wahlmöglichkeit der Selektion der Botschaft. Die Information stellt die Auswahlfreiheit dar, die

bei der Bildung einer Botschaft vorliegt, und muss folglich als statistische Eigenschaft der

Quelle der Botschaften betrachtet werden.

Der Zusammenhang zwischen Information und Code besteht nun darin, dass der Code den

Grad der Information einschränkt. Bestimmte Ereignisse sind möglich und andere weniger. Die

Information der Quelle nimmt ab, die Möglichkeit Botschaften zu übertragen, nimmt zu. Der

Code stellt in diesem Sinne ein Wahrscheinlichkeitssystem dar, das über die

Gleichwahrscheinlichkeit des Ausgangssystems gelegt wird, um dieses kommunikativ zu

beherrschen. Im Bezug auf Symbolsysteme bedeutet die Einführung des Codes eine

87 Von „binary digit“, also „binäres Signal“

81


Einschränkung der Kombinationsmöglichkeiten zwischen den beteiligten Elementen und der

Anzahl der Elemente, die das Repertoire bilden.

Code, der die anfängliche Gleichwahrscheinlichkeit einschränkt und so ein System von

Wiederholungen herstellt und gewisse Symbolkombinationen ausschließt, ist ein System von

rein syntaktischen Regeln. Er legt also Vereinbarkeiten und Unvereinbarkeiten fest, wählt

bestimmte Symbole als zugehörig aus und schließt andere aus. Code kann nun aber in

zweifacher Bedeutung auftreten. Zunächst ein System von syntaktischen Regeln. In diesem

rein syntaktischen Sinn kann ein Code einfach ein codifizierendes System genannt werden.

Gleichzeitig wirkt der Code auch als ein System von semantischen Regeln. Der Code stellt

also semantische Regeln auf. Durch den Code werden nämlich auf rein syntaktische Art und

Weise bestimmte kombinierbare Einheiten unter Ausschluss anderer ausgewählt und dies

geschieht deshalb, weil diese Operation dazu diente, eine semantische Funktion zu

ermöglichen. Nun gibt es die „eigentliche“ Bedeutung des Codes, indem man ihn als Liste von

Äquivalenzen versteht. Das heißt, jedes Symbol entspricht einer gedachten Bedeutung. Auf

diesen „denotativen Code“, bauen aber weitere optionale, so genannte konnotative Codes auf.

Diese konnotative Codes bezeichnet man auch als „Subcodes“.

4.5.3 Interpretation und Prozess

In dieser semantischen Funktion des Codes tauchen Schwierigkeiten auf. Denn um den Code

zu verstehen, muss dieser vom Empfänger interpretiert werden und genau in der

Interpretation liegt der wesentliche Unterschied des Codes zur Form. Denn der digitale

Bildcode verweist in seiner Erscheinung nicht auf das zukünftige Bild, für das er steht. Er ist

ein konventioneller Code, der letztendlich aus Zahlen, besser Ziffern besteht. Zahlen aber

haben zunächst nichts mit der Realität zu tun. Sie stehen in keiner Beziehung zur Welt, die uns

umgibt. Zahlen besitzen sozusagen eine Nulldenotation. Erst der abstrakte Vorgang der

Übertragung der Zahlenverhältnisse auf Objekte der Welt, gibt den Zahlen einen Bezug. Der

Binärcode enthält keine Analogie. Und genau darin könnte man einen wesentlichen

Unterschied der digitalen Bilder sehen.

Überträgt man den Gedanken auf das Beispiel der Radierung als reproduzierbares Medium

ergibt sich das Folgende: Im Gegensatz zur Radierung, die zu den reproduzierbaren Medien

gehört, muss das digitalisierte Bild als Code erst interpretiert werden. Die unterschiedlichen

Erscheinungsformen der Radierung hängen von den Trägermaterialien ab. Also von der

Farbe, dem Gegenstand auf den gedruckt wird. Letztendlich gibt die vorhandene Radierplatte

als Form aber immer das Bild vor. Vielleicht könnte man das mit einem vorliegenden digitalen

Bild vergleichen, welches immer nur mit einem Programm interpretiert würde. Dann wäre die

Erscheinungsform, ähnlich wie bei der Radierung, von den Trägermaterialien abhängig. Die

Erscheinungsform würde sich verändern, je nachdem ob das digitale Bild auf einem

Bildschirm, einem Drucker oder anderweitig ausgegeben wird.

82


Bei einem digitalen Bild kann der vorhandene Code aber nicht nur von einem Programm,

sondern von vielen interpretiert werden. Um in der Praxis eine einheitliche Interpretation zu

gewährleisten, hat man sich auf so genannte „Datenformate“ geeinigt. Das heißt, es wurde

festgelegt, wie ein bestimmter Datensatz, also eine bestimmte Menge von Binärcode zu

verstehen ist. Dazu musste aber der eigentliche Code um einen so genannten „Metacode“

erweitert werden. Es gibt nun zusätzlich zum Bildcode einen weiteren Code, der vorschreibt,

wie der Bildcode zu deuten ist. 88 Was bedeutet dies im künstlerischem Kontext?

Bernd Busch stellt dazu fest: „Erstens ist der binäre Computercode ein gleichsam

universelles System, das sein Arbeitsmaterial in unterschiedliche Aggregatzustände

überführen kann, das die vielfältigsten Informationen nicht lediglich verknüpfen, sondern

auch ineinander umformen kann. Eine Folge hiervon ist, dass die unterschiedlichsten

Darstellungsformen und Medien technologisch integrierbar sind, ja, dass sie zum beliebig

wählbaren Effekt werden. Mediale Besonderheiten wandeln sich zu Darstellungsvarianten.“

und weiter „[...] wesentliche Veränderung betrifft den neuen Typus des Computer-Bildes.

Sein Ursprung ist das Programm, welches die verfügbaren Daten verarbeitet und die

Bildvarianten generiert.“ 89

Aus der Eigenschaft des Binärcodes als Universalcode ergeben sich weitreichende

Konsequenzen. Der Binärcode führt zu einer Verschmelzung bisher getrennter Medien zu

einem multifunktionalen Medienverbund. Da die Bits nicht nur Träger visueller, sondern jeder

anderen Information sein können, werden die Abbildungssysteme vollständiger. Sie bilden

nicht nur das ab, was wir sehen, sondern beziehen auch andere Sinne in die Abbildung mit

ein. Das heißt, der Binärcode ermöglicht uns gleichzeitig die Repräsentation von zum Beispiel

Bild, Text, Sound oder auch Video. Dies könnten auch Daten für eine Adressdatenbank oder

die Steuerungsdaten für eine CNC-Fräßmaschine sein. Der Binärcode macht alle Zeichen und

Bedeutungen austauschbar. Er ist ein Universalcode und fungiert als Umschlagplatz der

Zeichen. Aus diesem Grund können die Bits nicht auf sich selbst verweisen. Sie müssen

gegen andere Zeichen und deren Bedeutungen austauschbar sein. In diesem Sinne könnte

man das Fernsehbild, das auch gerastert ist und somit syntaktisch diskret, als nicht digitales

elektronisches Bild verstehen. Wobei das Fernsehgerät mit einem festgelegten Programm die

eintreffenden Daten interpretiert. Für jede Übersetzung bedarf es eines eigenen Codes. Der

elektronische Fernsehbildpunkt ist also gar nicht beliebig umwandelbar. Er bleibt immer das,

was er ist: visuelle Information. Dagegen können mit dem Computer vorliegende Daten beliebig

interpretiert werden. Zusammenfassend würde dies also bedeuten, dass man den Code nicht

unbedingt als Substanz des digitalen Bildes betrachten kann. Vielmehr müsste man das

digitale Bild im Prozess verstehen. Erst im Vorgang der Interpretation entsteht das eigentlich

Bild. Dabei kommt es darauf an, welches Programm den Code interpretiert. Weiter ist es

fraglich, ob ein Programm den Code überhaupt richtig interpretieren kann. Denn das Programm

88 Obwohl es diesen Metacode gibt, treten oft Interpretationsprobleme auf, wie bei der Darstellung von Html-Seiten mit verschiedenen

Browsern (Netscape / Internet Explorer). Auch hier liegt jeweils ein und derselbe Code und Metacode vor, aber die daraus

resultierenden Darstellungen sind unterschiedlich.

89 Bernd Busch (1995), S. 392

83


deutet den Code ja nur deshalb so, weil wir es ihm gesagt haben, dass es dies so tun soll.

Man könnte also ein eigenes Programm schreiben, dass den Code auf eine andere Art

übersetzt und diese Übersetzung wäre nicht als falsch zu betrachten.

Digitale Bilder sind also in einer Art Abhängigkeit des Programmes, mit dem sie interpretiert und

bearbeitet werden zu sehen. Durch den Einsatz von so genannten Grafikprogrammen,

ergeben sich veränderte Bedingungen für die Gestaltung der Bilder. Neue Gestaltungsmöglichkeiten

sind dazu gekommen und mit diesem Themenfeld wollen wir uns im folgenden

Kapitel beschäftigen.

84


5. Veränderte Produktionsbedingungen

Nachdem wir ausgiebig die theoretischen Grundlagen der digitalen Bildmedien bearbeitet

haben, wollen wir schauen, welches die daraus resultierenden praktischen Veränderungen

sind. Denn der Einsatz des Computers verändert offensichtlich die Bedingungen, unter denen

Kunst produziert wird. Wir haben gesehen, dass man mit Hilfe eines Computers vorhandene

Bilder digitalisieren kann. Beim Digital Imaging wurden sofort digitale Bilder erzeugt und der

Umweg über die analogen Bilder konnte vermieden werden. Eine weitere Möglichkeit stellt die

direkte Erzeugung der digitalen Bilder am Computer dar. Dies geschieht durch Algorithmen,

dass heißt durch Programme die Anweisungen an den Computer erteilen, wie die Bilder

erzeugt werden sollen. Außerdem können die digital vorliegenden Bilder, egal welcher

Herkunft sie sind, mit dem Computer effizient und komfortabel weiterbearbeitet werden. Man

kann also festhalten, dass es verschiedene Arten des Computereinsatzes bei der

Bilderzeugung gibt. Wir wollen diese zunächst unterteilen, um zu sehen, welche

Möglichkeiten es für die künstlerische Praxis gibt.

5.1 Gestaltungsmöglichkeiten

Wenn man den Computer für die Herstellung von Kunstwerken einsetzt, geht man damit neue

Arbeitsbedingungen ein. Es sind grundsätzlich sehr unterschiedliche Arbeitsweisen möglich,

aber unabhängig von der Weise, wie man den Computer für die Gestaltung benutzt, übergibt

man Teile des Gestaltungsprozesses an die Maschine. Aus dem beweglichen Verhältnis

zwischen Mensch und Maschine ergibt sich eine unterschiedliche künstlerische

Selbstständigkeit. Je nach der Art der Anwendung gewinnt die Maschine eine gewisse

Selbstständigkeit gegenüber dem Künstler. Frieder Nake, nimmt diesbezüglich eine

Dreigliederung vor. 90 Für ihn gibt es drei Stufen der maschinellen Autonomie:

Die erste zeigt sich in der Veränderung der handwerklichen Operationen. Dies ist der Fall,

wenn der Künstler so genannte Zeichen- oder Malprogramme einsetzt, die es in einer breiten

qualitativen Spanne, vom Kindermalprogramm bis zum professionellen Grafikprogramm, zu

kaufen gibt. Die Programme stellen dabei ein gewisses Repertoire an Funktionen zur

Verfügung. Diese simulieren oft die traditionell hergebrachten manuellen Techniken. Der

Künstler bleibt bei dieser Arbeitsweise in seinen Entscheidungen relativ unabhängig und die

handwerkliche Tätigkeit wird dadurch verändert, dass er interaktiv am Rechner die

Entstehung des Bildes steuert. Der Künstler gibt dabei über Eingabegeräte, zum Beispiel einer

Maus, Anweisungen an das Grafikprogramm. So können über die Bewegung der Maus

90 Vgl. Frieder Nake, Bildgeschichten aus Zahlen und Zufall. Betrachtungen zur Computerkunst, in: Gottfried Jäger, Andreas Dress

(1999), S. 125-126

85


Freihandlinien gezeichnet oder geometrische Formen gesetzt werden. Der Künstler kann in

dieser Arbeitsweise als User bezeichnet werden, der ein vorhandenes Grafikprogramm

verwendet. Das erspart dem Künstler die Schwierigkeit des Programmierens, schränkt ihn

aber gleichzeitig in seinen Möglichkeiten ein, da er ja an die vorgegebenen Funktionen

gebunden ist. Herbert Franke beschreibt diese Situation wie folgt: „Heute gibt es aber auch

so genannte Paint-Systeme, mit denen der herkömmliche Weg der Kunstproduktion simuliert

wird. Dabei sitzt man vor einem so genannten Tableau, einem Arbeitsfeld, über das man

einen Griffel führt. Alles, was man mit diesem Griffel auf dem Tableau ausführt, kann man

auf einem Bildschirm beobachten. Man braucht also überhaupt nicht mehr zu

programmieren.“ 91 Diese Beschreibung zeigt, wie sich die eigentlich sehr komplexen Systeme

zu relativ einfach zu bedienenden Oberflächen verändert haben. Ein interessanter Punkt ist

die Imitation der aus den traditionellen Techniken bekannten Werkzeuge. So kann man in einem

Grafikprogramm ebenso Radieren, wie mit einem Pinsel malen. Hier werden wir noch

ansetzen und schauen, was nun die neuen, also die spezifischen Werkzeuge der digitalen

Bildbearbeitung sind. Wichtig wäre es aus meiner Sicht auch, die Grenzen des

Grafikprogrammes auszuloten und vielleicht zu überwinden. Dabei stößt man auf das Feld der

Störungen, denn wenn man Methoden verwendet, die das Grafikprogramm eigentlich nicht zur

Verfügung stellt, bewegt man sich urplötzlich außerhalb des angedachten Systems.

Zurück zur Einteilung der Arbeitsweisen: Die zweite Stufe für Nake ist die Delegation geistiger

Operationen. Hierbei übernimmt ein Programm, die Entscheidungen für das Anbringen der

elementaren Zeichen, wie zum Beispiel der Farben oder den Linien. Der Künstler könnte diese

Entscheidungen auch selbst treffen, aber er übergibt sie an die Maschine, weil er am

ästhetischen Experiment interessiert ist. Es entstehen viele Produkte und in einem zweiten

Prozess akzeptiert oder verwirft der Künstler die durch das Programm entstandenen

Arbeiten. Dieses Vorgehen ist sinnvoll, wenn es sich um massenhafte oder komplizierte

Entscheidungen handelt. Neue Bilder sind möglich, weil diese jetzt mit einer angemessenen

Geschwindigkeit errechnet werden können. Diese Art der Computerkunst, deren Ursprung

man um 1965 datiert, spielte schon relativ früh, eine bedeutende Rolle. Ein bedeutender

Vertreter dieser Richtung ist der in New York lebende Manfred Mohr mit Serien wie „Cubic

Limit II“. In dieser Serie wird ein Würfel in zwei Teile geschnitten, die dann unabhängig

voneinander verdreht werden. Die Kanten der Würfel werden dann in die Bildebene projiziert

und anschließend entscheidet Mohr welche der Computerentwürfe in Acryl ausgeführt

werden.

91 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (Hrsg.), Digitaler Schein - Ästhetik der

elektronischen Medien, Suhrkamp Verlag, Frankfurt am Main 1991, S. 288

86


Abbildung 20: Manfred Mohr, Arbeit aus der Serie Cubic Limit II 92

Als eine dritte Stufe der maschinellen Autonomie sieht Nake die Modellierung geistiger und

handwerklicher Operationen, also die Verschmelzung der beiden vorigen Eigenschaften.

Hierbei entscheidet die Maschine eigenständig, wo welche elementaren Zeichen gesetzt

werden und auf welches Material sie aufgebracht werden sollen. Der Künstler entwickelt

diese Maschinen und befragt sich dabei gleichzeitig selbst. Er wird zu einer Art Forscher, der

sich darüber im Klaren werden muss, wie er selbst zu Entscheidungen kommt und diese

Erkenntnisse auf die Maschine überträgt. Die so entwickelten Maschinen kann man in den

Bereich der Künstlichen Intelligenz einordnen, da sie selbstständig Entscheidungen treffen

und der Ablauf der Algorithmen derart komplex ist, dass die tatsächlichen Ereignisse nicht

mehr vorausgesagt werden können.

Ein wichtiger Vertreter dieser Richtung ist Harold Cohen. Der englische Künstler lebt seit 1969

in Kalifornien und spürt der Idee nach, eine Maschine zu entwerfen, welche ein funktionales

Äquivalent des Künstlers selbst darstellt. Er entwickelte zuerst ein System namens Aaron,

dass er 1974 der Öffentlichkeit vorstellte. Immer wieder entwickelt er „Malmaschinen“ dieser

Art, die während ihres Einsatzes über das Trägermaterial fahren und selbständig

Zeichnungen anfertigen. Mit diesen Arbeiten war er auch 1977 auf der Documenta 6

vertreten. Mit seinen Arbeiten untersucht Cohen unter anderem die Regeln der Codierung von

Informationen und die Frage nach der Entstehung der Bedeutung des Kunstwerkes. Die

entworfenen Malmaschinen versteht er als semiotische Maschinen, da sie Bedeutung

92 Bei der Arbeit handelt es sich um das Bild P-200/N aus der Serie Cubic Limit II, Acryl auf Holz, 112 x 112 cm, 1975,

Bildquelle: http://www.dam.org/mohr/mohr_cube2_200n1.html (5.03.2002)

87


erzeugen, wobei die Maschinen selbst kein Bewusstsein besitzen. Es sind Maschinen, die

bedeutungstragende Bilder erzeugen, die aber selbst nicht intentional handeln. Daher ist es

nicht verwunderlich, dass Cohen Kunstwerke aus einem konstruktivistischen Standpunkt

heraus sieht. Für ihn ergibt sich die Bedeutung des Kunstwerkes erst im Vorgang der

Rezeption her.

Cohen ist einer der Künstler, die selbst Systeme entwickeln und programmieren und nicht auf

vorhandene Systeme oder Programme zurückgreifen. In diesem Zusammenhang spricht man

auch von so genannten offenen und geschlossenen Systemen. Franke dazu: „Bei einem

offenen System kann man diese Programmteile beliebig einbringen. Von Seiten der Maler

und Grafiker werden aber geschlossene Systeme verlangt. Bei einem offenen System

müssen Sie noch ein eigenes Programm machen. Wenn Sie einen ganzen Katalog eigener

Programme in ihr System integriert haben, dann wird auch ihr System individuell auf Sie

ausgerichtet sein. Wenn man auf die eigene Programmierung verzichtet, dann ist man auf

das angewiesen, was irgendein Programm an Routinen bietet. Das kann sehr viel sein, ist

aber beschränkt. Jeder, der dieses System verwendet, verwendet auch dieselben

Routinen.“ 93 Was hier angesprochen wird, ist ein Grundproblem der Computerkunst. Die

Systeme sind derart komplex, dass es nicht sofort möglich ist, mit ihnen umzugehen. Deshalb

wurden Programme entwickelt die dem Benutzer eine einfache Handhabung ermöglichen.

Wenn er diese verwendet, schränkt sich der potenzielle Benutzer aber gleichzeitig auf die

angebotenen Funktionen der Software ein, kann also nicht über den Funktionsschatz hinaus

gestalterisch wirken. Damit geht der eigentliche offene Zustand der Systeme und die damit

verbundenen Möglichkeiten verloren. Dennoch ist nur eine kleine Zahl von Künstlern bereit,

sich das notwendige Know-How anzueignen, um selbst Programme zu entwickeln und sich

damit von den vorhandenen Vorgaben zu emanzipieren. Sie beherrschen nicht die Systeme,

sondern werden von den Systemen beherrscht.

Besonders die angewandten Künstler setzen sehr auf Standards und könnten so zu bloßen

Anwendern von Grafikprogrammen verkommen. Die latente Gefahr, die dabei im Raum

schwebt ist, dass die Ergebnisse ähnlich ausfallen und in ihrer Diversifikation eingeschränkt

sind.

Es gibt also verschiedene Arten, wie man den Computer für gestalterische Zwecke einsetzen

kann. Wir haben drei verschiedene Arbeitsweisen kennengelernt, wie man mit dem Computer

als Werkzeug umgehen kann. Im Folgenden werden wir verschiedene Aspekte der drei

Ansätze beleuchten und dabei die Bedingungen der Computerkunst beziehungsweise der

computerunterstützten Gestaltung besser kennenlernen. Obwohl die veränderten

Bedingungen sehr interessant sind, können diese nur kurz vorgestellt werden, weil das Feld

derart umfangreich ist, dass dies wiederum eine eigene Arbeit wert wäre.

93 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (1991), S. 288

88


5.2 Gestaltung als ästhetisches Experiment

Der Computer erlaubt es, beliebig lange an einem Bild zu experimentieren. Nun ist es an und

für sich nichts Neues, dass man im künstlerischen Prozess mit den Bildmedien, die man

verwendet, experimentiert. Mit den traditionellen Techniken der Bildproduktion kann man

ebenso experimentieren. Einen guten Eindruck davon bekommt man, wenn man sich zum

Beispiel das druckgrafische Werk von Andy Warhol anschaut, das er mit den Techniken des

Sieb- oder Offsetdruckes hergestellt hat. In einer seriellen Produktion stellt Warhol ganze

Reihen eines Motivs her, die nur in ihrer Farbigkeit variieren. 94

Aber es sind eben andere Parameter, die man beim Experimentieren verändern kann. Mit dem

Computer ist in einer gewissen Weise eine andere Art des experimentellen Arbeitens möglich.

Das digitale Bild kann ebenfalls in verschiedenen Varianten dargestellt werden. Es kann zum

Beispiel bei einem Computerbild eine Farbe gegen eine andere ausgetauscht werden. Man

kann Teile des Bildes ausschneiden oder herauszoomen, Details darin bearbeiten und die

veränderte Version wieder in das Bild einfügen. Dabei können die Veränderungen immer auch

im nachhinein statt finden. Darüber hinaus gibt es aber einen weiteren wichtigen Aspekt: im

experimentellen Arbeitsprozess können die Bilder nicht nur verändert, sondern diese

Veränderungen auch wieder zurückgenommen werden, denn die digitalen Bilder lassen sich

abspeichern und später wieder hervorholen. Es können also verschiedene Zustände der

Bilder vorliegen, die man verwerfen, weiter bearbeiten oder auch als Ausgangspunkt für

neue Bilder nehmen kann. Der Künstler als digitaler Homo Ludens. Da die eigentlichen

Bilddaten, wie wir gesehen haben, immateriell vorliegen, hat man es eben nicht mit den

übrigen Widrigkeiten des Materials zu tun.

Hier tropft nichts, die Farbe fängt nicht an zu schnell zu trocknen und auch der Bleistiftstrich

verschmiert nicht auf dem Papier.

Insofern ist ein anderes experimentelles Arbeiten wie mit den materiellen Techniken möglich.

Insgesamt ergibt sich eine neue Arbeitsweise, die ein tastendes Experimentieren besser

zulässt als in den herkömmlichen Gestaltungsmethoden. Darin könnte man vielleicht auch eine

Verbindung zwischen Naturwissenschaft und Kunst sehen: Das Experiment als Methode zur

Gewinnung neuer Erkenntnisse und zur Herstellung neuer Sachverhalte. So könnte man jedes

Produkt der Computerkunst als ein Experiment ansehen, aus dem man lernen kann, ob die

Strukturen oder Methoden, die man eingebracht hat, zu etwas führen, das ästhetisch

befriedigend ist oder nicht. Überhaupt kann man einen wesentlichen Teil der Computerkunst

als eine Art experimentelle Ästhetik verstehen, die sehr interessante ästhetische Qualitäten

besitzt und dabei sehr oft das Medium selbst thematisiert. Dabei verändert der Computer

vielleicht aber auch den künstlerischen Imaginationsprozess. Es ist einfacher Veränderungen

vorzunehmen, denn diese können ohne Verluste wieder zurückgenommen werden. Damit fällt

94 Vgl. Thomas Crow, Die Kunst der sechziger Jahre: von der Pop-art zu Yves Klein und Joseph Beuys, DuMont Verlag, Köln 1997,

S.84-89

89


die Entscheidung für eine Veränderung im Gestaltungsprozess eines Bildes leichter,

gleichzeitig geht dafür vielleicht so etwas wie Verantwortung verloren. Der Schritt der

Modifikation ist weniger gewichtig, wie der an einem traditionellen Bildmedium materiell

vorgenommene. Denn die Veränderung bei materiellen Bildmedien hinterlässt Spuren und

diese werden damit integraler Bestandteil der Arbeit. Diese Spuren aber gehen bei der

digitalen Gestaltung im ästhetischen Experiment oftmals verloren.

5.3 Das Problem der verlorenen Spuren

Betrachtet man ein fertiges Artefakt, so lassen sich normalerweise viele Arbeitsspuren

erkennen. Der Künstler kann zwar versuchen diese zu vermeiden oder ganz bewusst einen

persönlichen Duktus verschleiern, aber auch dies ist wieder eine Art indirekte Handschrift, die

man ablesen kann. Durch die Entscheidung für die Verschleierung hinterlässt er eine Art Spur.

Anders dagegen sieht es bei den digitalen Bildmedien aus. Die äußere Erscheinungsform ist

abhängig vom Ausgabegerät, ist also durch dieses Gerät vorgegeben und ist somit einheitlich.

Was bedeutet das konkret? Im Arbeitsprozess entstandene Arbeitsspuren sind nicht mehr

nachvollziehbar. Vorhanden ist nur das vorliegende Endergebnis, das aber ein Resultat

unzähliger Korrekturen, Veränderungen oder Überarbeitungen sein kann. Wenn man zum

Beispiel in einer Bleistiftzeichnung eine Korrektur vornimmt, was unter der Zuhilfenahme eines

Radiergummis leicht zu erledigen ist, ist es sehr schwer alle Spuren dieser Korrektur zu tilgen,

den Vorgang zu neutralisieren. Bedingt durch die Materialität werden eigentlich immer Spuren

der Korrektur ablesbar sein. Im Endzustand der digitalen Medien sind diese Arbeitsspuren im

Nachhinein nicht mehr erkennbar, sind gänzlich verloren.

Wenn man in einer Grafiksoftware ein Rechteck setzt, kann dieses beliebig auf dem

definierten Arbeitsbereich verschoben werden, ohne dass im Nachhinein die geringste Spur

erkennbar wäre. Die Informationen der Überarbeitung sind auf jeden Fall vollständig verloren.

Seit ein paar Jahren stellen die Grafikprogramme so genannte „Protokolle“ zur Verfügung, die

es ermöglichen, die durchgeführten Arbeiten Schritt für Schritt zurückzunehmen. Es kann also

jeder Arbeitsschritt zurückverfolgt werden.

Es ist aber fraglich, ob man dieses Protokoll als Arbeitsspur betrachten kann. Denn die

Informationen stecken meiner Auffassung nach nicht im Werk, sondern stellen ein

zusätzliches Protokoll dar. Im Arbeitsprozess werden alle Vorgänge mitgeschrieben, es wird

aufnotiert was geschehen ist. Das wäre aber, wie wenn beim Malen eines Ölbildes ein

Beobachter jeden Arbeitsschritt aufnotiert oder die verschiedenen Arbeitszustände in

zusätzlichen Bildern festhält. Dabei kommt es auch nicht darauf an, ob es sich im

Gestaltungsprozess um ein so genanntes additives oder subtraktives Verfahren handelt. Ein

additives Verfahren wäre hierbei zum Beispiel eine Malerei, bei der im Verlauf des Malens

immer mehr Farbe aufgetragen wird und ein subtraktives Verfahren wäre die Herstellung

einer Skulptur aus einem Holzblock, bei dem Schritt für Schritt Material weggenommen wird,

90


is schließlich das fertige Werk herausgearbeitet ist. Denn auch beim subtraktiven Verfahren

kann man im Nachhinein Arbeitsspuren feststellen. Zum einen am Werk selbst und zum

anderen könnte man das übrig gebliebene Material, als eine Art Spur verstehen. Die

Komplementärmenge des Werkes als nicht ausgewählte Form. Für diese Spuren ist es nicht

nötig ein zusätzliches Protokoll anzufertigen, sie ergeben sich einfach aus dem

Gestaltungsprozess.

5.4 Die veränderte Zeitlichkeit im Bild

Mit dem Problem der verlorenen Spuren ergibt sich auch eine veränderte Zeitlichkeit im Werk.

Denn in jeder Arbeit steckt die ihr zugeführte Zeit, die notwendig war, um die Arbeit zu

erstellen. Betrachtet man die fertiggestellte Arbeit, so kann man bei einer Malerei meistens

Arbeitsspuren erkennen, die oft auch Rückschlüsse auf die Zeitlichkeit zulassen, die in der

Arbeit steckt. Als Beispiel kann man sich die Selbstbildnisse von Max Beckmann vor Augen

führen, bei denen man oft an speziellen Gesichtspartien Erhöhungen, Verdickungen

entdecken kann. Dies weist darauf hin, dass der Künstler diesen Stellen besondere

Aufmerksamkeit gewidmet hat, diese Stellen immer wieder und wieder überarbeitet hat, bis er

einen zufriedenstellenden Zustand erreicht hatte. Die Zeitlichkeit ist sozusagen an der

Anhäufung von Material abzulesen, wobei das akkumulierte Material im Kontext des Bildes

gesehen werden muss. So kann aus ein und derselben Erscheinung sowohl auf Flüchtigkeit,

aber auch auf hohe Konzentration geschlossen werden.

Das Phänomen der veränderten Zeitlichkeit ist aber auch bei den bereits bekannten

Reproduktionsmedien zu verzeichnen. Es taucht immer dann auf, wenn dreidimensionale

Bildmedien auf zwei Dimensionen reduziert und damit vorhandene Strukturen eliminiert

werden. Der Verlust der dritten Dimension bewirkt also eine Verminderung der Möglichkeiten,

die das Bild uns zur Erklärung seiner Entstehungsgeschichte zur Verfügung stellen kann.

Durch die digitale Arbeitsweise gewinnt man aber gleichzeitig neue Möglichkeiten der

Bildgestaltung. Wie diese aussehen können, werden wir nun ansprechen.

5.5 Neue Werkzeuge für die Gestaltung

Wenn man die Möglichkeiten untersucht, die ein Grafikprogramm zur Verfügung stellt, erkennt

man, dass sehr viele dieser Funktionen an traditionelle Gestaltungstechniken angelehnt sind.

Im Prinzip wird in den Programmen versucht, alle Techniken aus den traditionellen Techniken

wie der Zeichnung oder der Malerei zu übernehmen, diese im Programm zu simulieren. So gibt

es zum Beispiel Funktionen, um Freihandlinien zu zeichnen, oder man kann mit einer

Gießkanne Flächen mit vordefinierten Farben ausfüllen. Auch ausgefallenere Methoden

stehen zur Verfügung. So gibt es die Möglichkeit Linien oder Farbflächen, wie mit einem Finger

91


zu verwischen oder Farbe in der Art der Airbrushtechnik auf der Arbeitsfläche aufzutragen.

Man kann sagen, dass die manuellen Techniken imitiert beziehungsweise simuliert werden.

Man sollte aber erwarten, dass die Programme auch spezifische Methoden für die Gestaltung

der digitalen Bilder zur Verfügung stellen und damit die Tür für neue Gestaltungsmöglichkeiten

geöffnet wird. Ein wichtiger Ausgangspunkt ist die Möglichkeit, die digitalen Bilder zu

berechnen und umzurechnen. Wie wir schon erfahren haben, handelt es sich bei den

digitalen Bildern um Bilder, bei denen jeder Bildpunkt mit allen seinen Merkmalen wie der

Position und der Farbigkeit bekannt ist. Diese können vom Programm direkt angesprochen und

modifiziert werden. Daraus ergeben sich vielfältige Möglichkeiten, die teilweise auch den

Bereich der technischen digitalen Bildverarbeitung berühren. Um einen Eindruck zu bekommen,

werden wir im Folgenden ein paar der neuen Möglichkeiten und die dabei eventuell

auftretenden Probleme betrachten. Natürlich gibt es sehr viele Bearbeitungsmöglichkeiten,

aber einige davon finden besonders häufig Verwendung in der Bildbearbeitung.

Zunächst einmal gibt es Werkzeuge um die Bilder in ihrer Gesamtgröße zu vergrößern oder zu

verkleinern. Man kann also das Bildformat auf beliebige Dimensionen abändern, wobei man in

der Praxis eigentlich immer auf rechteckige Formen eingeschränkt ist. Es können

Bildausschnitte gewählt werden und diese kann man ausschneiden und kopieren, im Bild

verschieben oder neu einfügen. Es gibt außerdem die Möglichkeit, Ausschnitte im Bild mit einer

Lupenfunktion zu vergrößern und den gezoomten Ausschnitt im Detail zu bearbeiten.

Desweiteren ist es möglich die Bilder zu drehen. Dabei kann man die Bilder im einfachsten Fall

horizontal oder vertikal umklappen, was einer Drehung um 180° im Raum entspricht oder man

gibt den Wert des Winkels, um den man das Bild drehen möchte, direkt an. Dabei muss man

aber bedenken, dass die digitalen Bilder den Regeln der diskreten Geometrie unterworfen

sind, wie wir gesehen haben. Das bedeutet zum Beispiel, dass man die Bilder, wenn man sie

exakt erhalten will, eigentlich nur um ein Vielfaches von 90° drehen kann. Ansonsten

verändert sich die Eigenschaften des Bildes. Ein einfaches Beispiel wäre eine gerade Linie,

die exakt horizontal im Bild liegt. Wird diese nun um 5° gedreht, so wird sie „fransig“. Diese

Probleme kann man in der Praxis durch Erhöhung der Auflösung beseitigen, denn damit kann

man die auftretenden Störungen unter die Sichtgrenze des menschlichen Auges schieben.

Das Problem ist deshalb aber immer noch vorhanden, wir können es lediglich nicht mehr

wahrnehmen.

Ein weiterer und sehr wichtiger Bereich sind die mathematischen Transformationen. Nun

muss man an dieser Stelle sagen, dass ja im Prinzip hinter allen bereits angesprochenen

Methoden mathematische Operationen stehen, welche die Bilddaten in der gewünschten

Weise verändern. Hier handelt es sich übrigens wieder um eine interessante Schnittstelle

zwischen der Gestaltung auf der einen Seite und mathematischen Verfahren auf der

anderen. So ist es auch mit den oft als „Filter“ bezeichneten Bildtransformationen. Damit

lassen sich nun zum Beispiel Farbwerte invertieren oder polarisieren, die Bilder können

schärfer oder unschärfer gemacht oder mit diversen anderen Effekten versehen werden.

Schließlich kann man auch mit mehreren Bildern arbeiten, indem man diese nach

92


mathematischen Gesichtspunkten überlagert. Diese Vorgehensweise nutzt zum Beispiel

Thomas Ruff um seine Substrat-Bilder herzustellen. Für diese sammelt er im Internet

Comicbilder, die er in mehreren Schichten überlagert und miteinander multipliziert, bis

schließlich semantisch leere Bilder entstehen. 95 Es gibt also einige neue Methoden und

Werkzeuge, die sich ganz speziell auf die besonderen Eigenschaften der digitalen Bilder

einlassen, die also mit den traditionellen Techniken entweder gar nicht oder nur sehr mühsam

möglich sind. Ein wichtiger Punkt ist, dass alle erwähnten Methoden nur am statischen Bild

wirken. Durch die Verbesserung der Rechengeschwindigkeiten, der Auflösung und der

Farbtiefe haben sich neue Möglichkeiten ergeben, die wir nun ein wenig kennenlernen

werden.

5.6 Vom statischen zum bewegten Bild

Veränderungen im Bild können auch in Echtzeit vorgenommen werden, sie sind also mit der

Anweisung durch den Anwender sofort verfügbar. Das heißt, die Veränderungen werden

nicht erst berechnet und dann ausgegeben, sondern der Veränderungsvorgang wird

unmittelbar zum Ereignis. Die Zeiten für die Berechnungen im Bild sind mittlerweile so kurz

geworden, dass ein fließender Übergang von einem Zustand zum anderen möglich ist. Die

logische Konsequenz ist dann der Schritt zum bewegten Bild, zur Animation und damit auch

zu Methoden wie dem Morphing. Durch die Möglichkeit der sehr schnellen Berechnung kann

man wie bereits erwähnt die Veränderung der digitalen Bilder in Echtzeit vornehmen. Die

Veränderungen können also mit ausreichender Geschwindigkeit stattfinden, so dass beim

Betrachten der Eindruck eines zeitlich flüssigen Ablaufes entsteht, eben wie man es vom Film

gewohnt ist, bei dem ja 24 Bilder pro Sekunde genügen, um das menschliche kognitive System

zu überlisten. Damit haben sich mittlerweile verschiedene Anwendungsbereiche

herausgebildet.

5.6.1 Animation und Morphing

Eine davon ist die Computeranimation, bei der im Prinzip mehrere Bilder hintereinander

geschaltet werden und damit der Eindruck der Bewegung durch die Veränderungen in den

einzelnen Bildern zueinander entsteht. Durch Animation können nun verschiedene Arten von

Sequenzen entstehen. Es kann sich also sowohl um simulierte reale Welten handeln, aber

auch um künstlich erzeugte, die man zu Gesicht bekommt. Zumeist steht in den Animationen

aber der künstliche Charakter im Vordergrund und es wird offen gezeigt, dass die Bilder nur

Repräsentationen für eine künstliche Welt sind. Ihre visuelle Sprache ist mehr mit der Grafik

95 Thomas Ruff: Fotografien 1979 – heute (2001), S.247

93


als mit der Fotografie verbunden. Ein berühmtes Beispiel ist die Computeranimation

„Panspermia“ von Karl Sims aus dem Jahre 1990, die 1991 auf der Ars Electronica in Linz

prämiert wurde und lange Zeit auf MTV zu sehen war. Diese zeigt den Lebenszyklus, das

Wachstum und die Entwicklung eines intergalaktischen Organismus. Dabei fällt ein Samen auf

einen unbewohnten Planeten und explodiert in aggressive Formen botanischen Lebens, die zu

dichten Wäldern verwachsen und die Oberfläche des Planeten bedecken. Und dann wachsen

kanonenförmige Pflanzen, die Samen ins Weltall schiessen, um den Zyklus abzurunden. Die

vollständig simulierte Sequenz mit einer Dauer von 2:08 Minuten zeigt wie sich diese fiktive

Welt entwickelt. Die Pflanzenstrukturen entstanden aus Modellen des Pflanzenwachstums.

Dabei wurde ein Satz aus 20 genetischen Parametern eingesetzt, um 3D-Modelle von Bäumen

aus verbundenen Segmenten zu konzipieren. Es gibt lokale Wachstumsregeln, welche diese

20 Parameter verwenden. Durch die Wachstumsregeln wird die hierarchische Position jedes

Segments im Baum festgelegt, außerdem wie schnell jeder Abschnitt wächst, wann und in

welche Richtung er neue Knospen entwickeln soll. Mit diesem Ansatz können die Pflanzen in

beliebig kleinen Stufen wachsen, was eine glatte und fließende Simulation und Animation des

Wachstumsprozesses ermöglicht. 96

Abbildung 21: Snapshot aus der Computeranimation Panspermia 97

Die Animationen dieser Art war zunächst im Bereich der Computerkunst angesiedelt. Die

Grenze zum Film sind aber fließend und auch die Filmbranche hat sich diese Möglichkeiten zu

eigen gemacht. Genau das bringt aber die Problematik, wie man sich dieser neuen Gattung

des digitalen „Filmes“ annähern soll: Ist es nun die Filmtheorie oder die Kunsttheorie die

geeigneter für Fragen der Beurteilung ist? Denn auch Vermischungen von vorhandenem

historischen Filmmaterial, das digitalisiert wurde, und neu abgedrehtem Filmmaterial stellt heute

kein Problem mehr dar.

96 Vgl. http://prixars.aec.at/history/animation/1991 (4.03.2002)

97 Bildquelle: http://prixars.aec.at/history/animation/1991/pictures/91gnA-panspermia3.jpeg (04.03.02)

94


Ein bekanntes Beispiel dafür ist der Film „Forest Gump“ 98 aus dem Jahr 1994, in welchem der

Hauptdarsteller Forest Gump alias Tom Hanks dem US-Präsidenten Kennedy anlässlich einer

Ordensverleihung die Hand schüttelt. Dabei wurde auf historisches Filmmaterial

zurückgegriffen, in das die Szene mit Tom Hanks eingearbeitet wurde. Dies geschieht im

Vorgang der digitalen Nachbearbeitung, der digitalen Post Production. Hier wird oft mit so

genannten Gittermodellen gearbeitet, die später mit Leben gefüllt werden. Wenn man ein

Objekt erst einmal in ein Gittermodell überführt hat, kann man dieses auch in ein anderes

umwandeln. Diesen Vorgang nennt man „Morphing“. Wenn man ein Objekt „morphed“, man

spricht in diesem Zusammenhang auch von „elastischer Wirklichkeit“, können sehr

interessante neue Bildsequenzen entstehen. Beispielsweise besteht die Anfangsszene von

Forest Gump aus einem ungewöhnlichen langen und extrem komplizierten Flug einer Feder.

Um diese Aufnahme zu machen, wurde die wirkliche Feder in verschiedenen Positionen vor

einem blauen Hintergrund gefilmt. Diese Aufnahmen wurden dann animiert und mit Aufnahmen

einer Landschaft kombiniert. Das Ergebnis ist eine neue Art des Realismus, das man als

etwas beschreiben kann, dessen Aussehen genau dem gleichen soll, wie etwas geschehen

sein könnte, obgleich dies in Wirklichkeit nicht geschehen kann. 99 Diese neuen Möglichkeiten

werden mittlerweile intensiv von der Filmindustrie benutzt, wie man auch an Filmen wie

„Terminator II“, „Die Maske“ oder „Matrix“ sehen kann.

5.6.2 Generative Bilder

Ein anderes Feld, sind die durch den Computer selbst generierten, errechneten Bilder. Dies

sind Bilder, die durch vorgegebene Algorithmen selbstständig entstehen. Die so entstehenden

Bilder können sowohl statisch als auch animiert sein. Im ersten Fall generiert das Programm

ein Bild und zeigt dieses nach der Fertigstellung an. Als Beispiel könnte man Fraktale

erwähnen, die visualisierte Mengen der Mathematik darstellen. Diese werden zunächst

berechnet und ergeben dann das endgültige Bild. Im andern Fall würde das dargestellte Bild

immer wieder neu berechnet werden und die sich daraus ergebenden Veränderungen im Bild

kontinuierlich angezeigt. Damit ergibt sich wieder der Eindruck einer Sequenz, also eines

zeitlichen Ablaufs. In einem erweiterten Verständnis könnte man auch hier von einer

Animation sprechen, da es sich um bewegte Bilder handelt. Die Bilder können durch

verschiedene Daten erzeugt werden. Das Programm kann zufällige Parameter, so genannte

Startwerte durch einen Zufallsgenerator ermitteln oder es kann vorhandene Daten, die zum

Beispiel in Dateien gespeichert sind, verwenden.

98 Forest Gump, Robert Zemeckis, Paramount Pictures, 1994, Spezialeffekte von Industrial Light and Magic

99 Diese formale Vorgehensweise erinnert ein wenig an die Turmspringerszenen in dem Olympiafilm „Fest der Völker“ von Leni

Riefenstahl, bei dem vorwärts und rückwärts abgespielte Sequenzen zusammengeschnitten wurden. Der Film wurde aber für

Propagandazwecke anlässlich der in Berlin ausgetragenen Olympischen Spiele im Jahr 1936 gedreht, steht also in keiner inhaltlichen

Beziehung zum erwähnten Film „Forest Gump“.

95


Eine andere Möglichkeit ist die Eingabe von Werten durch den Benutzer, in diesem Fall der

Betrachter des Bildes. Dies kann vor dem eigentlichen generativen Prozess geschehen und

legt damit die Startparameter fest. Diese beeinflussen dann die Entwicklung des entstehenden

Bildes. Bei manchen Systemen kann der Betrachter, in diesem Fall auch der Benutzer,

während des Vorganges in den laufenden Prozess eingreifen und diesen damit verändern.

Diese Bilder sind also interaktiv.

5.6.3 Interaktive Bilder

Interaktive Computerkunst 100 zeichnet sich dadurch aus, dass vom Künstler ein System zur

Verfügung gestellt wird, welches bestimmte Entscheidungen trifft. Die Entscheidungen des

Systems sind aber zusätzlich abhängig von den Eingaben, die der Rezipient als Benutzer

vornimmt. Der Informationsfluss findet also zwischen dem System und dem Benutzer in beide

Richtungen statt. Der Benutzer entscheidet über das Verhalten, das Aussehen, den Zustand

und den Inhalt der Arbeit mit. Er kann durch seine Entscheidungen Einfluss auf den Ablauf des

Systems nehmen. Für das visuelle Erscheinen der Arbeit können also weder Aussagen über

den Endzustand noch über den Ablauf gemacht werden. Alles ist offen, im Rahmen der

Grenzen die durch das vorgegebene System gesetzt sind. Hier haben wir einen sehr

spannenden neuen Bereich, der sich entwickelt hat und in dem die Möglichkeiten für

interaktive Arbeiten sehr vielfältig sind. Einen Eindruck von der Funktionsweise der

interaktiven Arbeiten kann man am Beispiel einer frühen Arbeit aus diesem Bereich erhalten,

welche sich im Zentrum für Kunst und Medientechnologie (ZKM) in Karlsruhe befindet. Es

handelt sich um die Installation „Interactive Plant Growing“ von Laurent Mignonneau und

Christa Sommerer aus dem Jahr 1991. Die Installation besteht im Wesentlichen aus einem

Computersystem, einer Videoleinwand und natürlichen Pflanzen, die als Schnittstelle

zwischen Betrachter und System dienen. In der Installation wachsen künstliche Pflanzen im

dreidimensionalen virtuellen Raum des Computers. Durch den Kontakt und die Annäherung der

Hand des menschlichen Betrachters zu den echten Pflanzen kann dieser das künstliche

Wachstum von programmierten Pflanzen in Echt-Zeit beeinflussen und kontrollieren. Dies

geschieht durch Sensoren an den Wurzeln der echten Pflanzen.

100 Der Begriff Interaktion, abgeleitet vom Lateinischen „inter“ (zwischen) und „agere“ (handeln), beschreibt ursprünglich in den

Sozialwissenschaften die gegenseitige Beeinflussung von Individuen und sozialen Gebilden. Die Bedeutung wurde in den achtziger

Jahren auf den Bereich Mensch-Computer-Interaktion erweitert. Der Begriff in dieser abgeleiteten Version beschreibt im Bezug auf

Computersysteme die Eigenschaften von Software, dem Benutzer eine Reihe von Eingriffs- und Steuermöglichkeiten zu eröffnen.

Vgl. Ludwig J. Issing, Paul Klimsa (Hrsg.), Information und Lernen mit Multimedia, Psychlogie Verlags Union, Weinheim 1995, S.152-

153

96


Abbildung 22: Ausstellungssituation der Installation

„Interactive Plant Growing“ 101

Das elektrische Potenzial, welches sich durch die verschiedenen Berührungen des

Betrachters verändert, kann gemessen werden und dient als Vorgabe für den

Wachstumsprozess der künstlichen Pflanzen, der auf eine Videowand vor dem Betrachter

projiziert wird. Durch das Feedback des künstlichen Wachstums am Bildschirm kann der

Betrachter auf die jeweiligen Bilder reagieren und durch seine Entscheidungen den weiteren

Verlauf des Wachstums bestimmen. Die Installation ist so angelegt, dass mehre Menschen zur

gleichen Zeit über die Schnittstelle der fünf echten Pflanzen in der Installation agieren können.

In der Möglichkeit der Interaktion liegt zum einen der Reiz der Arbeiten und zum anderen wird

dadurch die wesentliche Beschaffenheit der Arbeiten dieses Typs bestimmt. Sie sind eben

nicht statisch sondern verändern ihr Erscheinungsbild, indem sie Reaktionen auf die Eingaben

des Betrachters zeigen. Die Bilder sind bewegt, gehen dabei aber über eine Animation hinaus.

Denn im Wechselspiel zwischen Werk und Betrachter entstehen Konstellationen, die der

Künstler zum Zeitpunkt der Erstellung des Systems nicht vorhersehen kann. Der Benutzer

übernimmt einen wesentlichen Teil der Gestaltung und bestimmt damit den endgültigen

Zustand der Arbeit mit. Der Prozess der Gestaltung wird also auf den Betrachter, besser den

Benutzer übertragen und von diesem fortgeführt. Es handelt sich nicht mehr um ein

vorgefertigtes Werk, sondern um eine zum Prozess gewordene Arbeit, an welcher der

Benutzer aktiv teilnehmen kann. Der Betrachter erhält eine neue Rolle, indem er nicht nur als

Rezipient sondern auch als Akteur auftritt. 102

Durch den Wandel vom materiellen Kunstwerk zum digital codierten, immateriellen Werk ist ein

ganz neuer Bereich der Gestaltung entstanden. Die Arbeiten dieser Gattung sind flexibel,

aktivierbar, veränderlich; da sie immateriell vorliegen können und sie zudem über elektrische

Leitungen oder Funk „transportiert“ und publiziert werden können.

101 Quelle: http://on1.zkm.de/zkm/stories/storyreader$612 (4.3.2002)

102 Auch in der Unterhaltungsindustrie sind solche interaktive Konzepte mittlerweile sehr populär geworden. In Funk und Fernsehen gibt

es viele Beispiele (TED bei Wetten Dass oder Big Brother) bei denen der Zuschauer interaktiv gestaltend auf die Sendungen einwirken

kann.

97


5.7 Original und Kopie

Ein Phänomen das mit der digitalen Codierung einher geht und somit auch den Bereich der

digitalen Bilder betrifft, ist das neue Verhältnis zwischen Original und Kopie. Mit den gängigen

Betriebssystemen ist es möglich vorhandene Dateien, die digitale Daten für zum Beispiel Bilder

oder Filme beinhalten, zu kopieren. Dies geschieht im Prinzip auch durch die Distribution über

Datenleitungen, wie sie das Internet zur Verfügung stellt.

Aus der vorliegenden Immaterialität der Bilddaten, also konkret des Bildes ergibt sich aber eine

wichtige Konsequenz: man kann in diesem Zusammenhang nicht mehr von Original und Kopie

sprechen oder anders gesagt das „auratische“ des Kunstwerkes geht verloren. Was bei

Warhol noch die Forderung für eine Aufgabe des Individualkultes war, ist hier technische

Realität. 103 Denn man kann von einer vorhandenen Bilddatei eine identische „Kopie“ anfertigen,

wobei sich bei beiden Bilddateien die vorliegenden Bildwerte in keiner Hinsicht unterscheiden.

Man könnte höchstens noch über den vorliegenden Metacode, der den Bildcode begleitet,

Aussagen über das Entstehungsdatum des digitalen Bildes machen und über eine zeitliche

Einordnung von einem früher oder später der Werke sprechen. Dieser Metacode aber gehört

nicht zum Bild, sondern stellt eine Art Protokoll des Gestaltungsprozesses dar. Das Protokoll

gehört nicht zum eigentlichen Werk und stellt zusätzliche Informationen dar, wie wenn man für

eine angefertigte Handzeichnung eine Kontrollkarte anlegen würde, auf der die relevanten

Eckdaten für das jeweilige Werk eingetragen sind. Das eigentliche Bild und die zugehörige

Kopie unterscheiden sich in keiner Weise. Die Kopie, oder besser das Duplikat, besitzen

genau die gleichen Qualitäten. Dies ist möglich geworden, weil das Bild durch numerische

Werte repräsentiert wird und diese ohne Veränderung reproduziert werden können. Dies

führt zu einer ganz neuen Situation, wenn es um die Beurteilung der Originalität geht. Das

Original muss jetzt dazu deklariert werden und besitzt diese Eigenschaft nicht automatisch, da

es absolut identisch dupliziert werden kann. Die Möglichkeit der Reproduktion der digitalen

Bilder sind damit in höchstem Grad der Perfektion vorhanden. Um nicht in ein Loblied auf die

Computer einzustimmen, muss man auch erwähnen, dass es in der Praxis nicht immer gelingt.

Durch technische Fehler beim Kopieren oder Übertragen der Bilddaten können Störungen

entstehen. 104

5.8. Störungen

Wenn im Gestaltungsprozess unerwünschte Phänomene auftauchen, die nicht durch den

User bei angemessener Benutzung verursacht sind, kann man von Störungen sprechen.

Diese können an verschiedenen Stellen im System entstehen, wenn dieses nicht einwandfrei

103 Vgl. Thomas Crow (1997), S.86

104 Vgl. dazu auch den Szenespruch: „Nur ein ausgeschalteter Computer verursacht keine Fehler!“

98


funktioniert. So können durch die eingesetzten Hardware, aber auch durch die Programme

Fehler entstehen. Dabei ist es möglich, dass der Fehler im Programm bereits angelegt ist, dass

also das Programm fehlerhaft erstellt wurde oder dass das Programm durch ein weiteres

gestört wird. Wenn zum Beispiel zwei Programme versuchen, denselben Speicherbereich im

Computer zu belegen, so kann dies Konflikte verursachen, die zu unerwarteten Resultaten

führen können. Störungen können also auf verschiedene Art entstehen. Fehlerhafte

Hardware oder Programme können die Ursache sein. Das Aufeinandertreffen von

verschiedenen eigentlich fehlerlosen Programmen oder die Unstimmigkeit zwischen

Programmen und der Hardware kann ebenfalls Störungen auslösen. Nun kann man diese

Störungen nicht nur als unerwünschte Fehler ansehen, sondern kann ihnen auch

interessante Aspekte abgewinnen. Man kann mit ihnen arbeiten, indem man sie bewusst

hervorruft und sie als künstlerischen Ausgangspunkt einsetzt. Im Prinzip ist es eine gängige

Methode des Künstlers: indem er das gewohnte in Frage stellt und versucht vorhandene

Grenzen zu überschreiten. Mit Störungen löst er Irritationen aus, die den Rezipienten dazu

anregen, über die grundsätzliche Arbeitsweise eines funktionierenden Systems

nachzudenken. Der Reiz liegt also in dem Versuch, die konventionellen Ausgangsmengen zu

erweitern oder zu verändern, aber immer in dem Maße, dass sie weiterhin kommunizierbar

sind. Denn Kommunikation funktioniert nur über Konventionen. Die syntaktischen und

semantischen Eigenschaften des verwendeten Codes müssen vorab zwischen Sender und

Empfänger geklärt sein. Ist dies nicht der Fall, wird jede Äußerung zur privaten Sprache, die

hermetisch und für andere nicht decodierbar ist und damit unverständlich bleibt. Die

Möglichkeit bewusst mit Störungen zu arbeiten, eröffnete den Künstlern schon immer neue

Felder: „Schon in der klassischen Zeit gab es die Frage, ob nun die Harmonie, die Einheit

oder die Gesetzlichkeit oder ob nicht eher die Abweichung oder Entfremdung vom

Normalen, die Innovation, das Eigentliche in der Kunst wäre. Diese scheinbar

widersprüchlichen Kriterien lassen sich mit der Informationspsychologie sehr gut vereinen.

Es stellt sich nämlich heraus, dass weder die hundertprozentige Ordnung ein interessant zu

nennendes Kunstwerk hervorbringt noch das völlige Chaos, sondern das Optimum liegt

irgendwo in der Mitte, was man auch quantifizieren kann. Es ist eine Art Gleichgewicht

zwischen den verschiedenen Ordnungen des Gesetzlichen und der Innovation. Das gilt nicht

nur für Bilder, sondern auch für alle anderen Kunstformen.“ 105 Die Schwierigkeit besteht also

darin, die so genannte goldene Mitte zwischen Bekanntem und Unbekanntem, dem Neuem zu

finden. Die enstehenden Veränderungen müssen sich noch erklären lassen.

Wie können Störungen bei digitalen Bildmedien aussehen? Um Störungen bei digitalen Bildern

zu erzeugen, gibt es verschiedene Ansätze. Eine erste, sehr brachiale Möglichkeit könnte

darin bestehen, die Technik des Systems, also die Hardware teilweise zu zerstören. Durch

leichte Beschädigungen könnten unerwartete ausgefallene Resultate erzielt werden. Man

kennt solche Vorgänge auch als User, wenn zum Beispiel die eingebaute Grafikkarte des

105 Herbert W. Franke, Der Monitor als Fenster in einen unbegrenzten Raum, in: Florian Rötzer (1991), S. 285-286

99


Computers Defekte aufweist. Es ist erstaunlich, welche Auswirkungen dies haben kann. Die

ausgegebenen Bilder haben oftmals ästhetischen Wert. Ein anderer Weg wäre die bewusste

Manipulation von Programmen, indem man den Programmcode verändert. Dieser Bereich spielt

letztendlich bei Jugendlichen, die ein Spiel „knacken“, eine große Rolle. Man kann so

vorhandene Funktionen abändern oder neue implementieren.

Störungen entstehen auch, wenn man die Programme in einer Art und Weise verwendet, für

die sie nicht konzipiert sind. Wenn man zum Beispiel in einem Textverarbeitungssystem (z.B.

Word) eine Sounddatei („Wav“ Dateiformat) öffnet. Eine interessante Möglichkeit wäre ein

eigenes Programm zu schreiben, dass beliebige Dateien nach eigenem Verständnis visuell

interpretiert. Der vorliegende Code wird dann auf eine Weise interpretiert, die zu neuen

Erscheinungen führt. Diese Vorgehensweise setzt an einer Eigenschaft an, die wir bereits

kennengelernt haben. Der digitale Bildcode verweist in seiner Erscheinung nicht auf das

zukünftige Bild, für das er steht. Der Binärcode enthält keine Analogie und erhält seine

Bedeutung erst im Vorgang der Interpretation.

In umgekehrter Richtung gibt es heute schon Programme, die versuchen Störungen im Bild zu

korrigieren. Im Bereich der Filmarchivierung und -restaurierung gibt es bereits solche

Verfahren. Filme auf konventionellem Filmmaterial wie Zelluloid sind durch Verschleiß und

Verfall des Trägermaterials oftmals in einem schlechten Zustand. Die Filme werden deshalb

digitalisiert, um sie der Nachwelt zu erhalten. Dabei läuft beim Umwandlungsvorgang ein

Programm, dass Fehler im Bild erkennt und versucht diese zu korrigieren, indem es die

fehlerhaften Stellen im Film an die Umgebung anpasst. Die Erfolgsquote ist relativ hoch und nur

wenige Stellen müssen manuell nachbearbeitet werden.

Man sieht, dass auch das Feld der Störungen durchaus interessante Aspekte bietet.

Störungen können eine Möglichkeit sein, sich über die Funktionsweise eines Systems klar zu

werden, denn durch die Störungen „entlarvt“ sich in einer gewissen Weise das System.

Wenn man eine Verständnis für die Systeme entwickelt hat, besitzt man aber gleichzeitig eine

bessere Ausgangsposition, um sie zu gestalten, und darum geht es uns als bildende Künstler.

Viele der in diesem Kapitel vorgestellten Gestaltungsmöglichkeiten kann man als sehr

spezifisch für die digitalen Medien ansehen. Erst durch die Rechenbarkeit des digital

vorliegenden Bildes wurden neue Methoden, wie zum Beispiel Animation und Morphing

möglich. Darüber hinaus sind diese jetzt in Echtzeit und interaktiv möglich.

100


6. Abschliessende Zusammenfassung und Ausblick

Von den etymologischen Betrachtungen zu den Störungen der digitalen System haben wir

einen weiten Bogen gespannt und einen weiten Weg in der Geschichte zurückgelegt. Ich

werde deshalb versuchen im Folgenden noch einmal die wesentlichen Aspekte dieser Arbeit

zusammenfassen.

Am Anfang der Arbeit stand der Versuch der Klärung der Begriffe „analog“ und „digital“ über

eine sprachliche und geschichtliche Annäherung, die zu einem ersten Eindruck der Begriffe

verholfen hat. Dabei wurde klar, dass das Wort „analog“ eine sehr alte Begriffsgeschichte

besitzt. Es ist von dem ursprünglich griechischen Wort „Analogie“ abgeleitet und hat heute die

Bedeutungen wie „entsprechend“, „ähnlich“ oder auch „gleichartig“. Die Analogie war

zunächst ein Begriff der Philosophie, welchen im Wesentlichen die Pythagoreer circa 400 vor

Christus entwickelt haben und der in der klassischen Antike große Bedeutung erlangte. Die

Entdeckung der musikalischen Intervalle und spezieller Zahlenverhältnisse führte zur

mathematischen Erörterung und später zur Vorstellung des richtigen, harmonischen

Verhältnisses der Dinge zueinander. Daraus entwickelte sich der Begriff der Analogie, der in

der pythagoreischen Schule zunächst jede Art von Gleichheit, je nach der Verbindung zweier

Zahlen darstellte. In der klassischen Antike war die Wohlordnung der Dinge ein bevorzugter

Zustand (Akribie bezeichnet die Perfektion und die Ordnung der Dinge) und war nicht wie

heute negativ belegt. Die Analogie hat sich dann zu einem Verfahren weiterentwickelt, dass

zur Herstellung von Beziehungen und Übertragungen zwischen eigentlich nicht

zusammengehörenden Sachverhalten dient. Dies geschieht aufgrund von Ähnlichkeit der

Verhältnisse in der Struktur oder der Funktion von Systemen oder Dingen.

Das Adjektiv „digital“ bezeichnete ursprünglich Phänomene, die in Verbindung mit dem Finger,

lateinisch „digitus“, standen. Dies konnte das Zeigen in der Rhetorik oder das Zählen in der

Mathematik sein. Im medizinischen Kontext fand und findet der Begriff heute noch

Verwendung. Erst in den dreißiger Jahren des 20. Jahrhunderts entwickelte sich die neue

Bedeutungsvariante von „digital“ im Sinne von „in Ziffern darstellbar“, „in Stufen, in Schritten“

oder auch „diskret“. Dies geschah im Zusammenhang mit den technischen Errungenschaften

im Bereich der Rechnertechnik. Mit der Entwicklung des Digitalrechners veränderte sich die

Funktionsweise des Rechners grundlegend. Die Rechner dieses neuen Typs arbeiten als

Universalrechner mit einem endlichen Repertoire an Ziffern oder Zeichen und sind so vielseitig

einsetzbar. Sie sind im Unterschied zum Analogrechner programmierbar und können somit für

verschiedene Aufgaben benutzt werden. Dagegen stellte der Analogrechner eine

Entsprechung eines zum Beispiel physikalischen Problems dar und war auf eine bestimmte

Aufgabe festgelegt. Mit der neuen Bedeutung von „digital“ entwickelte sich auch die

Begriffserweiterung von „analog“ im Sinne von „kontinuierlich“ oder auch „stetig“, als

Gegenstück zu „digital“ im Sinne von „diskret“.

101


Am Beispiel der Fotografie und des Digital Imaging konnten wir erste spezifische

Eigenschaften der beiden Bildmedien feststellen. Das Digital Imaging wird zu den Tertiären

Medien gerechnet, bei denen sowohl auf der Produktions- als auch auf der Rezeptionsseite

der Einsatz von Technik notwendig ist. Die unmittelbare, direkte Wahrnehmung der Bilder

konnte als spezifische Eigenschaft der analogen Bildmedien verzeichnet werden. Aufgrund

von Ähnlichkeiten, die sie im Bezug auf das, was sie denotierten zeigen, wirken sie

analogisch und sind direkt wahrnehmbar. Demgegenüber sind die digitalen Bilder codierte, in

Zahlen aufgelöste Wirklichkeit. Ein anderer Aspekt ist die unterschiedliche Authentizität der

beiden Gattungen: während sich bei der analogen Fotografie das Bild selbst „schreibt“ und als

direktes materielles Resultat der einfallenden Lichtstrahlen gesehen werden kann, liegt das

digitale Bild codiert vor und muss erst interpretiert werden. Die Möglichkeiten der digitalen

Nachbearbeitung sind vielfältiger geworden und der Manipulation sind keine Grenzen gesetzt.

Wir haben gesehen, dass digitale Bilder direkt erzeugt werden können, zum Beispiel beim

Digital Imaging, dass sie aber auch durch die Umwandlung von analogen Bildern entstehen

können. Mit Hilfe eines „Scanners“ ist es zum Beispiel möglich analog vorliegende Bilder in

digitale umzuwandeln, zu digitalisieren. Dabei werden die kontinuierlich vorliegenden Bilddaten

im ersten Schritt gerastert, also in eine diskrete Geometrie überführt und dann die Farbwerte

der Bildpunkte quantisiert, also auf endlich viele diskrete Farbwerte reduziert. Das bedeutet

aber zugleich, dass Bilddaten verloren gehen. Das Resultat ist ein digitales Bild, dass als

zweidimensionales Zahlenschema, als so genannte Matrix vorliegt. In dieser Matrix ist jeder

Bildpunkt bezüglich seiner Position und Farbigkeit bekannt und kann jederzeit direkt

angesprochen und verändert werden. Es liegt also ein rechenbares, flexibles, immaterielles

Bild vor. Soweit könnte man also festhalten, dass analoge Bildmedien Ähnlichkeit zu den

Sachverhalten oder Dingen zeigen, auf die sie sich beziehen. Die digitalen Bilder sind durch

Zahlen codiert und zeigen keine Entsprechung mehr zu dem, für was sie stehen.

Die Bildtheorie zeigte, dass man die Begriffe „analog“ und „digital“ auch auf die strukturelle

Beschaffenheit der Bilder beziehen kann. Der analytische Ansatz von Goodman hat gezeigt,

dass syntaktische Dichte ein notwendiges Kriterium für analoge Symbolsysteme, also auch

für analoge Bilder ist, wohingegen digitale Bilder, die zu digitalen Symbolsystemen gehören,

als syntaktisch endlich differenzierbar oder auch diskret angesehen werden müssen. Dabei

können digitale Bilder in diesem Sinn als Teilmenge der analogen Bilder verstanden werden.

Sie stellen sozusagen eine besondere Form des analogen Bildes dar. Ein interessanter Aspekt

war die Nähe der digitalen Bilder zum Text. Beide funktionieren linear und man weiß, wie man

sie schreiben und lesen muss. Ein wichtiger Punkt war die Erkenntnis, dass nicht nur der

Code das digitale Bild ausmacht. Vielmehr ist das digitale Bild im Prozess der Interpretation zu

verstehen. Denn der Code selbst ist numerisch und als solcher ein Universalcode, der seine

Bedeutung erst durch den Vorgang der Interpretation erhält. Die Substanz des digitalen Bildes

ist nicht einfach im Bildcode begründet. Das wesentliche Kriterium, dass uns die Bildtheorie an

die Hand gab, waren die unterschiedlichen Syntakta der beiden Gattungen. Die

Unterscheidung der „analogen“ und „digitalen“ Bildmedien lässt sich über die Begriffe der

102


Dichte und der Differenziertheit bestimmen. Die Bildtheorie lieferte also eine andere Art der

Charakterisierung der beiden Gattungen.

Man muss also bezüglich der zwei Bedeutungen von „analog“ und „digital“ unterscheiden:

Wenn man von „analog“ im Sinne von „ähnlich“ oder auch „entsprechend“ spricht, bezieht man

sich eigentlich auf den Inhalt eines Bildes oder besser auf das, was es denotiert. Man kann

also feststellen, dass bei analogen Bildern Ähnlichkeit zwischen dem, was das Bild zeigt,

was es denotiert vorhanden ist. In diesem Sinne würde dann „digital“ genau das Gegenteil

davon bedeuten, eben dass keine Ähnlichkeit vorhanden ist. Digitale Bilder sind digital codiert

und insofern zeigen sie keine Entsprechung mehr zu dem, was sie denotieren. So kann auch

die spezifische Eigenschaft der unmittelbaren Wahrnehmung von analogen Bildmedien

verstanden werden. Der Bildinhalt kann unmittelbar wahrgenommen werden, im Sinne dass er

Ähnlichkeiten zum Denotat aufweist und nicht erst interpretiert werden muss. Der digitale

Bildcode hingegen muss erst aufbereitet werden, da er nicht analogisch wirkt. Er kann für

alles stehen und bezieht sich nicht mehr auf das, für was er eigentlich steht.

Die andere Verwendung von „analog“ und „digital“ bezieht sich auf die syntaktische

Beschaffenheit der Bildmedien. Hierbei werden die Begriffe im Sinne von „kontinuierlich“ und

„diskret“ verwendet und beschreiben Eigenschaften, wie die syntaktische Dichte der Bilder.

Wir müssen also zum einen die Bedeutung des Bildes von der Beschaffenheit des Bildes

unterscheiden. Dabei kann es durchaus Vermischungen der beiden Zustände geben. Etwas

verwirrend ist zum Beispiel die Tatsache, dass es durchaus digitale Bilder geben kann, die

analog im Sinne von „ähnlich“ sind. Dies könnte zum Beispiel ein Porträt einer Frau sein, dass

als digitales Bild vorliegt. Hierbei handelt es sich also um eine hybride Form, die sowohl analog

als auch digital ist, je nachdem wie man die Begriffe deutet. Mein Vorschlag wäre also eine

Art Doppelbezeichnung einzuführen, bei der man das Begriffspaar „analog“ und „digital“ zum

einen auf die formalen Eigenschaften des Bildes bezieht, also die syntaktische Beschaffenheit

und zum anderen auf die inhaltlichen Eigenschaften, also die Denotation des Bildes. Somit

können beide Beziehungen beschrieben werden. Dies könnte in der Art wie bei einer Musik

CD geschehen, bei der die unterschiedlichen Produktionsstufen mit Kürzeln, wie AAA oder

ADD bezeichnet werden. Bei den Bildern müsste man die zwei verschiedenen Beziehungen

unterscheiden, zum Beispiel würde die Kategorie „AA“ ein syntaktisch dichtes, dem Denotat

ähnliches Bild bezeichnen. Mit der vorgeschlagenen zweifachen Charakterisierung könnte

man die verschiedenen Bildmedien wie in Abbildung 23: Ein Vorschlag für die Einteilung der Bildmedien

einteilen.

103


FORM

INHALT

analog = kontinuierlich

digital = diskret

analog =

ähnlich

Handzeichnung(*),

Malerei

digitales Foto der “Welt”,

gescannte

Handzeichnung (*),

Schrift (Text)

digital =

nicht analog

(ähnlich)

konkrete Kunst (**),

z.B. Handzeichnung,

Malerei

Informationsästhetik,

generative Kunst,

Fraktale

gescannte konkrete

Kunst (**)

Abbildung 23: Ein Vorschlag für die Einteilung der Bildmedien

Vielleicht lassen sich die beiden Begriffsbedeutungen insofern in Einklang bringen, wenn man

sagt, dass eigentlich alle durch unsere Sinne wahrnehmbaren Phänomene in der Welt

analogen Charakter besitzen und die strukturell analogen Bilder, die aber nichts aus der Welt

denotieren müssen (zum Beispiel nulldenotierende Bilder), in diesem Sinne ähnlich zur Welt

sind. Dies wäre als Ähnlichkeit im Hinblick auf die Struktur von Welt und Bild. Es würde sich

dann, um eine strukturelle Analogie handeln. Im Gegensatz dazu stehen die digitalen Bilder, die

man einbinden kann, wenn man sie als Teilmenge der analogen Bilder auffassen will.

Die digital codierten, also rechenbaren Bilder brachten in der Gestaltung neue Möglichkeiten.

Es konnten neue Formen der Kunst entstehen. Dabei kann man beim Gestaltungsprozess

selbst verschiedene Grade der Selbstständigkeiten im Verhältnis zwischen Künstler und

Maschine verzeichnen. Denn durch den Einsatz des Computers übergibt der Künstler

Verantwortung an die Maschine. Aus der Rechenbarkeit der digitalen Bilder resultieren

spezifische Gestaltungsmöglichkeiten wie Bildtransformationen, nachträgliche Bildbearbeitung,

die Speicherung verschiedener Zustände und der Datenkomprimierung. Durch die

schnelle Umrechnung und damit Überführung von einem Bildzustand in den nächsten war der

Weg zum bewegten Bild frei. Nachdem die Tür für die Animation geöffnet worden war, die ja

im Film bereits bekannt war, entwickelten sich darüber hinaus neue Formen des bewegten

Bildes. Das Morphing als flüssiger Übergang eines Objektes in ein anderes war eine

Innovation, die neue Sehgewohnheiten verursachte. Aber auch die Computeranimation

ermöglichte neue Formen weit über die bekannte Animation im Film hinaus. Es konnten neue

Welten erschaffen werden, wobei es möglich wurde, historisches und neues Filmmaterial zu

104


mischen. Desweiteren ist es möglich, generative Bilder herzustellen, deren Erzeugung früher

zu aufwendig und arbeitsintensiv gewesen wäre. Die Visualisierung von Fraktalen wurde

erst mit dem Einsatz der Digitalrechner möglich, weil der Rechenaufwand für Menschen

einfach unmöglich zu bewältigen war. Daraus konnte eine Erweiterung des visuellen

Formenschatzes entstehen.

Eine andere Möglichkeit ist die Interaktivität der Arbeiten. Diese können nun interaktiv ihr

Aussehen verändern, sind also keine vorgefertigten endgültigen Zustände, sondern erhalten

ihre Form und Aussehen erst im Prozess durch die aktive Teilnahme des Rezipienten. Der

Betrachter wird zum Benutzer und er ist auch, der das Kunstwerk nach seinen Vorstellungen

zur Vollendung bringt, indem er das System, dass ihm zur Verfügung gestellt wird

durchforscht, die Grenzen auslotet und im Rahmen dieser Grenzen Veränderungen vornimmt.

Die Grenzen sind bei zweidimensionalen Arbeiten aber nicht erreicht. Denn der digitale Code

kann auch für dreidimensionale Objekte stehen. Technisch ist es möglich auch mit

Fräßmaschinen oder Plastikgussmaschinen dreidimensionale Arbeiten herzustellen. 106

Auch die Raumerfahrung ist mittlerweile in ganz neuen Dimensionen möglich. Der Benutzer

kann vollständig in die erzeugten Welten eintauchen. Die Schnittstellen sind komfortabler und

einfacher geworden. Längst ist der Cyberspace Wirklichkeit geworden, der 1984 von William

Gibson in seinem Buch „Newromancer“ vorweg genommen wurde.

Es gibt so genannte immersionsfähige Systeme, die den Rezipienten vollständig umgeben und

damit auch sein Sichtfeld vollständig ausfüllen. Der Benutzer wird vom Medium umgeben und

die Grenze zwischen ihm und der virtuellen Welt ist aufgehoben.

Damit fühlt er sich vollständig in die simulierte Welt versetzt. Ein solches System ist der HyPi6,

der als Cave am Fraunhofer Institut in Stuttgart zu begehen ist. 107 Der Benutzer befindet sich

in einem Kubus aus stabilen Glasplatten, die über Projektoren aus allen Richtungen bespielt

werden. So entsteht ein vollständig simulierter Raum, in dem sich der Benutzer bewegen

kann, indem er über ein Steuergerät mit dem System kommuniziert. Am Ende der Entwicklung

könnte irgendwann die perfekte Simulation von Realität stehen, bei der auch die anderen, die

nichtvisuellen Kanäle vorhanden sind. Der Benutzer könnte dann auch über die taktilen,

gustorischen und olfaktorischen Sinne die Simulation erfahren.

Eine andere Art der visuellen Simulation findet in der so genannten „Augmented Reality“

Anwendung statt. Hier wird dem Rezipienten über eine Datenbrille eine Überlagerung der

realen Welt mit zusätzlichen digitalen Simulationen geboten. Es handelt sich also um eine

Vermischung von realen und künstlichen Bildern, wobei die simulierten Bilder mit den realen

korrespondieren. Diese Systeme finden meines Wissen zur Zeit noch keine Verwendung im

Kunstsektor. Ein Beispiel aus der Technik könnte derart aussehen, dass man durch eine

Datenbrille ein reales Kraftfahrzeug betrachten kann und während man dieses anschaut,

werden zusätzliche Informationen, zum Beispiel über den inneren Aufbau des Fahrzeuges,

106 Karin Sander hat zum Beispiel in einer Arbeit biometrische Daten von Menschen mit einem Ganzkörperscanning eingelesen und

anschließend kleine, im Maßstab reduzierte Figuren anfertigen lassen.

107 Diesen konnte ich selbst beim Besuch des Fraunhofer Instituts in Stuttgart erleben und ausprobieren, im Rahmen des

Forschungsprojektes „Visuelle Kompetenz im Medienzeitalter“ an der Akademie der Bildenden Künste Stuttgart

105


über einen schwachen Laser direkt auf die Netzhaut geschickt. Dort überlagern sich beide

Informationsstränge und verbinden sich zu einem Gesamtbild. Der immense Rechenaufwand,

um das simulierte Bild immer mit den Augenbewegungen zu synchronisieren, führt momentan

noch zu erheblichen Latenzzeiten, also zu Verzögerungen.

Eine andere Entwicklung, die uns in absehbarer Zeit erreichen wird, ist das „e-paper“, eine

Art elektronisches Papier. 108 Das elektronische Papier besteht aus Myriaden von kleinen

Kügelchen, die zwischen zwei durchsichtigen Plastikfilmen eingeschweißt sind. In jedem

Kügelchen befinden sich elektrisch geladene weiße und schwarze Farbpigmente. Je nach

Spannung drehen sich die Kügelchen im Plastikfilm und die Pigmente an der Oberfläche

werden sichtbar. Es erinnert ein wenig an die bei Kindern beliebten Zaubertafeln, die man mit

einem Stift beschreiben und danach wieder löschen kann. Wenn es der Preis zulässt,

werden Künstler sich auch auf dieses neue Medium einlassen, wer weiß, wie es das

geschöpfte Papier aus Fasern verändern wird.

Die Gestaltungsmöglichkeiten für Künstler werden sich also in Zukunft extrem erweitern.

Gleichzeitig besteht die Möglichkeit zur Verfälschung und zur Manipulation. Die

Unterscheidung von Wirklichkeit und Simulation wird immer schwieriger, was „Cave“- oder

auch „Augmented Reality“-Systeme zeigen.

Die perfekte Simulation und damit auch Fälschung ist möglich geworden, auch weil die

digitalen Bilder identisch reproduziert werden können. Darüber hinaus kann man eigentlich gar

nicht mehr von Fälschung sprechen, weil sich diese Bilder nicht mehr auf die Welt oder ein

anderes Bild beziehen, sondern einfach sich selbst sind. Ein große Veränderung birgt das

neue Verhältnis zwischen Original und Kopie. Dieses ist mittlerweile nicht mehr

unterscheidbar und man muss in diesem Zusammenhang besser von Original und Replikat

sprechen. Man kann weder durch die Eigenschaften der Bildmedien noch durch Numerierung

feststellen, welches das Original ist. Die Bilder unterscheiden sich in keiner Hinsicht, sind

absolut identisch.

Wenn man sieht wie rasant sich die neuen Medien weiterentwickeln, könnte man an diesem

Punkt die Frage stellen: sind die traditionellen Techniken vielleicht anachronistisch?

Meiner Auffassung nach sind die auf Computer basierenden Systeme, bei allen Möglichkeiten,

welche die neuen Systeme zur Verfügung stellen, immer als eine Ergänzung zum bekannten

Instrumentarium und nicht als eine Alternative zu sehen. Denn jedes Medium hat seine

spezifischen Eigenschaften und genau diese fehlen den digitalen auch, wenn es zum Beispiel

um die Wirkung der Materialität geht. Bei den traditionellen Bildmedien handelt sich um

verankerte Methoden, die auch unserem Verhaltensmuster angemessen erscheinen. So wird

zum Beispiel ein Kind damit anfangen, wenn es gestalterisch aktiv wird, mit einem Stift auf ein

Papier zu zeichnen. Das ist seiner Motorik und seinem Abstraktionsgrad angemessen. Es ist

also unwahrscheinlich, dass die klassischen Methode, verschwinden werden. Außerdem

108 vgl. Christiane Karweil, Noch schöner als im Bilderbuch, in: Die Zeit 7.02.2002, S.20

106


esitzen sie gegenüber den digitalen Bildmedien einige Vorteile: zum Beispiel ist mit ihnen ein

direkterer Umgang mit dem Material möglich, was vielleicht auch zu einem besseren

Verständnis für die Vorgänge, die dabei eine Rolle spielen, führt. Eine Erweiterung der

Gestaltungsmöglichkeiten durch digitale Medien ist aber sinnvoll, denn sie schafft neue

Ausdrucksmöglichkeiten. Der Einsatz von Werkzeugen ist legitim, denn auch ein Pinsel ist ein

Werkzeug und das Beispiel der Musik zeigt, dass wir ohne Musikinstrumente, als technische

Instrumente, nur die Möglichkeit unseres Körpers einsetzen könnten, also den vokalen

Gesang. Gerade das Beispiel der Musik beweist, dass der Einsatz technischer Geräte zu

einer gehörigen Erweiterung der Ausdrucksskala führen kann. Vielleicht könnte man auch

sagen, dass gerade neuere Medien, die aus wissenschaftlichen und kulturellen

Errungenschaften jüngerer und jüngster Zeit hervorgegangen sind, unserem Weltbild, unseren

Vorstellungen und unserer Art zu denken viel näher sind, als alte Medien.

Ich möchte die digitalen Bildmedien mit ihren spezifischen Eigenschaften als eine Erweiterung

der künstlerischen Möglichkeiten verstehen. Meiner Meinung nach werden sie die traditionellen

Techniken nicht verdrängen. Selbst wenn dies in weiter Zukunft der Fall sein sollte, könnte

man sagen, dass die traditionellen Techniken im Hegelschen Sinn in diesen aufgehoben sind.

Die Erfahrungen und Erkenntnisse aus der Vergangenheit gehen immer in die

Weiterentwicklungen mit ein. Die Entwicklungen werden, wie in der Wissenschaft auch, auf

jeden Fall immer weiter gehen, was vielleicht in einer der Triebfedern des Menschen

begründet liegt, der Neugier.

107


Hiermit erkläre ich, dass ich die Arbeit selbständig und nur mit den hier angegebenen Quellen

verfasst habe.

Ludwigsburg, den 12.März 2002

_________________________

108


7. Literaturliste

Nachschlagewerke

Der große Brockhaus, A - Z, Band 4, Brockhaus Verlag, Leipzig 1929

Josette Rey-Debove und Gilberte Gagnon (Hrsg.), Dictionnaire des Anglicismes, Verlag Le

Robert, Paris 1988

Duden - Das Herkunftswörterbuch der deutschen Sprache, hg. von der Dudenredaktion, Band

7, 2. völlig neu bearbeitete und erweiterte Auflage, Dudenverlag , Mannheim 1989

Duden - Das Fremdwörterbuch, hg. von der Dudenredaktion, Band 5, 5. neu bearbeitete und

erweiterte Auflage, Dudenverlag, Mannheim 1990

Joachim Ritter (Hrsg.), Historisches Wörterbuch der Philosophie, Schwabe & Co. Verlag,

Basel/Stuttgart 1971

Hans Jörg Sandkühler (Hrsg.), Enzyklopädie Philosophie, Felix Meiner Verlag, Hamburg 1999

Gert Ueding (Hrsg.), Historisches Wörterbuch der Rhetorik, Niemeyer Verlag, Tübingen 1992

Johann Heinrich Zedler (Hrsg.), Grosses vollständiges Universal Lexikon, Band 7, Akad.

Druck- und Verlagsanstalt, Graz 1961 (Erstveröffentlichung 1734)

Bücher

Otl Aicher, analog und digital, Ernst & Sohn, Lüdenscheid 1991

Gernot Böhme, Theorie des Bildes, Wilhelm Fink Verlag, München 1999

Bernd Busch, Belichtete Welt - Eine Wahrnehmungsgeschichte der Fotografie, Fischer Verlag,

Frankfurt am Main 1995

Thomas Crow, Die Kunst der sechziger Jahre: von der Pop-art zu Yves Klein und Joseph

Beuys, DuMont Verlag, Köln 1997

Tim Daly, Handbuch digitale Photographie, Benedikt Taschen Verlag, Köln 2000

109


Christian Doelker, Ein Bild ist mehr als ein Bild: visuelle Kompetenz in der Multimedia-

Gesellschaft, Klett-Cotta, Stuttgart 1997

Umberto Eco, Einführung in die Semiotik, Wilhelm Fink Verlag, München 1972

Umberto Eco, Kunst und Schönheit im Mittelalter, Deutscher Taschenbuch Verlag, München

1993

Umberto Eco, Zeichen. Einführung in einen Begriff und seine Geschichte, Suhrkamp Verlag,

Frankfurt am Main 1977

Werner Faulstich (Hrsg.), Grundwissen Medien, 4. Auflage, Wilhelm Fink Verlag, München

2000

Vilém Flusser, Für eine Philosophie der Fotografie, 9. Auflage, European Photography,

Göttingen 2000

Nelson Goodman, Sprachen der Kunst - Entwurf einer Symboltheorie, 2. Auflage, Suhrkamp,

Frankfurt am Main 1998

Peter Hoeg, Fräulein Smillas Gespür für Schnee, Rowohlt Taschenbuch Verlag, Reinbek bei

Hamburg 1997

Ludwig J. Issing, Paul Klimsa (Hrsg.), Information und Lernen mit Multimedia, Psychlogie

Verlags Union, Weinheim 1995

Gottfried Jäger, Andreas Dress (Hrsg.), Visualisierung in Mathematik, Technik und Kunst,

Vieweg, Braunschweig, Wiesbaden 1999

Peter Jenny, Bildkonzepte, Verlag Hermann Schmidt, Mainz 2000

Konrad Königsberger, Analysis I, Springer Verlag, Berlin 2001

Florian Rötzer, Digitaler Schein - Ästhetik der elektronischen Medien, Suhrkamp Verlag,

Frankfurt am Main 1991

Thomas Ruff: Fotografien 1979 - heute, hg. von Matthias Winzen, Ausstellungskatalog:

Baden-Baden 2001/02, Verlag der Buchhandlung Walther König, Köln 2001

Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bildgrammatik, Scriptum Verlag, Magdeburg

1999

110


Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), Bild - Bildwahrnehmung - Bildverarbeitung,

Deutscher Universitätsverlag, Wiesbaden 1998

Willi Oelmüller (Hrsg.), Kolloquium Kunst und Philosophie 1: Ästhetische Erfahrung, Schöningh

Verlag, Paderborn 1981

Eckart Zundel, Clavis Quintilianea, Wissenschaftliche Buchgesellschaft, Darmstadt 1989

Zeitungen

Christiane Karweil, Noch schöner als im Bilderbuch, in: Die Zeit 7.02.2002, S. 20

Christian Wittwer, Das digitale Bild ist keine Fotografie, in: Neue Zürcher Zeitung 8.11.1996, S.

37

Internet

Vortrag: Andreas Brennecke, Physikalische Analogien und Ziffernrechenmaschinen – Von

mechanischen Rechengeräten zu Integrieranlagen und programmgesteuerten Maschinen.

Quelle: http://iug.uni-paderborn.de/iug/veroffentlichungen/2000/anbr_greifswald/text.html

(11.3.2002)

111

Ähnliche Magazine