Zum Informationsbegriff der Informationstheorie
Zum Informationsbegriff der Informationstheorie
Zum Informationsbegriff der Informationstheorie
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
}<br />
ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />
Organismen in <strong>der</strong> Lage sein wird, eine Theorie<br />
<strong>der</strong> Bedeutung dieser Signale zu ersetzen. Das<br />
erscheint unzulässig. [...] Die Bedeutung dieser<br />
Zeichen, das Semantische, findet keine Erklärung<br />
im mathematisch-physikalischen Rahmen<br />
<strong>der</strong> Kommunikations- und <strong>Informationstheorie</strong>.<br />
Letztere handelt von <strong>der</strong> Technik <strong>der</strong> Übermittlung,<br />
Verwertung und Speicherung von<br />
Signalen. Die Bedeutung <strong>der</strong> Signale muß als<br />
gegeben hingenommen werden.<br />
Wenn man diese und an<strong>der</strong>e Zitate aus <strong>der</strong> großen<br />
Zeit <strong>der</strong> <strong>Informationstheorie</strong> heute liest, kann man<br />
den Eindruck gewinnen, dass ihre Verfasser zwar<br />
den Unterschied zwischen <strong>der</strong> syntaktischen und<br />
semantischen Information erwähnten (weil sie das<br />
ihrer Reputation als Wissenschaftler schuldig<br />
waren), dass sie es aber nebenbei und unauffällig,<br />
fast verschämt taten, um den neuen Erkenntnissen,<br />
die sie propagierten, ja nichts von ihrer Größe zu<br />
nehmen.<br />
Seitdem haben sich des Themas auch Philosophen<br />
bemächtigt und den Unterschied zwischen<br />
syntaktischer und semantischer Information bemerkt.<br />
<strong>Zum</strong> Beispiel vertritt G. Ropohl die Ansicht,<br />
dass Informationen Zeichen (in dem weiten Sinn<br />
<strong>der</strong> Semiotik, nicht in dem engen eines endlichen<br />
Alphabets) sind und wie Zeichen drei Komponenten<br />
haben: eine syntaktische, eine semantische und<br />
eine pragmatische. Er definiert [7]:<br />
Eine Information ist ein Zeichen aus einer<br />
Zeichenmenge, das durch folgende Merkmale<br />
gekennzeichnet ist:<br />
· Das Zeichen ist ein physisches (d. h. stoffliches o<strong>der</strong><br />
energetisches) Ereignis, das mit einer bestimmten<br />
Häufigkeit o<strong>der</strong> Wahrscheinlichkeit auftritt.<br />
· Das Zeichen hat eine bestimmte Bedeutung, die ihm<br />
durch Konvention zugeschrieben wird.<br />
· Das Zeichen hat einen bestimmten Bezug zum Verhalten<br />
seines Benutzers.<br />
Ein brauchbarer <strong>Informationsbegriff</strong> muß alle<br />
drei Komponenten enthalten. Diese For<strong>der</strong>ung<br />
wird freilich von <strong>der</strong> <strong>Informationstheorie</strong> im<br />
engeren Sinne nicht erfüllt, denn diese und ihr<br />
mathematisch definiertes Informationsmaß<br />
betreffen nur die syntaktische Dimension <strong>der</strong><br />
Zeichen. [...] Dieser verengte, rein formale <strong>Informationsbegriff</strong><br />
hat wohl darum beson<strong>der</strong>e<br />
Beachtung gefunden, weil er mathematisch<br />
präzisiert wurde, während entsprechende<br />
Versuche für die semantische und pragmatische<br />
Dimension bisher erfolglos blieben. Aber<br />
selbstverständlich geht es nicht an, einen<br />
wissenschaftlichen Begriff allein nach Maßgabe<br />
seiner Formalisierbarkeit zu dimensionieren;<br />
entscheidend ist vielmehr seine Aussagekraft<br />
bezüglich realer Erscheinungen und Probleme,<br />
und da ist inzwischen oft genug gezeigt worden,<br />
daß ein auf die syntaktische Dimension<br />
verkürzter <strong>Informationsbegriff</strong> sehr unergiebig<br />
wäre.<br />
Das scheint mir ein sorgfältig durchdachter Versuch<br />
zu sein, den Kern <strong>der</strong> verschiedenen Variationen<br />
des <strong>Informationsbegriff</strong>s zu beschreiben. Doch<br />
auch Ropohl kommt nicht ohne eine Verbeugung<br />
vor Shannon aus, indem er die Auftrittshäufigkeit<br />
o<strong>der</strong> -wahrscheinlichkeit ins Spiel bringt. Wer mehr<br />
darüber wissen will, in welcher Weise sich Philosophen<br />
mit dem <strong>Informationsbegriff</strong> beschäftigen<br />
(und sie tun es intensiv), <strong>der</strong> sei auf die lange Diskussion<br />
[4] hingewiesen, an <strong>der</strong> sich auch eine ganze<br />
Reihe von Informatikern beteiligt hat.<br />
Als die Kunde von <strong>der</strong> Messbarkeit <strong>der</strong> Information<br />
nach Europa gekommen war, schien die<br />
Zeit anzubrechen, in <strong>der</strong> über den quantitativen<br />
<strong>Informationsbegriff</strong> auch die Geisteswissenschaften<br />
und Künste an den Erkenntnissen und Arbeitsweisen<br />
<strong>der</strong> exakten Wissenschaften teilhaben konnten.<br />
Wenn Information mit Struktur, Ordnung, Form<br />
eng verwandt war und man sie messen konnte, bestand<br />
die Aussicht, ästhetische Kategorien auf eine<br />
wissenschaftliche Grundlage zu stellen. Es entstanden<br />
über Nacht neue Wissenschaftszweige wie<br />
Informationspsychologie, kybernetische Pädagogik,<br />
quantitative Ästhetik, Redundanztheorie und wohl<br />
noch mehr. Literaturwissenschaftler vermaßen<br />
Texte, indem sie die Häufigkeit <strong>der</strong> Wörter, die Satzlängen<br />
und an<strong>der</strong>es zählten und daraus die Shannon’sche<br />
Information berechneten, die <strong>der</strong> Text enthält.<br />
Sie glaubten damit dem Geheimnis des Stils<br />
<strong>der</strong> einzelnen Schriftsteller auf die Spur zu kommen,<br />
demjenigen, das sich bis heute je<strong>der</strong> Messung<br />
entzieht. Man untersuchte auch Musikwerke mit<br />
statistischen Methoden auf die Tonhöhen und Intervalle,<br />
die in ihnen vorkommen, ebenfalls um die<br />
Merkmale von Personalstilen und Epochenstilen<br />
quantitativ zu erfassen. Das war die sog. „Informationsästhetik“.<br />
324<br />
Informatik_Spektrum_14_Oktober_2003