Zum Informationsbegriff der Informationstheorie
Zum Informationsbegriff der Informationstheorie
Zum Informationsbegriff der Informationstheorie
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
HAUPTBEITRAG / ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE }<br />
<strong>Zum</strong> <strong>Informationsbegriff</strong><br />
<strong>der</strong> <strong>Informationstheorie</strong><br />
Peter Rechenberg<br />
Was hier steht, ist nicht<br />
neu, son<strong>der</strong>n schon oft<br />
gesagt worden, allerdings<br />
nur unbetont und<br />
gewissermaßen nebenbei.<br />
Es ist nicht allgemein<br />
bekannt, und das<br />
scheint mir genug Grund<br />
dafür zu sein, ausdrücklich<br />
darauf hinzuweisen.<br />
Der Begriff „Information“<br />
wird heute in vielen<br />
verschiedenen Bedeutungen<br />
benutzt.<br />
Nach meiner Beobachtung<br />
ist das zum<br />
großen Teil auf die<br />
Shannon’sche <strong>Informationstheorie</strong><br />
mit ihrem<br />
quantitativen <strong>Informationsbegriff</strong> zurückzuführen.<br />
Um sich darüber klar zu werden, mag es nützlich<br />
sein, an die <strong>Informationstheorie</strong> zu erinnern, ihr<br />
mathematisches Modell in seinen Grundzügen kritisch<br />
darzustellen und vor allem zu zeigen, wie stark<br />
sich <strong>der</strong> Shannon’sche <strong>Informationsbegriff</strong> von den<br />
gängigen <strong>Informationsbegriff</strong>en unterscheidet.<br />
Kurze Geschichte des <strong>Informationsbegriff</strong>s<br />
Der Begriff „Information“ ist alt. Er kommt vom<br />
lateinischen Verb informare, das „einformen“ o<strong>der</strong><br />
„in eine Form bringen“ heißt, und dem dazugehörigen<br />
Substantiv informatio, das „die Einformung“<br />
o<strong>der</strong> „das In-eine-Form-Bringen“ bedeutete.<br />
Zur Zeit des Humanismus war informatio dann<br />
die Unterweisung durch Unterricht und informator<br />
<strong>der</strong> Lehrer, und am Ende des 19. Jahrhun<strong>der</strong>ts<br />
bedeutete Information nur noch allgemein Mitteilung,<br />
Auskunft. Das Wort wurde verstanden, aber<br />
wenig benutzt. Zeitungen enthielten Informationen<br />
für ihre Leser, Telegramme für ihre Empfänger. In<br />
<strong>der</strong> ersten Hälfte des 20. Jahrhun<strong>der</strong>ts än<strong>der</strong>te sich<br />
daran nur wenig, sodass <strong>der</strong> Begriff „Information“<br />
ein unauffälliges Dasein fristete und we<strong>der</strong> in<br />
Philosophie noch Wissenschaft o<strong>der</strong> Politik eine<br />
Rolle spielte.<br />
Das än<strong>der</strong>te sich (nach <strong>der</strong> Erinnerung des<br />
Verfassers) erst nach dem Zweiten Weltkrieg. Es<br />
waren die sog. <strong>Informationstheorie</strong>, die Kybernetik,<br />
das Fernsehen und die elektronische Datenverarbeitung,<br />
die dem Begriff „Information“ zu unvermuteter<br />
Blüte verhalfen. Heute ist er ein Schlüsselbegriff<br />
unserer Zeit (Informationsgesellschaft, Informationszeitalter)<br />
und hat sogar <strong>der</strong> neuen technischen<br />
Wissenschaft, <strong>der</strong> Informatik, den Namen<br />
gegeben. Das ist eine erstaunliche Entwicklung,<br />
beson<strong>der</strong>s im Hinblick darauf, dass „Information“<br />
ein weicher, vager, missverständlicher Begriff ist.<br />
Eine kurze Rekapitulation seiner verschiedenen<br />
Bedeutungen ergibt etwa Folgendes:<br />
· Oft bedeutet Information nichts an<strong>der</strong>es als „Nachricht“<br />
o<strong>der</strong> „Mitteilung”. Beispiel: Die Sätze „Informiere mich darüber,<br />
wann du ankommst“ und „Benachrichtige mich darüber<br />
(o<strong>der</strong> teile mir mit), wann du ankommst“ bedeuten dasselbe.<br />
· Eine Verfeinerung des <strong>Informationsbegriff</strong>s ist erfor<strong>der</strong>lich,<br />
wenn man den physischen Träger <strong>der</strong> Nachricht von ihrem<br />
Inhalt unterscheiden will. So kann man sagen: Ein Telegramm<br />
ist eine Nachricht und es enthält Information. Die<br />
Nachricht ist hier etwas Objektives, das durch ein Medium<br />
(Draht, elektromagnetische Wellen) unverfälscht o<strong>der</strong> verfälscht<br />
übertragen werden kann, die Information dagegen<br />
etwas Subjektives, das erst durch den Empfänger entsteht,<br />
indem er <strong>der</strong> erhaltenen Nachricht eine Bedeutung beilegt.<br />
Diese Auffassung kann<br />
man etwa in dem Satz<br />
zusammenfassen:<br />
Information ist gedeutete<br />
Nachricht. In diese Richtung<br />
geht auch die Norm<br />
ISO 2382, in <strong>der</strong> definiert<br />
DOI 10.1007/s00287-003-0329-x<br />
© Springer-Verlag 2003<br />
Prof. Dr. P. Rechenberg<br />
Institut für Praktische Informatik,<br />
Johannes-Kepler-Universität,<br />
A-4040 Linz, Österreich<br />
E-Mail: rechbg@soft.uni-linz.ac.at<br />
Informatik_Spektrum_14_Oktober_2003 317
}<br />
ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />
wird: Information ist „die vom Menschen den Daten mittels<br />
Vereinbarung über ihre Darstellung gegebene Bedeutung“.<br />
· Eine nochmalige Verfeinerung des <strong>Informationsbegriff</strong>s<br />
ergibt sich dadurch, dass man seit Shannon sagt: Information<br />
muss dem Empfänger einen Wissenszuwachs bringen.<br />
Das kommt in folgenden Sätzen zum Ausdruck:„Diese Nachricht<br />
enthält für mich keine Information“ o<strong>der</strong> „Um darüber<br />
entscheiden zu können, brauche ich mehr Information“. Eine<br />
für den Empfänger unerwartete (d. h. ihn überraschende)<br />
Nachricht hat danach einen großen Informationsgehalt, eine<br />
von ihm ohnehin erwartete nur einen geringen und eine<br />
ihm schon bekannte gar keinen.<br />
Wie wenig Übereinstimmung über die Bedeutung<br />
des Begriffs „Information“ herrscht, zeigt sich daran,<br />
dass es auch Autoren gibt, die den Spieß umdrehen<br />
und sagen, „Information“ sei ein undefinierter<br />
Grundbegriff, und erst durch Deutung werde<br />
aus ihr eine Nachricht.<br />
Am Ende <strong>der</strong> 1940er Jahre wuchs <strong>der</strong> Information<br />
plötzlich Grundlagenbedeutung durch die<br />
<strong>Informationstheorie</strong> zu, in <strong>der</strong> dem <strong>Informationsbegriff</strong><br />
eine neue, vom bisherigen Verständnis weitab<br />
liegende Bedeutung gegeben wurde, die die<br />
Information (scheinbar) messbar machte. Dadurch<br />
entstand ein Mythos, <strong>der</strong> etwa so lautet:<br />
„Information ist ein für uns undefinierbarer,<br />
aber zugleich unentbehrlicher Grundbegriff,<br />
<strong>der</strong> als gleichberechtigt neben die physikalischen<br />
Grundbegriffe Materie und Energie zu<br />
stellen ist. Man kann Information messen,<br />
wie Materie transportieren, speichern und verarbeiten;<br />
und wie Energie die Fähigkeit hat,<br />
Arbeit zu leisten, hat Information die Fähigkeit,<br />
Wirkungen auf ihre Empfänger auszuüben.<br />
Aber sie ist we<strong>der</strong> Materie noch Energie.“<br />
Diese (vermeintliche) Grundlagenbedeutung führte<br />
dann im weiteren Verlauf des 20. Jahrhun<strong>der</strong>ts mit<br />
zu den Begriffen „informierte Gesellschaft“, „Informationsgesellschaft“,<br />
„Wissensgesellschaft“.<br />
In <strong>der</strong> Biologie entstanden Son<strong>der</strong>bedeutungen<br />
des <strong>Informationsbegriff</strong>s. Konrad Lorenz benutzte<br />
„Information“ in einer interessanten metaphorischen<br />
Weise. Er sagte, dass die Anpassung von<br />
Lebewesen an ihre Umgebung, die durch die Evolution<br />
über große Zeiträume hinweg entstanden ist,<br />
wie z. B. die Fischflosse, ein Vorgang des Informationsgewinns<br />
ist, denn in <strong>der</strong> Form <strong>der</strong> Fischflosse<br />
steckt die Information, wie Fischflossen geformt<br />
Zusammenfassung<br />
Der Begriff „Information“ kennzeichnet<br />
unsere Zeit wie kaum ein an<strong>der</strong>er. Er schillert<br />
in vielen Farben, was unter an<strong>der</strong>em auf die<br />
Shannon’sche <strong>Informationstheorie</strong> mit ihrem<br />
quantitativen <strong>Informationsbegriff</strong> zurückzuführen<br />
ist. In diesem Aufsatz wird zuerst an<br />
die <strong>Informationstheorie</strong> und ihren historischen<br />
Einfluss erinnert; sodann werden die Grundaussagen<br />
<strong>der</strong> <strong>Informationstheorie</strong> im Hinblick<br />
auf ihre Bedeutung für die Informatik kritisiert,<br />
und schließlich wird darauf hingewiesen,<br />
welche schädlichen Folgen die Vermengung von<br />
syntaktischem und semantischem <strong>Informationsbegriff</strong><br />
bis heute mit sich bringt.<br />
sein müssen, damit ihr Besitzer sich mit einem<br />
Minimalaufwand an Energie im Wasser fortbewegen<br />
kann. Wie<strong>der</strong> an<strong>der</strong>es bedeutet <strong>der</strong> Begriff „genetische<br />
Information“. Damit ist die in den Genen<br />
enthaltene Anordnung <strong>der</strong> Aminosäuren gemeint,<br />
die den Bauplan eines Organismus darstellt. Hier<br />
werden die Begriffe „Information“ und „Struktur“<br />
miteinan<strong>der</strong> vermengt.<br />
Doch nicht die Vieldeutigkeit des <strong>Informationsbegriff</strong>s<br />
ist <strong>der</strong> Gegenstand dieses Aufsatzes;<br />
hier geht es nur um den quantitativen <strong>Informationsbegriff</strong><br />
<strong>der</strong> <strong>Informationstheorie</strong> und die Verwirrung,<br />
die er angestiftet hat.<br />
Die <strong>Informationstheorie</strong><br />
Dass <strong>der</strong> unklare, aber vielleicht gerade dadurch<br />
fruchtbare <strong>Informationsbegriff</strong> eine so große<br />
Aufmerksamkeit erfuhr, kam m. E. hauptsächlich<br />
durch die <strong>Informationstheorie</strong> zustande.<br />
Im Jahr 1948 veröffentlichte <strong>der</strong> Nachrichtentechniker<br />
und Mathematiker Claude E. Shannon<br />
einen Aufsatz unter dem Titel „A Mathematical<br />
Theory of Communication“ [10], in dem er folgende<br />
Fragen behandelte:<br />
· Wie sieht <strong>der</strong> kürzeste binäre Code für eine gegebene Textnachricht<br />
bei ungestörtem Übertragungskanal aus?<br />
· Kann man auch bei gestörtem Kanal Nachrichten binär so<br />
codieren, dass <strong>der</strong> Empfänger sie korrekt decodieren kann?<br />
· Wie stark darf ein Kanal, <strong>der</strong> eine binär codierte Nachricht<br />
überträgt, höchstens gestört sein, wenn man die Nachricht<br />
noch korrekt decodieren will?<br />
318<br />
Informatik_Spektrum_14_Oktober_2003
Er gab auf alle drei Fragen mathematisch präzise<br />
Antworten von beträchtlicher Allgemeinheit.<br />
Diese Fragen lagen damals in <strong>der</strong> Luft. Den<br />
Morsecode gab es schon seit hun<strong>der</strong>t Jahren, das<br />
Fernschreiben seit etwa 1920, und die Puls-Code-<br />
Modulation war gerade erfunden. Deshalb befasste<br />
man sich in den späten 40er Jahren mit <strong>der</strong> binären<br />
Codierung von Nachrichten, und einige Nachrichtentechniker<br />
stellten sich die Frage, wie man eine<br />
Nachricht binär codieren müsse, damit sie möglichst<br />
kurz wird und somit in möglichst kurzer Zeit<br />
von einem Sen<strong>der</strong> zu einem Empfänger übertragen<br />
werden kann.<br />
Der kurz zuvor erfundene Rechner (Computer)<br />
spielte noch keine Rolle bei Shannons Überlegungen,<br />
denn er wurde damals nur für numerische Berechnungen<br />
eingesetzt; an die Datenübertragung<br />
mit Rechnern dachte noch niemand.<br />
Shannons Grundideen<br />
Um mathematische Aussagen über Nachrichten<br />
und ihre Übertragung machen zu können, benutzte<br />
Shannon ein Modell, das auf folgenden Grundaussagen<br />
beruht:<br />
Abstract<br />
The term “information” characterizes the<br />
thinking of our time as hardly as any other one.<br />
It shines in various colors, partly due to Shannon’s<br />
Information Theory with its quantitative<br />
approach to the term “information”. This paper<br />
first reminds the rea<strong>der</strong> of the impact the<br />
Information Theory has had within the historical<br />
context. Then its basic propositions with<br />
regard to computer science are critically reviewed.<br />
As a conclusion it is pointed out that<br />
a mixing of a syntactic and a semantic connotation<br />
of the term “information” has generated<br />
damaging effects to this very day.<br />
· Nachrichten haben eine statistische Struktur, d. h., in einer<br />
Nachricht treten die einzelnen Zeichen, aus denen sie<br />
besteht, mit bestimmten festen Wahrscheinlichkeiten auf.<br />
(Shannon:“We will extend the theory [of Nyquist and<br />
Hartley] due to the statistical structure of the original<br />
message and due to the nature of the final destination<br />
of the information.”)<br />
· Kommunikation besteht aus <strong>der</strong> Auswahl einer Nachricht<br />
aus mehreren möglichen Nachrichten. (Shannon:“The<br />
fundamental problem of communication is that of reproducing<br />
at one point either exactly or approximately a<br />
message selected at another point.The significant aspect is<br />
that the actual message is one selected from a set of possible<br />
messages.”)<br />
· Die Nachrichtenquelle ist ein stochastischer Prozess.<br />
(Shannon:“A physical system, or a mathematical model<br />
of a system which produces such a sequence of symbols<br />
governed by a set of probabilities is known as a stochastic<br />
process.We may consi<strong>der</strong> a discrete source, therefore,<br />
to be represented by a stochastic process.”)<br />
· In Shannons Modellvorstellung generiert eine diskrete<br />
Nachrichtenquelle eine Nachricht durch wie<strong>der</strong>holte<br />
Auswahl von Zeichen aus einer gegebenen Zeichenmenge<br />
(dem Alphabet). Die Auswahl geschieht zufällig. Jedem<br />
Zeichen des Alphabets ist eine gewisse Auswahlwahrscheinlichkeit<br />
zugeordnet. Die Auswahl eines bestimmten<br />
Zeichens wird durch die Auswahlwahrscheinlichkeit des<br />
Zeichens selbst und – im Allgemeinen – durch die Auswahl<br />
vorhergehen<strong>der</strong> Zeichen bestimmt. Man kann deshalb eine<br />
diskrete Nachrichtenquelle mathematisch als stochastischen<br />
Prozess ansehen. Umgekehrt kann man jeden stochastischen<br />
Prozess, <strong>der</strong> eine diskrete Symbolfolge aus einem<br />
Alphabet erzeugt, als diskrete Nachrichtenquelle ansehen.<br />
Shannons <strong>Informationsbegriff</strong><br />
Der Teil von Shannons Arbeit, <strong>der</strong> die Aufmerksamkeit<br />
<strong>der</strong> Welt auf den <strong>Informationsbegriff</strong> lenkte,<br />
war <strong>der</strong> erste, <strong>der</strong> Aussagen über die optimale<br />
Codierung von Texten enthielt. Das Hauptergebnis<br />
war dabei folgendes:<br />
Vorausgesetzt wird: Der zu übertragende Text<br />
beliebiger Länge besteht aus den n verschiedenen<br />
Zeichen a 1 , ... a n eines gegebenen Alphabets, die<br />
mit den gegebenen Wahrscheinlichkeiten p 1 , ... p n<br />
in dem Text vorkommen.<br />
Shannon bewies den Satz: Wenn jedes Zeichen<br />
eines Textes einzeln binär codiert wird, ist die minimale<br />
Bitanzahl pro Zeichen, gemittelt über alle<br />
Zeichen des Alphabets:<br />
n<br />
H = ∑ pi<br />
⋅ld<br />
1<br />
p<br />
i = 1<br />
i<br />
Bit / Zeichen<br />
Shannon nannte H die „Entropie“ in Anlehnung an<br />
die formal ähnliche Entropie <strong>der</strong> Thermodynamik.<br />
Man beachte, dass die Entropie allein durch das<br />
Alphabet bestimmt ist (seinen Umfang n und die<br />
Auftrittswahrscheinlichkeiten seiner Zeichen),<br />
Informatik_Spektrum_14_Oktober_2003 319
}<br />
ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />
nicht durch die Länge o<strong>der</strong> den Inhalt <strong>der</strong> Nachricht.<br />
Die Entropie H bezeichnet also die folgende<br />
Minimaleigenschaft <strong>der</strong> binären Codierung von<br />
Texten eines Alphabets:<br />
Minimaleigenschaft:<br />
Jede binäre Codierung einer gegebenen Nachricht<br />
<strong>der</strong> Länge l hat mindestens die Länge H·l<br />
Bit.<br />
Die Minimaleigenschaft gilt allerdings nur unter<br />
zwei Voraussetzungen:<br />
· Die Zeichen <strong>der</strong> Nachricht sind einzeln binär codiert.<br />
· Die relativen Häufigkeiten <strong>der</strong> Zeichen <strong>der</strong> Nachricht<br />
stimmen mit den Wahrscheinlichkeiten <strong>der</strong> Zeichen des<br />
Alphabets überein.<br />
Wegen <strong>der</strong> Minimaleigenschaft glaubte Shannon,<br />
in <strong>der</strong> Entropie ein Maß für die kürzeste binäre<br />
Codierung einer Nachricht gefunden zu haben. Er<br />
sah in ihr den Inhalt <strong>der</strong> Nachricht, meinte, in <strong>der</strong><br />
Entropie die in <strong>der</strong> Nachricht enthaltene Information<br />
gefunden zu haben, und bezeichnete jede<br />
Codierung mit mehr als H·l Bit als redundant.<br />
(Shannon: “The quantity H has a number of interesting<br />
properties which further substantiate it as a<br />
reasonable measure of choice or information.”) Er<br />
sagte weiter, dass bereits jedes einzelne Zeichen<br />
a i eine Information enthalte, nämlich ld(1/p i ) Bit. Er<br />
nannte das die „Entropie des Einzelzeichens“. Im<br />
deutschen Schrifttum wurde es als „Informationsgehalt“<br />
des Zeichens bezeichnet.<br />
Damit schien <strong>der</strong> Begriff „Information“, <strong>der</strong><br />
bisher mit „Nachricht“ gleichgesetzt worden war,<br />
quantitativ erfasst zu sein! Nachricht und Information<br />
sind verschiedene Dinge. Die Nachricht ist <strong>der</strong><br />
Träger <strong>der</strong> Information. Die Information selbst ist<br />
(bei gegebener Länge l <strong>der</strong> Nachricht) durch die<br />
Entropie H des Alphabets gegeben.<br />
Der Glaube an die Objektivierung des <strong>Informationsbegriff</strong>s<br />
dadurch, dass Shannon das, was er<br />
„Information“ nannte, messbar machte, ist bis heute<br />
weit verbreitet, obwohl eigentlich jedem, <strong>der</strong> sich<br />
mit <strong>der</strong> <strong>Informationstheorie</strong> beschäftigt, klar sein<br />
müsste, dass hier zwei völlig verschiedene Dinge<br />
unter einem Namen vereinigt wurden.<br />
Kritik des Shannon’schen<br />
<strong>Informationsbegriff</strong>s<br />
Das Auseinan<strong>der</strong>klaffen des neuen (Shannon’schen)<br />
und des alten <strong>Informationsbegriff</strong>s des täglichen<br />
Lebens und die Vermengung bei<strong>der</strong> ist <strong>der</strong> Anlass<br />
zu diesem Aufsatz. An sich ist die Übernahme eines<br />
Begriffs aus dem täglichen Leben in eine Wissenschaft<br />
(dort mit spezieller Bedeutung) nichts<br />
Außergewöhnliches – sofern dadurch keine Missverständnisse<br />
entstehen. Aber hier entstanden<br />
Missverständnisse; sie wurden in den mehr als<br />
50 Jahren des Bestehens <strong>der</strong> <strong>Informationstheorie</strong><br />
nie mit <strong>der</strong> gebotenen Deutlichkeit ausgeräumt,<br />
und sie bestehen heute noch weiter fort.<br />
Es ist nicht meine Absicht, mit <strong>der</strong> folgenden<br />
Kritik die Bedeutung <strong>der</strong> <strong>Informationstheorie</strong> und<br />
damit den Wert von Shannons Arbeit für die<br />
Nachrichtentechnik und die mathematische Statistik<br />
zu bestreiten o<strong>der</strong> auch nur zu schmälern. Es ist<br />
Shannons historisches Verdienst, auf die Grundlagenprobleme<br />
<strong>der</strong> Codierung bei ungestörtem und<br />
gestörtem Kanal hingewiesen und sie – soweit mit<br />
mathematischen Mitteln möglich – analysiert zu<br />
haben. Ihm verdanken wir den Begriff <strong>der</strong> Kanalkapazität,<br />
die Anregung, nach fehlererkennenden<br />
und fehlerkorrigierenden Codes zu suchen (woraus<br />
die Codierungstheorie entstand) und die Aussage,<br />
dass Nachrichten prinzipiell auch über beliebig<br />
stark gestörte Kanäle übertragen werden können,<br />
wenn die Störungen gewisse Bedingungen erfüllen.<br />
Worauf ich hinweisen will, ist nur, dass man in<br />
<strong>der</strong> Informatik beide <strong>Informationsbegriff</strong>e strikt<br />
auseinan<strong>der</strong> halten und die <strong>Informationstheorie</strong><br />
nicht zu einer Grundlage machen sollte, auf <strong>der</strong> die<br />
Informatik aufbaut. Meine Kritik betrifft Shannons<br />
<strong>Informationsbegriff</strong>, die zentrale Stellung <strong>der</strong><br />
Entropie und die Sicht <strong>der</strong> Codierung als Auswahlprozess.<br />
Syntaktischer und semantischer<br />
<strong>Informationsbegriff</strong><br />
Es ist offensichtlich, dass Shannons quantitativer<br />
<strong>Informationsbegriff</strong> ein rein technischer o<strong>der</strong> syntaktischer<br />
ist, <strong>der</strong> nicht mit dem, was wir umgangssprachlich<br />
als Information bezeichnen, übereinstimmt.<br />
Die Entropie H hängt ja nur von dem<br />
Alphabet und den Auftrittswahrscheinlichkeiten<br />
seiner Zeichen ab. Das heißt, dass jede Permutation<br />
aus den Zeichen CEEFGHIMNNORRSSU dieselbe<br />
Information enthält, egal, ob sie ERSCHEINUNGS-<br />
320<br />
Informatik_Spektrum_14_Oktober_2003
Syntaktische und semantische Information<br />
Syntaktische Information<br />
Semantische Information<br />
Tabelle 1<br />
ist ein Maß für die kürzeste Codierung einer Nachricht<br />
ist quantifizierbar<br />
braucht keinen Empfänger, steckt objektiv in <strong>der</strong> Nachricht<br />
ist bestimmt durch Alphabet und<br />
Auftrittswahrscheinlichkeiten seiner Zeichen<br />
bezeichnet die Bedeutung einer Nachricht für den<br />
Empfänger<br />
ist nicht quantifizierbar<br />
braucht einen Empfänger und entsteht erst bei ihm<br />
ist bestimmt durch die Bedeutung für den Empfänger<br />
FORM o<strong>der</strong> MEINUNGSFORSCHER o<strong>der</strong> etwas<br />
Unsinniges bedeutet. Die Bedeutung, die die Nachricht<br />
für den Empfänger hat, wird durch Shannons<br />
Informationsmaß nicht erfasst. Shannons Information<br />
ist auch vorhanden, wenn es keinen Empfänger<br />
gibt, <strong>der</strong> Empfänger die Nachricht nicht versteht<br />
o<strong>der</strong> sie ungelesen wegwirft.<br />
Dieser <strong>Informationsbegriff</strong> ist ein quantifizierbarer<br />
syntaktischer Begriff. In ihn geht nur das<br />
Alphabet und die Wahrscheinlichkeit ein, mit <strong>der</strong><br />
seine Symbole im Text vorkommen. Ein Empfänger<br />
und die Bedeutung <strong>der</strong> Nachricht für ihn ist irrelevant.<br />
Der <strong>Informationsbegriff</strong>, wie er überall sonst<br />
verwendet wird, ist dagegen ein nichtquantifizierbarer<br />
semantischer <strong>Informationsbegriff</strong>. Er bezieht<br />
sich normalerweise auf einen Empfänger, für den<br />
die Nachricht eine bestimmte Bedeutung hat. (Die<br />
Erweiterung dieses <strong>Informationsbegriff</strong>s dahin,<br />
dass er auch an sich, objektiv, unter Absehung von<br />
einem Empfänger Sinn hat, ist strittig und soll hier<br />
nicht verfolgt werden.)<br />
Die hier „semantisch“ genannte Information,<br />
die für ihren Empfänger etwas bedeutet, wird in<br />
<strong>der</strong> Literatur manchmal auch als „pragmatische<br />
Information“ bezeichnet. Das mag berechtigt sein,<br />
sofern man sich an die Semiotik hält, in <strong>der</strong> Syntax,<br />
Semantik und Pragmatik unterschieden werden.<br />
In <strong>der</strong> Informatik kommen wir jedoch mit dem<br />
Begriffspaar Syntax/Semantik aus; d. h., wir unterscheiden<br />
nicht semantische und pragmatische<br />
Bedeutung. Deshalb beschränke ich mich hier auf<br />
den Begriff „semantische Information“, um nicht<br />
immer „semantische und/o<strong>der</strong> pragmatische Information“<br />
sagen zu müssen.<br />
Da semantische Information nicht quantifizierbar<br />
ist, ist sie auch nicht messbar. Ihre Messung<br />
in Bit o<strong>der</strong> Bit/Zeichen ist daher Unfug. In Tabelle 1<br />
sind die Eigenschaften bei<strong>der</strong> <strong>Informationsbegriff</strong>e<br />
gegenübergestellt.<br />
Ich sehe es als ein ausgesprochenes Unglück<br />
an, dass Shannon die Entropie als „Information“<br />
bezeichnet hat, da „Information“ für den alten<br />
semantischen <strong>Informationsbegriff</strong> schon so lange<br />
gebräuchlich war. Die Folge dieses Unglücks ist,<br />
dass die Verschiedenheit <strong>der</strong> beiden <strong>Informationsbegriff</strong>e<br />
bis heute teils nicht erkannt, teils nicht zur<br />
Kenntnis genommen wird. Shannon sagte zwar<br />
gleich am Anfang seines grundlegenden Aufsatzes<br />
[10]:<br />
Frequently the messages have meaning; that<br />
is they refer to or are correlated according<br />
to some system with certain physical o<strong>der</strong> conceptual<br />
entities. These semantic aspects of<br />
communication are irrelevant to the engineering<br />
problem.<br />
Aber er erwähnt im weiteren Verlauf <strong>der</strong> Arbeit die<br />
spezifische Bedeutung, die er und seine Nachfolger<br />
dem Wort „Information“ beilegen, nicht mehr. Warren<br />
Weaver, <strong>der</strong> mit Shannon zusammen 1949 eine<br />
kommentierte Fassung von Shannons Arbeit<br />
schrieb, sagte (in <strong>der</strong> deutschen Übersetzung [11]):<br />
Das Wort Information wird in dieser Theorie<br />
in einem beson<strong>der</strong>en Sinn verwendet, <strong>der</strong> nicht<br />
mit dem gewöhnlichen Gebrauch verwechselt<br />
werden darf. Insbeson<strong>der</strong>e darf Information<br />
nicht <strong>der</strong> Bedeutung gleichgesetzt werden.<br />
Tatsächlich können zwei Nachrichten, von<br />
denen eine von beson<strong>der</strong>er Bedeutung ist,<br />
während die an<strong>der</strong>e bloßen Unsinn darstellt,<br />
in dem von uns gebrauchten Sinn genau die<br />
gleiche Menge an Information enthalten. Dies<br />
meint Shannon zweifellos, wenn er sagt, dass<br />
„die semantischen Aspekte <strong>der</strong> Kommunikation<br />
unabhängig sind von den technischen<br />
Aspekten“.<br />
An<strong>der</strong>s ausgedrückt: Information in <strong>der</strong><br />
Kommunikationstheorie bezieht sich nicht so<br />
Informatik_Spektrum_14_Oktober_2003 321
}<br />
ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />
sehr auf das, was gesagt wird, son<strong>der</strong>n mehr<br />
auf das, was gesagt werden könnte.<br />
Sehr klar und entschieden sind diese Aussagen<br />
nicht; sie mögen zu <strong>der</strong> Verwirrung, die sich in den<br />
nächsten Jahren ergab und bis heute nicht vollständig<br />
beseitigt ist, beigetragen haben.<br />
Die Entropie bestimmt nicht den<br />
kürzesten Code<br />
Auch dann, wenn man an <strong>der</strong> Nützlichkeit des<br />
syntaktischen <strong>Informationsbegriff</strong>s festhält, ist die<br />
Entropie kein geeignetes Maß für die syntaktische<br />
Information, denn dieses Maß gründet sich auf<br />
die Minimaleigenschaft (s. oben).<br />
Heute wird die Frage nach dem kürzesten Code<br />
durch die Techniken <strong>der</strong> Datenkompression beantwortet,<br />
und es gibt viele Datenkompressionsverfahren,<br />
die kürzere Codes liefern als den, <strong>der</strong> sich aus<br />
<strong>der</strong> Entropie ergibt, weil hier die beiden Voraussetzungen<br />
für die Geltung <strong>der</strong> Minimaleigenschaft<br />
wegfallen. Das beginnt mit <strong>der</strong> Zusammenfassung<br />
von Zeichengruppen zu Superzeichen (Lempel-Ziv),<br />
setzt sich fort in <strong>der</strong> Anwendung von Transformationen<br />
des Quelltextes vor ihrer Codierung (move<br />
to front, Burrows-Wheeler) und endet bei den<br />
verlustbehafteten Kompressionsverfahren (JPEG,<br />
MPEG, Wavelet-Transformation). An die Stelle<br />
a priori angenommener Wahrscheinlichkeiten<br />
treten hier die (tatsächlichen) relativen Häufigkeiten<br />
<strong>der</strong> Zeichen des Textes. Außerdem arbeiten<br />
viele mo<strong>der</strong>ne Datenkompressionsverfahren adaptiv<br />
und berücksichtigen dadurch die unterschiedliche<br />
Häufigkeitsverteilung in einzelnen Abschnitten<br />
eines Dokuments (Text, Bil<strong>der</strong>, Objektcode).<br />
Die Kompressionsverfahren zeigen, dass von<br />
einer festen, mathematisch beweisbaren Schranke<br />
<strong>der</strong> Komprimierbarkeit zur Zeit keine Rede sein<br />
kann. Es gibt deshalb keinen Grund dafür, einen<br />
willkürlichen Wert wie die Entropie als die in<br />
einem Text enthaltene syntaktische Information<br />
festzusetzen.<br />
Codierung als Auswahlprozess<br />
Shannons Grundannahme, dass eine Nachricht<br />
durch Auswahl entsteht, ist m. E. in hohem Grad<br />
künstlich. Er sagt, dass eine Nachricht durch die<br />
wie<strong>der</strong>holte Auswahl eines Zeichens aus einer gegebenen<br />
Menge von Zeichen zustande kommt,<br />
wobei die Wahrscheinlichkeit, dass in einem Schritt<br />
ein bestimmtes Zeichen ausgewählt wird, von<br />
vornherein festliegt. Es ist nicht zu verstehen, inwiefern<br />
<strong>der</strong> Inhalt eines Telegramms, etwa „Tante<br />
Emma heute gestorben“ das Ergebnis einer Auswahl<br />
sein soll. Noch unnatürlicher ist, dass Shannon<br />
diese Auswahl als einen mehrstufigen Vorgang<br />
erklärt, bei dem man in jedem Schritt eine aus zwei<br />
Mengen auswählt.<br />
Die Idee <strong>der</strong> (mehrschrittigen) Auswahl bildet<br />
jedoch den Ausgangspunkt und Kern <strong>der</strong> <strong>Informationstheorie</strong>.<br />
Im deutschen Schrifttum ist das daran<br />
ersichtlich, dass die Einheit <strong>der</strong> Shannon’schen Information<br />
das „bit“ (mit kleingeschriebenem b) ist,<br />
nicht das Bit (mit großgeschriebenem B). „bit“ ist<br />
eine binäre Entscheidung, „Bit“ ist ein Binärzeichen.<br />
Die Begründung binärer Codes mit binären<br />
Auswahlentscheidungen mag historisch verständlich<br />
sein, weil damals binäre Codierungen und<br />
Rechner kaum bekannt waren. Heute brauchen wir<br />
sie nicht mehr. Je<strong>der</strong>, <strong>der</strong> sich mit Rechnern befasst,<br />
kennt binäre Codierungen und weiß, dass man mit<br />
n Bits die 2 n Zahlen 0 bis 2 n −1 ausdrücken kann.<br />
Die Begründung dafür, dass man bei einer binären<br />
Codierung häufigen Werten kurze Binärfolgen und<br />
seltenen lange zuordnet, braucht deshalb keinen<br />
Umweg über die Idee <strong>der</strong> Auswahl. Daraus folgt<br />
m. E., dass wir kein Formelzeichen für die Auswahl-<br />
Entscheidung mehr brauchen, son<strong>der</strong>n auf das bit<br />
zugunsten des Bit verzichten können.<br />
Aus dieser Kritik ergibt sich für die Bedeutung<br />
<strong>der</strong> <strong>Informationstheorie</strong> in <strong>der</strong> heutigen Informatik<br />
folgendes: Die Deutung einer Nachricht als stochastischer<br />
Prozess und ihrer Binärcodierung als Auswahl<br />
aus einer Menge von Nachrichten ist für die<br />
heutige Informatik überflüssig, ja irreführend. Die<br />
Entropie hat als Maß für die syntaktische Information<br />
ausgedient, denn sie stellt nicht mehr den<br />
Grenzwert <strong>der</strong> Komprimierbarkeit dar.<br />
Folgen <strong>der</strong> falsch verstandenen<br />
<strong>Informationstheorie</strong><br />
Die Messbarkeit <strong>der</strong> Information war anscheinend<br />
das, was die Zeitgenossen an <strong>der</strong> <strong>Informationstheorie</strong><br />
so ungeheuer faszinierte. Sie galt zwar nur<br />
für den syntaktischen <strong>Informationsbegriff</strong>, aber man<br />
übertrug sie bedenkenlos auf den semantischen.<br />
Die meisten bemerkten den Fehler gar nicht,<br />
einige bemerkten ihn zwar, flüchteten sich jedoch<br />
in einen Ausspruch Hegels, <strong>der</strong> geschrieben haben<br />
322<br />
Informatik_Spektrum_14_Oktober_2003
soll: „Im Maß sind, abstrakt ausgedrückt, Qualität<br />
und Quantität vereinigt.“<br />
Es schien nur eine Frage <strong>der</strong> Zeit zu sein, dass<br />
man auch die Bedeutung einer Nachricht, also die<br />
semantische Information, auf die syntaktische zurückführen<br />
können würde.<br />
Das war ein Vorgang von großer Merkwürdigkeit,<br />
dem die Wissenschaftshistoriker ihre Aufmerksamkeit<br />
zuwenden sollten. Obwohl (o<strong>der</strong><br />
weil?) Shannons Originalarbeit nur mathematisch<br />
Geschulten zugänglich war, erweckte sie gemeinsam<br />
mit dem fast zugleich von Wiener veröffentlichten<br />
Buch über Kybernetik die Hoffnung auf<br />
eine neue, die Einzelwissenschaften vereinigende<br />
Über-Wissenschaft. Max Bense schrieb 1954, dass<br />
<strong>der</strong> klassischen (archimedischen) Welt <strong>der</strong> Energieund<br />
Arbeitsleistung nun eine nichtklassische<br />
(pascalsche) Welt <strong>der</strong> Informations- und Kommunikationserzeugung<br />
gegenüberstünde [1], und<br />
Meyer-Eppler [5] schrieb über die <strong>Informationstheorie</strong>:<br />
Ihre fachverbindende Kraft zeigt sich nicht<br />
zuletzt darin, dass auf den bisher veranstalteten<br />
Kongressen und Symposien über <strong>Informationstheorie</strong><br />
und Kybernetik Biologen, Mathematiker,<br />
Nachrichtentechniker, Neurophysiologen,<br />
Philosophen, Phonetiker, Physiker, Physiologen,<br />
Psychologen, Psychopathologen, Soziologen<br />
und Sprachwissenschaftler in fruchtbaren<br />
Diskussionen gemeinsame Anliegen behandeln<br />
konnten.<br />
Was war das Gemeinsame, das sie alle verband?<br />
Man darf wohl annehmen, dass es die Statistik war,<br />
die in allen diesen Disziplinen benutzt wurde. Es<br />
erschienen Bücher, die die <strong>Informationstheorie</strong><br />
allein als neues Teilgebiet <strong>der</strong> Mathematik behandelten,<br />
losgelöst von <strong>der</strong> elektrischen Datenübertragung<br />
o<strong>der</strong> höchstens ganz lose verbunden mit ihr.<br />
Es begann ein großes Informationsmessen und<br />
Informationsberechnen. In einem Buch von 1957<br />
[6] heißt es darüber:<br />
Für die Nachrichtentechnik wird die <strong>Informationstheorie</strong><br />
in Kürze das bedeuten, was z. B.<br />
die Maxwellsche Theorie in <strong>der</strong> Elektrotechnik<br />
darstellt, nämlich eine fundamentale Arbeitsgrundlage.<br />
[...] Aus dem Namen <strong>der</strong> neuen<br />
Theorie geht auch hervor, daß <strong>der</strong> Informationsinhalt<br />
von Schrift und Sprache, sogar von<br />
Musik den Gesetzen <strong>der</strong> <strong>Informationstheorie</strong><br />
gehorcht. Da die Biologie des Menschen in<br />
bezug auf das Auge bekannt ist, lässt sich<br />
berechnen, welchen Nachrichtengehalt ein<br />
Mensch zu sich nehmen kann. [...] Die <strong>Informationstheorie</strong><br />
ist aber auch in <strong>der</strong> Lage, den<br />
Informationsgehalt des menschlichen Körpers<br />
und des Sternenhimmels zu berechnen. Dies<br />
sind durchaus nicht nur mathematische Spielereien,<br />
son<strong>der</strong>n Erkenntnisse, die sowohl die<br />
Biologie als auch die Astronomie nützlich werden<br />
verwenden können. Dies ist nur eine kleine<br />
Andeutung dessen, welche merkwürdigen Wege<br />
die <strong>Informationstheorie</strong> noch zu gehen verspricht.<br />
Die Hoffnung, dass sich die semantische Information<br />
auf die syntaktische zurückführen lassen würde,<br />
hat sich bis heute nicht erfüllt; beide stehen unverbunden<br />
nebeneinan<strong>der</strong>, und ich sehe keine Anzeichen<br />
für ihre Verbindung in <strong>der</strong> Zukunft. Die vollkommene<br />
Verschiedenheit des syntaktischen und<br />
semantischen <strong>Informationsbegriff</strong>s ist immer wie<strong>der</strong><br />
ausgesprochen worden, allerdings, soweit mir<br />
bekannt ist, ohne viel Nachdruck. Hier mögen zwei<br />
Belege dafür genügen.<br />
Brillouin 1956 [2]:<br />
Im Augenblick können wir in unsere Theorie<br />
kein Element einführen, das etwas über den<br />
Wert <strong>der</strong> Information für den Menschen aussagt.<br />
Diese Ausklammerung des menschlichen<br />
Elements ist eine sehr ernste Begrenzung, aber<br />
sie ist <strong>der</strong> Preis, den wir bisher dafür zahlen<br />
mussten, daß wir in <strong>der</strong> Lage waren, dieses<br />
System wissenschaftlicher Erkenntnis aufzubauen.<br />
Die Beschränkungen, die wir eingeführt<br />
haben, ermöglichen es uns, dem Begriff „Information“<br />
eine quantitative Definition zu geben,<br />
und Information als eine physikalisch messbare<br />
Quantität zu behandeln. Diese Definition<br />
kann nicht unterscheiden zwischen einer außerordentlich<br />
wichtigen Information und einer<br />
Neuigkeit, die für den Empfänger ohne großen<br />
Wert ist.<br />
Rothschild 1962 [9]:<br />
Die beson<strong>der</strong>e Anziehungskraft <strong>der</strong> Kybernetik<br />
beruht in dem faktisch unbegründeten Glauben,<br />
daß diese Wissenschaft von <strong>der</strong> Weitergabe<br />
von Signalen in Maschinen und in lebenden<br />
Informatik_Spektrum_14_Oktober_2003 323
}<br />
ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />
Organismen in <strong>der</strong> Lage sein wird, eine Theorie<br />
<strong>der</strong> Bedeutung dieser Signale zu ersetzen. Das<br />
erscheint unzulässig. [...] Die Bedeutung dieser<br />
Zeichen, das Semantische, findet keine Erklärung<br />
im mathematisch-physikalischen Rahmen<br />
<strong>der</strong> Kommunikations- und <strong>Informationstheorie</strong>.<br />
Letztere handelt von <strong>der</strong> Technik <strong>der</strong> Übermittlung,<br />
Verwertung und Speicherung von<br />
Signalen. Die Bedeutung <strong>der</strong> Signale muß als<br />
gegeben hingenommen werden.<br />
Wenn man diese und an<strong>der</strong>e Zitate aus <strong>der</strong> großen<br />
Zeit <strong>der</strong> <strong>Informationstheorie</strong> heute liest, kann man<br />
den Eindruck gewinnen, dass ihre Verfasser zwar<br />
den Unterschied zwischen <strong>der</strong> syntaktischen und<br />
semantischen Information erwähnten (weil sie das<br />
ihrer Reputation als Wissenschaftler schuldig<br />
waren), dass sie es aber nebenbei und unauffällig,<br />
fast verschämt taten, um den neuen Erkenntnissen,<br />
die sie propagierten, ja nichts von ihrer Größe zu<br />
nehmen.<br />
Seitdem haben sich des Themas auch Philosophen<br />
bemächtigt und den Unterschied zwischen<br />
syntaktischer und semantischer Information bemerkt.<br />
<strong>Zum</strong> Beispiel vertritt G. Ropohl die Ansicht,<br />
dass Informationen Zeichen (in dem weiten Sinn<br />
<strong>der</strong> Semiotik, nicht in dem engen eines endlichen<br />
Alphabets) sind und wie Zeichen drei Komponenten<br />
haben: eine syntaktische, eine semantische und<br />
eine pragmatische. Er definiert [7]:<br />
Eine Information ist ein Zeichen aus einer<br />
Zeichenmenge, das durch folgende Merkmale<br />
gekennzeichnet ist:<br />
· Das Zeichen ist ein physisches (d. h. stoffliches o<strong>der</strong><br />
energetisches) Ereignis, das mit einer bestimmten<br />
Häufigkeit o<strong>der</strong> Wahrscheinlichkeit auftritt.<br />
· Das Zeichen hat eine bestimmte Bedeutung, die ihm<br />
durch Konvention zugeschrieben wird.<br />
· Das Zeichen hat einen bestimmten Bezug zum Verhalten<br />
seines Benutzers.<br />
Ein brauchbarer <strong>Informationsbegriff</strong> muß alle<br />
drei Komponenten enthalten. Diese For<strong>der</strong>ung<br />
wird freilich von <strong>der</strong> <strong>Informationstheorie</strong> im<br />
engeren Sinne nicht erfüllt, denn diese und ihr<br />
mathematisch definiertes Informationsmaß<br />
betreffen nur die syntaktische Dimension <strong>der</strong><br />
Zeichen. [...] Dieser verengte, rein formale <strong>Informationsbegriff</strong><br />
hat wohl darum beson<strong>der</strong>e<br />
Beachtung gefunden, weil er mathematisch<br />
präzisiert wurde, während entsprechende<br />
Versuche für die semantische und pragmatische<br />
Dimension bisher erfolglos blieben. Aber<br />
selbstverständlich geht es nicht an, einen<br />
wissenschaftlichen Begriff allein nach Maßgabe<br />
seiner Formalisierbarkeit zu dimensionieren;<br />
entscheidend ist vielmehr seine Aussagekraft<br />
bezüglich realer Erscheinungen und Probleme,<br />
und da ist inzwischen oft genug gezeigt worden,<br />
daß ein auf die syntaktische Dimension<br />
verkürzter <strong>Informationsbegriff</strong> sehr unergiebig<br />
wäre.<br />
Das scheint mir ein sorgfältig durchdachter Versuch<br />
zu sein, den Kern <strong>der</strong> verschiedenen Variationen<br />
des <strong>Informationsbegriff</strong>s zu beschreiben. Doch<br />
auch Ropohl kommt nicht ohne eine Verbeugung<br />
vor Shannon aus, indem er die Auftrittshäufigkeit<br />
o<strong>der</strong> -wahrscheinlichkeit ins Spiel bringt. Wer mehr<br />
darüber wissen will, in welcher Weise sich Philosophen<br />
mit dem <strong>Informationsbegriff</strong> beschäftigen<br />
(und sie tun es intensiv), <strong>der</strong> sei auf die lange Diskussion<br />
[4] hingewiesen, an <strong>der</strong> sich auch eine ganze<br />
Reihe von Informatikern beteiligt hat.<br />
Als die Kunde von <strong>der</strong> Messbarkeit <strong>der</strong> Information<br />
nach Europa gekommen war, schien die<br />
Zeit anzubrechen, in <strong>der</strong> über den quantitativen<br />
<strong>Informationsbegriff</strong> auch die Geisteswissenschaften<br />
und Künste an den Erkenntnissen und Arbeitsweisen<br />
<strong>der</strong> exakten Wissenschaften teilhaben konnten.<br />
Wenn Information mit Struktur, Ordnung, Form<br />
eng verwandt war und man sie messen konnte, bestand<br />
die Aussicht, ästhetische Kategorien auf eine<br />
wissenschaftliche Grundlage zu stellen. Es entstanden<br />
über Nacht neue Wissenschaftszweige wie<br />
Informationspsychologie, kybernetische Pädagogik,<br />
quantitative Ästhetik, Redundanztheorie und wohl<br />
noch mehr. Literaturwissenschaftler vermaßen<br />
Texte, indem sie die Häufigkeit <strong>der</strong> Wörter, die Satzlängen<br />
und an<strong>der</strong>es zählten und daraus die Shannon’sche<br />
Information berechneten, die <strong>der</strong> Text enthält.<br />
Sie glaubten damit dem Geheimnis des Stils<br />
<strong>der</strong> einzelnen Schriftsteller auf die Spur zu kommen,<br />
demjenigen, das sich bis heute je<strong>der</strong> Messung<br />
entzieht. Man untersuchte auch Musikwerke mit<br />
statistischen Methoden auf die Tonhöhen und Intervalle,<br />
die in ihnen vorkommen, ebenfalls um die<br />
Merkmale von Personalstilen und Epochenstilen<br />
quantitativ zu erfassen. Das war die sog. „Informationsästhetik“.<br />
324<br />
Informatik_Spektrum_14_Oktober_2003
Was Einsichtige vorhersagen konnten, trat ein:<br />
Die Informationsästhetik war eine Sackgasse. Sie<br />
för<strong>der</strong>te nichts als Trivialitäten zutage und ist heute<br />
mausetot. Ich erwähne sie nur, um zu zeigen, wohin<br />
das Zusammenwerfen zweier vollkommen verschiedener<br />
<strong>Informationsbegriff</strong>e führen kann.<br />
Informatik und Information<br />
Der Begriff „Information“ gab auch <strong>der</strong> neuen<br />
Wissenschaft Informatik den Namen. Die Rechner<br />
wurden als informationsverarbeitende Maschinen<br />
bezeichnet. In den folgenden drei maßgeblichen<br />
Definitionen wird <strong>der</strong> Begriff „Information“ zur<br />
Definition <strong>der</strong> Informatik herangezogen:<br />
Duden Informatik (1993):<br />
Informatik (computer science): Wissenschaft<br />
von <strong>der</strong> systematischen Verarbeitung von Informationen,<br />
beson<strong>der</strong>s <strong>der</strong> automatischen<br />
Verarbeitung mit Hilfe von Digitalrechnern<br />
(Computer).<br />
Studien- und Forschungsführer Informatik (1996):<br />
Informatik ist die Wissenschaft, Technik und<br />
Anwendung <strong>der</strong> maschinellen Verarbeitung<br />
und Übermittlung von Informationen.<br />
Académie Française:<br />
Informatik: Die Wissenschaft <strong>der</strong> rationalen,<br />
vorrangig maschinell unterstützten Verarbeitung<br />
von Informationen, die menschliche Fachkenntnisse<br />
und Kommunikation in technischen,<br />
wirtschaftlichen und sozialen Bereichen<br />
unterstützen sollen.<br />
Hier ist offenkundig <strong>der</strong> semantische <strong>Informationsbegriff</strong><br />
gemeint, diejenige Information, die sich an<br />
den Empfänger Rechner richtet und die <strong>der</strong> Rechner<br />
verstehen muss, um sie verarbeiten zu können.<br />
Aber können Rechner wirklich ihre Eingabe verstehen?<br />
Gibt es kein einfacheres, unmittelbar einsichtiges<br />
Wort, das hier an die Stelle von „Information“<br />
treten könnte? Meiner Ansicht nach ja, und es wurde<br />
in <strong>der</strong> Anfangszeit <strong>der</strong> Rechner auch ständig<br />
benutzt: das Wort „Daten“. Der Rechner verarbeitet<br />
keine Informationen, son<strong>der</strong>n Daten. Daten sind<br />
etwas Elementares, jedem Bekanntes, das man undefiniert<br />
lassen kann. Der tägliche Wetterbericht enthält<br />
Daten, die Börsenberichte ebenfalls, und auch<br />
Klänge, Bil<strong>der</strong> und Filme sind, wenn sie digital dargestellt<br />
werden, Daten. Der Informatiker hat es noch<br />
einfacher; er sagt einfach: Daten sind Bitketten.<br />
Wer geneigt ist, diese Unterscheidungen als<br />
Spitzfindigkeit anzusehen, möge bedenken, dass<br />
<strong>der</strong> Begriff „Information“ ein Verstehen <strong>der</strong> Bedeutung<br />
durch einen Empfänger suggeriert, „Daten“<br />
und „Bitketten“ das aber nicht tun. Wer „Information“<br />
sagt und den Rechner eine informationsverarbeitende<br />
Maschine nennt, unterstellt bereits, dass<br />
<strong>der</strong> Rechner Bedeutung verstehen und damit<br />
menschliche Eigenschaften mindestens teilweise<br />
nachbilden kann. Wer bloß „Daten“ o<strong>der</strong> „Bitketten“<br />
sagt, tut das nicht, denn ein Verarbeiten von<br />
Daten o<strong>der</strong> Bitketten durch eine Maschine erfor<strong>der</strong>t<br />
kein Verstehen. Der Begriff „Daten“ ist neutral,<br />
<strong>der</strong> Begriff „Information“ emotionsgeladen. Da<br />
jedoch die Frage, ob Rechner etwas im menschlichen<br />
Sinn verstehen können, bis heute unentschieden<br />
ist, und Informatiker das Gefühl haben, mehr<br />
zu tun als nur Daten zu verarbeiten, kann man sich<br />
auch leicht <strong>der</strong> liberalen Auffassung Dennings [3]<br />
anschließen:<br />
Information liegt auf <strong>der</strong> Grenze zwischen den<br />
Fähigkeiten von Maschinen und den Fähigkeiten<br />
von Menschen. Daten liegen auf <strong>der</strong><br />
Maschinenseite, Wissen liegt auf <strong>der</strong> mensch.<br />
lichen, Information überlappt beide. Information<br />
ist für Informatiker das, was Leben für Biologen<br />
ist. Biologen haben keine allgemein anerkannte<br />
Definition des Begriffs „Leben“; sie benutzen<br />
ein halbes Dutzend Kriterien, wenn sie<br />
beurteilen wollen, ob es sich um Leben handelt.<br />
Wie wenig <strong>der</strong> Unterscheidung zwischen syntaktischer<br />
und semantischer Information in <strong>der</strong> Praxis<br />
Rechnung getragen wird, zeigt ein Blick in einführende<br />
Lehrbücher <strong>der</strong> Informatik. Dort findet man<br />
unter dem Stichwort „Information“ meist die syntaktische<br />
Information in einem kurzen Abschnitt<br />
über <strong>Informationstheorie</strong>, aber kein Wort über die<br />
semantische Information, geschweige denn einen<br />
Hinweis auf die Verschiedenheit bei<strong>der</strong>. Auf den<br />
Abschnitt über <strong>Informationstheorie</strong> wird später nie<br />
mehr Bezug genommen, es sei denn in einem<br />
Kapitel über Codierungstheorie o<strong>der</strong> Kryptografie;<br />
d. h., man braucht sie in <strong>der</strong> Informatik so gut wie<br />
gar nicht, ihre Behandlung ist nur eine Pflichtübung<br />
und Verbeugung vor <strong>der</strong> Geschichte, keine<br />
sachliche Notwendigkeit.<br />
Informatik_Spektrum_14_Oktober_2003 325
}<br />
ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />
Inflation des <strong>Informationsbegriff</strong>s<br />
Die vermeintliche Messbarkeit von Information<br />
und die Nichtunterscheidung <strong>der</strong> beiden Informationsarten<br />
waren sicherlich auch unter den Ursachen<br />
für die Inflation des <strong>Informationsbegriff</strong>s, wie er<br />
uns in den Schlagwörtern von <strong>der</strong> „informierten<br />
Gesellschaft„ und <strong>der</strong> „Informationsgesellschaft“<br />
entgegentritt. Der nächste Schritt war dann die<br />
Gleichsetzung von Information mit Wissen, die uns<br />
die „Wissensgesellschaft“ und allerlei Aussprüche<br />
über den Wissensvorrat im Internet und die Verdopplung<br />
des menschlichen Wissens in so und so<br />
vielen Jahren beschert hat: Lauter Behauptungen,<br />
die einer sorgfältigen Begriffsanalyse nicht standhalten.<br />
Doch das gehört nicht mehr zum Thema<br />
dieses Beitrags.<br />
Abschließende Bemerkungen<br />
Aus dieser Analyse <strong>der</strong> Sachlage lässt sich m. E.<br />
<strong>der</strong> Schluss ziehen, dass die Shannon’sche <strong>Informationstheorie</strong><br />
und ihr quantitativer <strong>Informationsbegriff</strong><br />
für die Informatik nicht nur irrelevant, son<strong>der</strong>n<br />
sogar irreführend ist. Und daraus ergibt sich,<br />
dass die <strong>Informationstheorie</strong> in Zukunft nicht<br />
mehr als ein Grundbaustein zum Gebäude <strong>der</strong> Informatik<br />
angesehen werden sollte.<br />
Es ging in diesem Aufsatz nicht darum, was<br />
Information ist, son<strong>der</strong>n um das, was sie nicht ist.<br />
Wenn man Philosophen und philosophierende<br />
Informatiker danach befragt, was sie ist, bekommt<br />
man viele verschiedene und oft recht komplizierte<br />
Antworten (s. darüber beson<strong>der</strong>s die Diskussionen<br />
in Janich [4] und Ropohl [8]). Für mich – und ich<br />
denke, für die meisten Informatiker – reicht es aus,<br />
zu definieren: Information ist gedeutete Nachricht<br />
o<strong>der</strong> gedeutete Mitteilung o<strong>der</strong> Informationen sind<br />
gedeutete Daten. „Nachricht“, „Mitteilung“, „Daten“<br />
und „Deutung“ können dabei undefinierte Grundbegriffe<br />
bleiben.<br />
Wenn man bereit ist, „Information“ durch<br />
„Daten“ o<strong>der</strong> „Nachrichten“ o<strong>der</strong> „Mitteilungen“<br />
zu ersetzen und zugibt, dass Information nicht<br />
messbar ist, stürzt <strong>der</strong> Mythos von <strong>der</strong> Grundlagenbedeutung<br />
<strong>der</strong> Information in sich zusammen.<br />
Er lautet dann:<br />
Daten, Nachrichten, Mitteilungen sind für uns<br />
undefinierbare, aber zugleich unentbehrliche<br />
Grundbegriffe, die als gleichberechtigt neben<br />
die physikalischen Grundbegriffe Materie und<br />
Energie zu stellen sind. Man kann sie wie<br />
Materie transportieren, speichern und verarbeiten;<br />
und wie Energie die Fähigkeit hat,<br />
Arbeit zu leisten, haben Daten, Nachrichten<br />
und Mitteilungen die Fähigkeit, Wirkungen auf<br />
ihre Empfänger auszuüben. Aber sie sind we<strong>der</strong><br />
Materie noch Energie.<br />
Übrig geblieben durch diese Entmythologisierung<br />
ist eine Trivialität. Zwar scheinen wir gleich drei<br />
neue Grundbegriffe gewonnen zu haben, und man<br />
kann leicht weitere, wie etwa „Gedanken“<br />
und „Ideen“ hinzufügen. Mir scheint jedoch, dass<br />
die Unzulässigkeit, diese Begriffe den physikalischen<br />
Grundbegriffen „Materie“ und „Energie“ an<br />
die Seite zu stellen, gerade durch dieses Verfahren<br />
überzeugend klargestellt wird.<br />
Literatur<br />
1. Bense, M.: Philosophie <strong>der</strong> Technik. Phys. Bl. 10, 481–485 (1954)<br />
2. Brillouin, L.: Science and information theory. New York 1956; zit. nach Taube [12]<br />
3. Denning, P.: Leserbrief-Antwort. Comm. ACM 44(11), 12–13 (2001)<br />
4. Janich, P.: <strong>Informationsbegriff</strong> und methodisch-kulturalistische Philosophie. EuS<br />
(Ethik und Sozialwissenschaft) 9(2), 169–268 (1998). (Darin enthalten: Antworten an<br />
Janich von 31 Personen und Replik von Janich)<br />
5. Meyer-Eppler, W.: Grundlagen und Anwendungen <strong>der</strong> <strong>Informationstheorie</strong>. Berlin<br />
Göttingen Heidelberg: Springer 1959<br />
6. Neidhardt, P.: Einführung in die <strong>Informationstheorie</strong>. Berlin: Verlag Technik 1957<br />
7. Ropohl, G.: Technologische Aufklärung. Frankfurt a. M.: Suhrkamp 1991<br />
8. Ropohl, G.: Der <strong>Informationsbegriff</strong> im Kulturstreit. EuS (Ethik und Sozialwissenschaft)<br />
12(1), 3–67 (2001). (Darin enthalten: Antworten an Ropohl von 21 Personen und<br />
Replik von Ropohl)<br />
9. Rothschild, L.: zit. nach Taube [12]. Erscheint dort unter dem Verfassernamen<br />
Rothschild ohne bibliografische Angaben<br />
10. Shannon, C.E.: A mathematical theory of communication.The Bell System Technical<br />
Journal 27(3), 379–423 (1948)<br />
11. Shannon, C.E., Weaver W.: Mathematische Grundlagen <strong>der</strong> <strong>Informationstheorie</strong>. München:<br />
Oldenbourg 1976<br />
12. Taube, M.: Der Mythos <strong>der</strong> Denkmaschine. Reinbek: Rowohlt 1969<br />
Der vorliegende Artikel entstand unabhängig von dem im letzten Heft<br />
(Informatik-Spektrum 26 (4), S. 267ff.) zur Diskussion gestellten Beitrag<br />
„Ein großes Elend“ von Helmut Klemm und ist keine Replik auf diesen<br />
Beitrag. – HE<br />
326<br />
Informatik_Spektrum_14_Oktober_2003