03.11.2013 Aufrufe

Zum Informationsbegriff der Informationstheorie

Zum Informationsbegriff der Informationstheorie

Zum Informationsbegriff der Informationstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

HAUPTBEITRAG / ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE }<br />

<strong>Zum</strong> <strong>Informationsbegriff</strong><br />

<strong>der</strong> <strong>Informationstheorie</strong><br />

Peter Rechenberg<br />

Was hier steht, ist nicht<br />

neu, son<strong>der</strong>n schon oft<br />

gesagt worden, allerdings<br />

nur unbetont und<br />

gewissermaßen nebenbei.<br />

Es ist nicht allgemein<br />

bekannt, und das<br />

scheint mir genug Grund<br />

dafür zu sein, ausdrücklich<br />

darauf hinzuweisen.<br />

Der Begriff „Information“<br />

wird heute in vielen<br />

verschiedenen Bedeutungen<br />

benutzt.<br />

Nach meiner Beobachtung<br />

ist das zum<br />

großen Teil auf die<br />

Shannon’sche <strong>Informationstheorie</strong><br />

mit ihrem<br />

quantitativen <strong>Informationsbegriff</strong> zurückzuführen.<br />

Um sich darüber klar zu werden, mag es nützlich<br />

sein, an die <strong>Informationstheorie</strong> zu erinnern, ihr<br />

mathematisches Modell in seinen Grundzügen kritisch<br />

darzustellen und vor allem zu zeigen, wie stark<br />

sich <strong>der</strong> Shannon’sche <strong>Informationsbegriff</strong> von den<br />

gängigen <strong>Informationsbegriff</strong>en unterscheidet.<br />

Kurze Geschichte des <strong>Informationsbegriff</strong>s<br />

Der Begriff „Information“ ist alt. Er kommt vom<br />

lateinischen Verb informare, das „einformen“ o<strong>der</strong><br />

„in eine Form bringen“ heißt, und dem dazugehörigen<br />

Substantiv informatio, das „die Einformung“<br />

o<strong>der</strong> „das In-eine-Form-Bringen“ bedeutete.<br />

Zur Zeit des Humanismus war informatio dann<br />

die Unterweisung durch Unterricht und informator<br />

<strong>der</strong> Lehrer, und am Ende des 19. Jahrhun<strong>der</strong>ts<br />

bedeutete Information nur noch allgemein Mitteilung,<br />

Auskunft. Das Wort wurde verstanden, aber<br />

wenig benutzt. Zeitungen enthielten Informationen<br />

für ihre Leser, Telegramme für ihre Empfänger. In<br />

<strong>der</strong> ersten Hälfte des 20. Jahrhun<strong>der</strong>ts än<strong>der</strong>te sich<br />

daran nur wenig, sodass <strong>der</strong> Begriff „Information“<br />

ein unauffälliges Dasein fristete und we<strong>der</strong> in<br />

Philosophie noch Wissenschaft o<strong>der</strong> Politik eine<br />

Rolle spielte.<br />

Das än<strong>der</strong>te sich (nach <strong>der</strong> Erinnerung des<br />

Verfassers) erst nach dem Zweiten Weltkrieg. Es<br />

waren die sog. <strong>Informationstheorie</strong>, die Kybernetik,<br />

das Fernsehen und die elektronische Datenverarbeitung,<br />

die dem Begriff „Information“ zu unvermuteter<br />

Blüte verhalfen. Heute ist er ein Schlüsselbegriff<br />

unserer Zeit (Informationsgesellschaft, Informationszeitalter)<br />

und hat sogar <strong>der</strong> neuen technischen<br />

Wissenschaft, <strong>der</strong> Informatik, den Namen<br />

gegeben. Das ist eine erstaunliche Entwicklung,<br />

beson<strong>der</strong>s im Hinblick darauf, dass „Information“<br />

ein weicher, vager, missverständlicher Begriff ist.<br />

Eine kurze Rekapitulation seiner verschiedenen<br />

Bedeutungen ergibt etwa Folgendes:<br />

· Oft bedeutet Information nichts an<strong>der</strong>es als „Nachricht“<br />

o<strong>der</strong> „Mitteilung”. Beispiel: Die Sätze „Informiere mich darüber,<br />

wann du ankommst“ und „Benachrichtige mich darüber<br />

(o<strong>der</strong> teile mir mit), wann du ankommst“ bedeuten dasselbe.<br />

· Eine Verfeinerung des <strong>Informationsbegriff</strong>s ist erfor<strong>der</strong>lich,<br />

wenn man den physischen Träger <strong>der</strong> Nachricht von ihrem<br />

Inhalt unterscheiden will. So kann man sagen: Ein Telegramm<br />

ist eine Nachricht und es enthält Information. Die<br />

Nachricht ist hier etwas Objektives, das durch ein Medium<br />

(Draht, elektromagnetische Wellen) unverfälscht o<strong>der</strong> verfälscht<br />

übertragen werden kann, die Information dagegen<br />

etwas Subjektives, das erst durch den Empfänger entsteht,<br />

indem er <strong>der</strong> erhaltenen Nachricht eine Bedeutung beilegt.<br />

Diese Auffassung kann<br />

man etwa in dem Satz<br />

zusammenfassen:<br />

Information ist gedeutete<br />

Nachricht. In diese Richtung<br />

geht auch die Norm<br />

ISO 2382, in <strong>der</strong> definiert<br />

DOI 10.1007/s00287-003-0329-x<br />

© Springer-Verlag 2003<br />

Prof. Dr. P. Rechenberg<br />

Institut für Praktische Informatik,<br />

Johannes-Kepler-Universität,<br />

A-4040 Linz, Österreich<br />

E-Mail: rechbg@soft.uni-linz.ac.at<br />

Informatik_Spektrum_14_Oktober_2003 317


}<br />

ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />

wird: Information ist „die vom Menschen den Daten mittels<br />

Vereinbarung über ihre Darstellung gegebene Bedeutung“.<br />

· Eine nochmalige Verfeinerung des <strong>Informationsbegriff</strong>s<br />

ergibt sich dadurch, dass man seit Shannon sagt: Information<br />

muss dem Empfänger einen Wissenszuwachs bringen.<br />

Das kommt in folgenden Sätzen zum Ausdruck:„Diese Nachricht<br />

enthält für mich keine Information“ o<strong>der</strong> „Um darüber<br />

entscheiden zu können, brauche ich mehr Information“. Eine<br />

für den Empfänger unerwartete (d. h. ihn überraschende)<br />

Nachricht hat danach einen großen Informationsgehalt, eine<br />

von ihm ohnehin erwartete nur einen geringen und eine<br />

ihm schon bekannte gar keinen.<br />

Wie wenig Übereinstimmung über die Bedeutung<br />

des Begriffs „Information“ herrscht, zeigt sich daran,<br />

dass es auch Autoren gibt, die den Spieß umdrehen<br />

und sagen, „Information“ sei ein undefinierter<br />

Grundbegriff, und erst durch Deutung werde<br />

aus ihr eine Nachricht.<br />

Am Ende <strong>der</strong> 1940er Jahre wuchs <strong>der</strong> Information<br />

plötzlich Grundlagenbedeutung durch die<br />

<strong>Informationstheorie</strong> zu, in <strong>der</strong> dem <strong>Informationsbegriff</strong><br />

eine neue, vom bisherigen Verständnis weitab<br />

liegende Bedeutung gegeben wurde, die die<br />

Information (scheinbar) messbar machte. Dadurch<br />

entstand ein Mythos, <strong>der</strong> etwa so lautet:<br />

„Information ist ein für uns undefinierbarer,<br />

aber zugleich unentbehrlicher Grundbegriff,<br />

<strong>der</strong> als gleichberechtigt neben die physikalischen<br />

Grundbegriffe Materie und Energie zu<br />

stellen ist. Man kann Information messen,<br />

wie Materie transportieren, speichern und verarbeiten;<br />

und wie Energie die Fähigkeit hat,<br />

Arbeit zu leisten, hat Information die Fähigkeit,<br />

Wirkungen auf ihre Empfänger auszuüben.<br />

Aber sie ist we<strong>der</strong> Materie noch Energie.“<br />

Diese (vermeintliche) Grundlagenbedeutung führte<br />

dann im weiteren Verlauf des 20. Jahrhun<strong>der</strong>ts mit<br />

zu den Begriffen „informierte Gesellschaft“, „Informationsgesellschaft“,<br />

„Wissensgesellschaft“.<br />

In <strong>der</strong> Biologie entstanden Son<strong>der</strong>bedeutungen<br />

des <strong>Informationsbegriff</strong>s. Konrad Lorenz benutzte<br />

„Information“ in einer interessanten metaphorischen<br />

Weise. Er sagte, dass die Anpassung von<br />

Lebewesen an ihre Umgebung, die durch die Evolution<br />

über große Zeiträume hinweg entstanden ist,<br />

wie z. B. die Fischflosse, ein Vorgang des Informationsgewinns<br />

ist, denn in <strong>der</strong> Form <strong>der</strong> Fischflosse<br />

steckt die Information, wie Fischflossen geformt<br />

Zusammenfassung<br />

Der Begriff „Information“ kennzeichnet<br />

unsere Zeit wie kaum ein an<strong>der</strong>er. Er schillert<br />

in vielen Farben, was unter an<strong>der</strong>em auf die<br />

Shannon’sche <strong>Informationstheorie</strong> mit ihrem<br />

quantitativen <strong>Informationsbegriff</strong> zurückzuführen<br />

ist. In diesem Aufsatz wird zuerst an<br />

die <strong>Informationstheorie</strong> und ihren historischen<br />

Einfluss erinnert; sodann werden die Grundaussagen<br />

<strong>der</strong> <strong>Informationstheorie</strong> im Hinblick<br />

auf ihre Bedeutung für die Informatik kritisiert,<br />

und schließlich wird darauf hingewiesen,<br />

welche schädlichen Folgen die Vermengung von<br />

syntaktischem und semantischem <strong>Informationsbegriff</strong><br />

bis heute mit sich bringt.<br />

sein müssen, damit ihr Besitzer sich mit einem<br />

Minimalaufwand an Energie im Wasser fortbewegen<br />

kann. Wie<strong>der</strong> an<strong>der</strong>es bedeutet <strong>der</strong> Begriff „genetische<br />

Information“. Damit ist die in den Genen<br />

enthaltene Anordnung <strong>der</strong> Aminosäuren gemeint,<br />

die den Bauplan eines Organismus darstellt. Hier<br />

werden die Begriffe „Information“ und „Struktur“<br />

miteinan<strong>der</strong> vermengt.<br />

Doch nicht die Vieldeutigkeit des <strong>Informationsbegriff</strong>s<br />

ist <strong>der</strong> Gegenstand dieses Aufsatzes;<br />

hier geht es nur um den quantitativen <strong>Informationsbegriff</strong><br />

<strong>der</strong> <strong>Informationstheorie</strong> und die Verwirrung,<br />

die er angestiftet hat.<br />

Die <strong>Informationstheorie</strong><br />

Dass <strong>der</strong> unklare, aber vielleicht gerade dadurch<br />

fruchtbare <strong>Informationsbegriff</strong> eine so große<br />

Aufmerksamkeit erfuhr, kam m. E. hauptsächlich<br />

durch die <strong>Informationstheorie</strong> zustande.<br />

Im Jahr 1948 veröffentlichte <strong>der</strong> Nachrichtentechniker<br />

und Mathematiker Claude E. Shannon<br />

einen Aufsatz unter dem Titel „A Mathematical<br />

Theory of Communication“ [10], in dem er folgende<br />

Fragen behandelte:<br />

· Wie sieht <strong>der</strong> kürzeste binäre Code für eine gegebene Textnachricht<br />

bei ungestörtem Übertragungskanal aus?<br />

· Kann man auch bei gestörtem Kanal Nachrichten binär so<br />

codieren, dass <strong>der</strong> Empfänger sie korrekt decodieren kann?<br />

· Wie stark darf ein Kanal, <strong>der</strong> eine binär codierte Nachricht<br />

überträgt, höchstens gestört sein, wenn man die Nachricht<br />

noch korrekt decodieren will?<br />

318<br />

Informatik_Spektrum_14_Oktober_2003


Er gab auf alle drei Fragen mathematisch präzise<br />

Antworten von beträchtlicher Allgemeinheit.<br />

Diese Fragen lagen damals in <strong>der</strong> Luft. Den<br />

Morsecode gab es schon seit hun<strong>der</strong>t Jahren, das<br />

Fernschreiben seit etwa 1920, und die Puls-Code-<br />

Modulation war gerade erfunden. Deshalb befasste<br />

man sich in den späten 40er Jahren mit <strong>der</strong> binären<br />

Codierung von Nachrichten, und einige Nachrichtentechniker<br />

stellten sich die Frage, wie man eine<br />

Nachricht binär codieren müsse, damit sie möglichst<br />

kurz wird und somit in möglichst kurzer Zeit<br />

von einem Sen<strong>der</strong> zu einem Empfänger übertragen<br />

werden kann.<br />

Der kurz zuvor erfundene Rechner (Computer)<br />

spielte noch keine Rolle bei Shannons Überlegungen,<br />

denn er wurde damals nur für numerische Berechnungen<br />

eingesetzt; an die Datenübertragung<br />

mit Rechnern dachte noch niemand.<br />

Shannons Grundideen<br />

Um mathematische Aussagen über Nachrichten<br />

und ihre Übertragung machen zu können, benutzte<br />

Shannon ein Modell, das auf folgenden Grundaussagen<br />

beruht:<br />

Abstract<br />

The term “information” characterizes the<br />

thinking of our time as hardly as any other one.<br />

It shines in various colors, partly due to Shannon’s<br />

Information Theory with its quantitative<br />

approach to the term “information”. This paper<br />

first reminds the rea<strong>der</strong> of the impact the<br />

Information Theory has had within the historical<br />

context. Then its basic propositions with<br />

regard to computer science are critically reviewed.<br />

As a conclusion it is pointed out that<br />

a mixing of a syntactic and a semantic connotation<br />

of the term “information” has generated<br />

damaging effects to this very day.<br />

· Nachrichten haben eine statistische Struktur, d. h., in einer<br />

Nachricht treten die einzelnen Zeichen, aus denen sie<br />

besteht, mit bestimmten festen Wahrscheinlichkeiten auf.<br />

(Shannon:“We will extend the theory [of Nyquist and<br />

Hartley] due to the statistical structure of the original<br />

message and due to the nature of the final destination<br />

of the information.”)<br />

· Kommunikation besteht aus <strong>der</strong> Auswahl einer Nachricht<br />

aus mehreren möglichen Nachrichten. (Shannon:“The<br />

fundamental problem of communication is that of reproducing<br />

at one point either exactly or approximately a<br />

message selected at another point.The significant aspect is<br />

that the actual message is one selected from a set of possible<br />

messages.”)<br />

· Die Nachrichtenquelle ist ein stochastischer Prozess.<br />

(Shannon:“A physical system, or a mathematical model<br />

of a system which produces such a sequence of symbols<br />

governed by a set of probabilities is known as a stochastic<br />

process.We may consi<strong>der</strong> a discrete source, therefore,<br />

to be represented by a stochastic process.”)<br />

· In Shannons Modellvorstellung generiert eine diskrete<br />

Nachrichtenquelle eine Nachricht durch wie<strong>der</strong>holte<br />

Auswahl von Zeichen aus einer gegebenen Zeichenmenge<br />

(dem Alphabet). Die Auswahl geschieht zufällig. Jedem<br />

Zeichen des Alphabets ist eine gewisse Auswahlwahrscheinlichkeit<br />

zugeordnet. Die Auswahl eines bestimmten<br />

Zeichens wird durch die Auswahlwahrscheinlichkeit des<br />

Zeichens selbst und – im Allgemeinen – durch die Auswahl<br />

vorhergehen<strong>der</strong> Zeichen bestimmt. Man kann deshalb eine<br />

diskrete Nachrichtenquelle mathematisch als stochastischen<br />

Prozess ansehen. Umgekehrt kann man jeden stochastischen<br />

Prozess, <strong>der</strong> eine diskrete Symbolfolge aus einem<br />

Alphabet erzeugt, als diskrete Nachrichtenquelle ansehen.<br />

Shannons <strong>Informationsbegriff</strong><br />

Der Teil von Shannons Arbeit, <strong>der</strong> die Aufmerksamkeit<br />

<strong>der</strong> Welt auf den <strong>Informationsbegriff</strong> lenkte,<br />

war <strong>der</strong> erste, <strong>der</strong> Aussagen über die optimale<br />

Codierung von Texten enthielt. Das Hauptergebnis<br />

war dabei folgendes:<br />

Vorausgesetzt wird: Der zu übertragende Text<br />

beliebiger Länge besteht aus den n verschiedenen<br />

Zeichen a 1 , ... a n eines gegebenen Alphabets, die<br />

mit den gegebenen Wahrscheinlichkeiten p 1 , ... p n<br />

in dem Text vorkommen.<br />

Shannon bewies den Satz: Wenn jedes Zeichen<br />

eines Textes einzeln binär codiert wird, ist die minimale<br />

Bitanzahl pro Zeichen, gemittelt über alle<br />

Zeichen des Alphabets:<br />

n<br />

H = ∑ pi<br />

⋅ld<br />

1<br />

p<br />

i = 1<br />

i<br />

Bit / Zeichen<br />

Shannon nannte H die „Entropie“ in Anlehnung an<br />

die formal ähnliche Entropie <strong>der</strong> Thermodynamik.<br />

Man beachte, dass die Entropie allein durch das<br />

Alphabet bestimmt ist (seinen Umfang n und die<br />

Auftrittswahrscheinlichkeiten seiner Zeichen),<br />

Informatik_Spektrum_14_Oktober_2003 319


}<br />

ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />

nicht durch die Länge o<strong>der</strong> den Inhalt <strong>der</strong> Nachricht.<br />

Die Entropie H bezeichnet also die folgende<br />

Minimaleigenschaft <strong>der</strong> binären Codierung von<br />

Texten eines Alphabets:<br />

Minimaleigenschaft:<br />

Jede binäre Codierung einer gegebenen Nachricht<br />

<strong>der</strong> Länge l hat mindestens die Länge H·l<br />

Bit.<br />

Die Minimaleigenschaft gilt allerdings nur unter<br />

zwei Voraussetzungen:<br />

· Die Zeichen <strong>der</strong> Nachricht sind einzeln binär codiert.<br />

· Die relativen Häufigkeiten <strong>der</strong> Zeichen <strong>der</strong> Nachricht<br />

stimmen mit den Wahrscheinlichkeiten <strong>der</strong> Zeichen des<br />

Alphabets überein.<br />

Wegen <strong>der</strong> Minimaleigenschaft glaubte Shannon,<br />

in <strong>der</strong> Entropie ein Maß für die kürzeste binäre<br />

Codierung einer Nachricht gefunden zu haben. Er<br />

sah in ihr den Inhalt <strong>der</strong> Nachricht, meinte, in <strong>der</strong><br />

Entropie die in <strong>der</strong> Nachricht enthaltene Information<br />

gefunden zu haben, und bezeichnete jede<br />

Codierung mit mehr als H·l Bit als redundant.<br />

(Shannon: “The quantity H has a number of interesting<br />

properties which further substantiate it as a<br />

reasonable measure of choice or information.”) Er<br />

sagte weiter, dass bereits jedes einzelne Zeichen<br />

a i eine Information enthalte, nämlich ld(1/p i ) Bit. Er<br />

nannte das die „Entropie des Einzelzeichens“. Im<br />

deutschen Schrifttum wurde es als „Informationsgehalt“<br />

des Zeichens bezeichnet.<br />

Damit schien <strong>der</strong> Begriff „Information“, <strong>der</strong><br />

bisher mit „Nachricht“ gleichgesetzt worden war,<br />

quantitativ erfasst zu sein! Nachricht und Information<br />

sind verschiedene Dinge. Die Nachricht ist <strong>der</strong><br />

Träger <strong>der</strong> Information. Die Information selbst ist<br />

(bei gegebener Länge l <strong>der</strong> Nachricht) durch die<br />

Entropie H des Alphabets gegeben.<br />

Der Glaube an die Objektivierung des <strong>Informationsbegriff</strong>s<br />

dadurch, dass Shannon das, was er<br />

„Information“ nannte, messbar machte, ist bis heute<br />

weit verbreitet, obwohl eigentlich jedem, <strong>der</strong> sich<br />

mit <strong>der</strong> <strong>Informationstheorie</strong> beschäftigt, klar sein<br />

müsste, dass hier zwei völlig verschiedene Dinge<br />

unter einem Namen vereinigt wurden.<br />

Kritik des Shannon’schen<br />

<strong>Informationsbegriff</strong>s<br />

Das Auseinan<strong>der</strong>klaffen des neuen (Shannon’schen)<br />

und des alten <strong>Informationsbegriff</strong>s des täglichen<br />

Lebens und die Vermengung bei<strong>der</strong> ist <strong>der</strong> Anlass<br />

zu diesem Aufsatz. An sich ist die Übernahme eines<br />

Begriffs aus dem täglichen Leben in eine Wissenschaft<br />

(dort mit spezieller Bedeutung) nichts<br />

Außergewöhnliches – sofern dadurch keine Missverständnisse<br />

entstehen. Aber hier entstanden<br />

Missverständnisse; sie wurden in den mehr als<br />

50 Jahren des Bestehens <strong>der</strong> <strong>Informationstheorie</strong><br />

nie mit <strong>der</strong> gebotenen Deutlichkeit ausgeräumt,<br />

und sie bestehen heute noch weiter fort.<br />

Es ist nicht meine Absicht, mit <strong>der</strong> folgenden<br />

Kritik die Bedeutung <strong>der</strong> <strong>Informationstheorie</strong> und<br />

damit den Wert von Shannons Arbeit für die<br />

Nachrichtentechnik und die mathematische Statistik<br />

zu bestreiten o<strong>der</strong> auch nur zu schmälern. Es ist<br />

Shannons historisches Verdienst, auf die Grundlagenprobleme<br />

<strong>der</strong> Codierung bei ungestörtem und<br />

gestörtem Kanal hingewiesen und sie – soweit mit<br />

mathematischen Mitteln möglich – analysiert zu<br />

haben. Ihm verdanken wir den Begriff <strong>der</strong> Kanalkapazität,<br />

die Anregung, nach fehlererkennenden<br />

und fehlerkorrigierenden Codes zu suchen (woraus<br />

die Codierungstheorie entstand) und die Aussage,<br />

dass Nachrichten prinzipiell auch über beliebig<br />

stark gestörte Kanäle übertragen werden können,<br />

wenn die Störungen gewisse Bedingungen erfüllen.<br />

Worauf ich hinweisen will, ist nur, dass man in<br />

<strong>der</strong> Informatik beide <strong>Informationsbegriff</strong>e strikt<br />

auseinan<strong>der</strong> halten und die <strong>Informationstheorie</strong><br />

nicht zu einer Grundlage machen sollte, auf <strong>der</strong> die<br />

Informatik aufbaut. Meine Kritik betrifft Shannons<br />

<strong>Informationsbegriff</strong>, die zentrale Stellung <strong>der</strong><br />

Entropie und die Sicht <strong>der</strong> Codierung als Auswahlprozess.<br />

Syntaktischer und semantischer<br />

<strong>Informationsbegriff</strong><br />

Es ist offensichtlich, dass Shannons quantitativer<br />

<strong>Informationsbegriff</strong> ein rein technischer o<strong>der</strong> syntaktischer<br />

ist, <strong>der</strong> nicht mit dem, was wir umgangssprachlich<br />

als Information bezeichnen, übereinstimmt.<br />

Die Entropie H hängt ja nur von dem<br />

Alphabet und den Auftrittswahrscheinlichkeiten<br />

seiner Zeichen ab. Das heißt, dass jede Permutation<br />

aus den Zeichen CEEFGHIMNNORRSSU dieselbe<br />

Information enthält, egal, ob sie ERSCHEINUNGS-<br />

320<br />

Informatik_Spektrum_14_Oktober_2003


Syntaktische und semantische Information<br />

Syntaktische Information<br />

Semantische Information<br />

Tabelle 1<br />

ist ein Maß für die kürzeste Codierung einer Nachricht<br />

ist quantifizierbar<br />

braucht keinen Empfänger, steckt objektiv in <strong>der</strong> Nachricht<br />

ist bestimmt durch Alphabet und<br />

Auftrittswahrscheinlichkeiten seiner Zeichen<br />

bezeichnet die Bedeutung einer Nachricht für den<br />

Empfänger<br />

ist nicht quantifizierbar<br />

braucht einen Empfänger und entsteht erst bei ihm<br />

ist bestimmt durch die Bedeutung für den Empfänger<br />

FORM o<strong>der</strong> MEINUNGSFORSCHER o<strong>der</strong> etwas<br />

Unsinniges bedeutet. Die Bedeutung, die die Nachricht<br />

für den Empfänger hat, wird durch Shannons<br />

Informationsmaß nicht erfasst. Shannons Information<br />

ist auch vorhanden, wenn es keinen Empfänger<br />

gibt, <strong>der</strong> Empfänger die Nachricht nicht versteht<br />

o<strong>der</strong> sie ungelesen wegwirft.<br />

Dieser <strong>Informationsbegriff</strong> ist ein quantifizierbarer<br />

syntaktischer Begriff. In ihn geht nur das<br />

Alphabet und die Wahrscheinlichkeit ein, mit <strong>der</strong><br />

seine Symbole im Text vorkommen. Ein Empfänger<br />

und die Bedeutung <strong>der</strong> Nachricht für ihn ist irrelevant.<br />

Der <strong>Informationsbegriff</strong>, wie er überall sonst<br />

verwendet wird, ist dagegen ein nichtquantifizierbarer<br />

semantischer <strong>Informationsbegriff</strong>. Er bezieht<br />

sich normalerweise auf einen Empfänger, für den<br />

die Nachricht eine bestimmte Bedeutung hat. (Die<br />

Erweiterung dieses <strong>Informationsbegriff</strong>s dahin,<br />

dass er auch an sich, objektiv, unter Absehung von<br />

einem Empfänger Sinn hat, ist strittig und soll hier<br />

nicht verfolgt werden.)<br />

Die hier „semantisch“ genannte Information,<br />

die für ihren Empfänger etwas bedeutet, wird in<br />

<strong>der</strong> Literatur manchmal auch als „pragmatische<br />

Information“ bezeichnet. Das mag berechtigt sein,<br />

sofern man sich an die Semiotik hält, in <strong>der</strong> Syntax,<br />

Semantik und Pragmatik unterschieden werden.<br />

In <strong>der</strong> Informatik kommen wir jedoch mit dem<br />

Begriffspaar Syntax/Semantik aus; d. h., wir unterscheiden<br />

nicht semantische und pragmatische<br />

Bedeutung. Deshalb beschränke ich mich hier auf<br />

den Begriff „semantische Information“, um nicht<br />

immer „semantische und/o<strong>der</strong> pragmatische Information“<br />

sagen zu müssen.<br />

Da semantische Information nicht quantifizierbar<br />

ist, ist sie auch nicht messbar. Ihre Messung<br />

in Bit o<strong>der</strong> Bit/Zeichen ist daher Unfug. In Tabelle 1<br />

sind die Eigenschaften bei<strong>der</strong> <strong>Informationsbegriff</strong>e<br />

gegenübergestellt.<br />

Ich sehe es als ein ausgesprochenes Unglück<br />

an, dass Shannon die Entropie als „Information“<br />

bezeichnet hat, da „Information“ für den alten<br />

semantischen <strong>Informationsbegriff</strong> schon so lange<br />

gebräuchlich war. Die Folge dieses Unglücks ist,<br />

dass die Verschiedenheit <strong>der</strong> beiden <strong>Informationsbegriff</strong>e<br />

bis heute teils nicht erkannt, teils nicht zur<br />

Kenntnis genommen wird. Shannon sagte zwar<br />

gleich am Anfang seines grundlegenden Aufsatzes<br />

[10]:<br />

Frequently the messages have meaning; that<br />

is they refer to or are correlated according<br />

to some system with certain physical o<strong>der</strong> conceptual<br />

entities. These semantic aspects of<br />

communication are irrelevant to the engineering<br />

problem.<br />

Aber er erwähnt im weiteren Verlauf <strong>der</strong> Arbeit die<br />

spezifische Bedeutung, die er und seine Nachfolger<br />

dem Wort „Information“ beilegen, nicht mehr. Warren<br />

Weaver, <strong>der</strong> mit Shannon zusammen 1949 eine<br />

kommentierte Fassung von Shannons Arbeit<br />

schrieb, sagte (in <strong>der</strong> deutschen Übersetzung [11]):<br />

Das Wort Information wird in dieser Theorie<br />

in einem beson<strong>der</strong>en Sinn verwendet, <strong>der</strong> nicht<br />

mit dem gewöhnlichen Gebrauch verwechselt<br />

werden darf. Insbeson<strong>der</strong>e darf Information<br />

nicht <strong>der</strong> Bedeutung gleichgesetzt werden.<br />

Tatsächlich können zwei Nachrichten, von<br />

denen eine von beson<strong>der</strong>er Bedeutung ist,<br />

während die an<strong>der</strong>e bloßen Unsinn darstellt,<br />

in dem von uns gebrauchten Sinn genau die<br />

gleiche Menge an Information enthalten. Dies<br />

meint Shannon zweifellos, wenn er sagt, dass<br />

„die semantischen Aspekte <strong>der</strong> Kommunikation<br />

unabhängig sind von den technischen<br />

Aspekten“.<br />

An<strong>der</strong>s ausgedrückt: Information in <strong>der</strong><br />

Kommunikationstheorie bezieht sich nicht so<br />

Informatik_Spektrum_14_Oktober_2003 321


}<br />

ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />

sehr auf das, was gesagt wird, son<strong>der</strong>n mehr<br />

auf das, was gesagt werden könnte.<br />

Sehr klar und entschieden sind diese Aussagen<br />

nicht; sie mögen zu <strong>der</strong> Verwirrung, die sich in den<br />

nächsten Jahren ergab und bis heute nicht vollständig<br />

beseitigt ist, beigetragen haben.<br />

Die Entropie bestimmt nicht den<br />

kürzesten Code<br />

Auch dann, wenn man an <strong>der</strong> Nützlichkeit des<br />

syntaktischen <strong>Informationsbegriff</strong>s festhält, ist die<br />

Entropie kein geeignetes Maß für die syntaktische<br />

Information, denn dieses Maß gründet sich auf<br />

die Minimaleigenschaft (s. oben).<br />

Heute wird die Frage nach dem kürzesten Code<br />

durch die Techniken <strong>der</strong> Datenkompression beantwortet,<br />

und es gibt viele Datenkompressionsverfahren,<br />

die kürzere Codes liefern als den, <strong>der</strong> sich aus<br />

<strong>der</strong> Entropie ergibt, weil hier die beiden Voraussetzungen<br />

für die Geltung <strong>der</strong> Minimaleigenschaft<br />

wegfallen. Das beginnt mit <strong>der</strong> Zusammenfassung<br />

von Zeichengruppen zu Superzeichen (Lempel-Ziv),<br />

setzt sich fort in <strong>der</strong> Anwendung von Transformationen<br />

des Quelltextes vor ihrer Codierung (move<br />

to front, Burrows-Wheeler) und endet bei den<br />

verlustbehafteten Kompressionsverfahren (JPEG,<br />

MPEG, Wavelet-Transformation). An die Stelle<br />

a priori angenommener Wahrscheinlichkeiten<br />

treten hier die (tatsächlichen) relativen Häufigkeiten<br />

<strong>der</strong> Zeichen des Textes. Außerdem arbeiten<br />

viele mo<strong>der</strong>ne Datenkompressionsverfahren adaptiv<br />

und berücksichtigen dadurch die unterschiedliche<br />

Häufigkeitsverteilung in einzelnen Abschnitten<br />

eines Dokuments (Text, Bil<strong>der</strong>, Objektcode).<br />

Die Kompressionsverfahren zeigen, dass von<br />

einer festen, mathematisch beweisbaren Schranke<br />

<strong>der</strong> Komprimierbarkeit zur Zeit keine Rede sein<br />

kann. Es gibt deshalb keinen Grund dafür, einen<br />

willkürlichen Wert wie die Entropie als die in<br />

einem Text enthaltene syntaktische Information<br />

festzusetzen.<br />

Codierung als Auswahlprozess<br />

Shannons Grundannahme, dass eine Nachricht<br />

durch Auswahl entsteht, ist m. E. in hohem Grad<br />

künstlich. Er sagt, dass eine Nachricht durch die<br />

wie<strong>der</strong>holte Auswahl eines Zeichens aus einer gegebenen<br />

Menge von Zeichen zustande kommt,<br />

wobei die Wahrscheinlichkeit, dass in einem Schritt<br />

ein bestimmtes Zeichen ausgewählt wird, von<br />

vornherein festliegt. Es ist nicht zu verstehen, inwiefern<br />

<strong>der</strong> Inhalt eines Telegramms, etwa „Tante<br />

Emma heute gestorben“ das Ergebnis einer Auswahl<br />

sein soll. Noch unnatürlicher ist, dass Shannon<br />

diese Auswahl als einen mehrstufigen Vorgang<br />

erklärt, bei dem man in jedem Schritt eine aus zwei<br />

Mengen auswählt.<br />

Die Idee <strong>der</strong> (mehrschrittigen) Auswahl bildet<br />

jedoch den Ausgangspunkt und Kern <strong>der</strong> <strong>Informationstheorie</strong>.<br />

Im deutschen Schrifttum ist das daran<br />

ersichtlich, dass die Einheit <strong>der</strong> Shannon’schen Information<br />

das „bit“ (mit kleingeschriebenem b) ist,<br />

nicht das Bit (mit großgeschriebenem B). „bit“ ist<br />

eine binäre Entscheidung, „Bit“ ist ein Binärzeichen.<br />

Die Begründung binärer Codes mit binären<br />

Auswahlentscheidungen mag historisch verständlich<br />

sein, weil damals binäre Codierungen und<br />

Rechner kaum bekannt waren. Heute brauchen wir<br />

sie nicht mehr. Je<strong>der</strong>, <strong>der</strong> sich mit Rechnern befasst,<br />

kennt binäre Codierungen und weiß, dass man mit<br />

n Bits die 2 n Zahlen 0 bis 2 n −1 ausdrücken kann.<br />

Die Begründung dafür, dass man bei einer binären<br />

Codierung häufigen Werten kurze Binärfolgen und<br />

seltenen lange zuordnet, braucht deshalb keinen<br />

Umweg über die Idee <strong>der</strong> Auswahl. Daraus folgt<br />

m. E., dass wir kein Formelzeichen für die Auswahl-<br />

Entscheidung mehr brauchen, son<strong>der</strong>n auf das bit<br />

zugunsten des Bit verzichten können.<br />

Aus dieser Kritik ergibt sich für die Bedeutung<br />

<strong>der</strong> <strong>Informationstheorie</strong> in <strong>der</strong> heutigen Informatik<br />

folgendes: Die Deutung einer Nachricht als stochastischer<br />

Prozess und ihrer Binärcodierung als Auswahl<br />

aus einer Menge von Nachrichten ist für die<br />

heutige Informatik überflüssig, ja irreführend. Die<br />

Entropie hat als Maß für die syntaktische Information<br />

ausgedient, denn sie stellt nicht mehr den<br />

Grenzwert <strong>der</strong> Komprimierbarkeit dar.<br />

Folgen <strong>der</strong> falsch verstandenen<br />

<strong>Informationstheorie</strong><br />

Die Messbarkeit <strong>der</strong> Information war anscheinend<br />

das, was die Zeitgenossen an <strong>der</strong> <strong>Informationstheorie</strong><br />

so ungeheuer faszinierte. Sie galt zwar nur<br />

für den syntaktischen <strong>Informationsbegriff</strong>, aber man<br />

übertrug sie bedenkenlos auf den semantischen.<br />

Die meisten bemerkten den Fehler gar nicht,<br />

einige bemerkten ihn zwar, flüchteten sich jedoch<br />

in einen Ausspruch Hegels, <strong>der</strong> geschrieben haben<br />

322<br />

Informatik_Spektrum_14_Oktober_2003


soll: „Im Maß sind, abstrakt ausgedrückt, Qualität<br />

und Quantität vereinigt.“<br />

Es schien nur eine Frage <strong>der</strong> Zeit zu sein, dass<br />

man auch die Bedeutung einer Nachricht, also die<br />

semantische Information, auf die syntaktische zurückführen<br />

können würde.<br />

Das war ein Vorgang von großer Merkwürdigkeit,<br />

dem die Wissenschaftshistoriker ihre Aufmerksamkeit<br />

zuwenden sollten. Obwohl (o<strong>der</strong><br />

weil?) Shannons Originalarbeit nur mathematisch<br />

Geschulten zugänglich war, erweckte sie gemeinsam<br />

mit dem fast zugleich von Wiener veröffentlichten<br />

Buch über Kybernetik die Hoffnung auf<br />

eine neue, die Einzelwissenschaften vereinigende<br />

Über-Wissenschaft. Max Bense schrieb 1954, dass<br />

<strong>der</strong> klassischen (archimedischen) Welt <strong>der</strong> Energieund<br />

Arbeitsleistung nun eine nichtklassische<br />

(pascalsche) Welt <strong>der</strong> Informations- und Kommunikationserzeugung<br />

gegenüberstünde [1], und<br />

Meyer-Eppler [5] schrieb über die <strong>Informationstheorie</strong>:<br />

Ihre fachverbindende Kraft zeigt sich nicht<br />

zuletzt darin, dass auf den bisher veranstalteten<br />

Kongressen und Symposien über <strong>Informationstheorie</strong><br />

und Kybernetik Biologen, Mathematiker,<br />

Nachrichtentechniker, Neurophysiologen,<br />

Philosophen, Phonetiker, Physiker, Physiologen,<br />

Psychologen, Psychopathologen, Soziologen<br />

und Sprachwissenschaftler in fruchtbaren<br />

Diskussionen gemeinsame Anliegen behandeln<br />

konnten.<br />

Was war das Gemeinsame, das sie alle verband?<br />

Man darf wohl annehmen, dass es die Statistik war,<br />

die in allen diesen Disziplinen benutzt wurde. Es<br />

erschienen Bücher, die die <strong>Informationstheorie</strong><br />

allein als neues Teilgebiet <strong>der</strong> Mathematik behandelten,<br />

losgelöst von <strong>der</strong> elektrischen Datenübertragung<br />

o<strong>der</strong> höchstens ganz lose verbunden mit ihr.<br />

Es begann ein großes Informationsmessen und<br />

Informationsberechnen. In einem Buch von 1957<br />

[6] heißt es darüber:<br />

Für die Nachrichtentechnik wird die <strong>Informationstheorie</strong><br />

in Kürze das bedeuten, was z. B.<br />

die Maxwellsche Theorie in <strong>der</strong> Elektrotechnik<br />

darstellt, nämlich eine fundamentale Arbeitsgrundlage.<br />

[...] Aus dem Namen <strong>der</strong> neuen<br />

Theorie geht auch hervor, daß <strong>der</strong> Informationsinhalt<br />

von Schrift und Sprache, sogar von<br />

Musik den Gesetzen <strong>der</strong> <strong>Informationstheorie</strong><br />

gehorcht. Da die Biologie des Menschen in<br />

bezug auf das Auge bekannt ist, lässt sich<br />

berechnen, welchen Nachrichtengehalt ein<br />

Mensch zu sich nehmen kann. [...] Die <strong>Informationstheorie</strong><br />

ist aber auch in <strong>der</strong> Lage, den<br />

Informationsgehalt des menschlichen Körpers<br />

und des Sternenhimmels zu berechnen. Dies<br />

sind durchaus nicht nur mathematische Spielereien,<br />

son<strong>der</strong>n Erkenntnisse, die sowohl die<br />

Biologie als auch die Astronomie nützlich werden<br />

verwenden können. Dies ist nur eine kleine<br />

Andeutung dessen, welche merkwürdigen Wege<br />

die <strong>Informationstheorie</strong> noch zu gehen verspricht.<br />

Die Hoffnung, dass sich die semantische Information<br />

auf die syntaktische zurückführen lassen würde,<br />

hat sich bis heute nicht erfüllt; beide stehen unverbunden<br />

nebeneinan<strong>der</strong>, und ich sehe keine Anzeichen<br />

für ihre Verbindung in <strong>der</strong> Zukunft. Die vollkommene<br />

Verschiedenheit des syntaktischen und<br />

semantischen <strong>Informationsbegriff</strong>s ist immer wie<strong>der</strong><br />

ausgesprochen worden, allerdings, soweit mir<br />

bekannt ist, ohne viel Nachdruck. Hier mögen zwei<br />

Belege dafür genügen.<br />

Brillouin 1956 [2]:<br />

Im Augenblick können wir in unsere Theorie<br />

kein Element einführen, das etwas über den<br />

Wert <strong>der</strong> Information für den Menschen aussagt.<br />

Diese Ausklammerung des menschlichen<br />

Elements ist eine sehr ernste Begrenzung, aber<br />

sie ist <strong>der</strong> Preis, den wir bisher dafür zahlen<br />

mussten, daß wir in <strong>der</strong> Lage waren, dieses<br />

System wissenschaftlicher Erkenntnis aufzubauen.<br />

Die Beschränkungen, die wir eingeführt<br />

haben, ermöglichen es uns, dem Begriff „Information“<br />

eine quantitative Definition zu geben,<br />

und Information als eine physikalisch messbare<br />

Quantität zu behandeln. Diese Definition<br />

kann nicht unterscheiden zwischen einer außerordentlich<br />

wichtigen Information und einer<br />

Neuigkeit, die für den Empfänger ohne großen<br />

Wert ist.<br />

Rothschild 1962 [9]:<br />

Die beson<strong>der</strong>e Anziehungskraft <strong>der</strong> Kybernetik<br />

beruht in dem faktisch unbegründeten Glauben,<br />

daß diese Wissenschaft von <strong>der</strong> Weitergabe<br />

von Signalen in Maschinen und in lebenden<br />

Informatik_Spektrum_14_Oktober_2003 323


}<br />

ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />

Organismen in <strong>der</strong> Lage sein wird, eine Theorie<br />

<strong>der</strong> Bedeutung dieser Signale zu ersetzen. Das<br />

erscheint unzulässig. [...] Die Bedeutung dieser<br />

Zeichen, das Semantische, findet keine Erklärung<br />

im mathematisch-physikalischen Rahmen<br />

<strong>der</strong> Kommunikations- und <strong>Informationstheorie</strong>.<br />

Letztere handelt von <strong>der</strong> Technik <strong>der</strong> Übermittlung,<br />

Verwertung und Speicherung von<br />

Signalen. Die Bedeutung <strong>der</strong> Signale muß als<br />

gegeben hingenommen werden.<br />

Wenn man diese und an<strong>der</strong>e Zitate aus <strong>der</strong> großen<br />

Zeit <strong>der</strong> <strong>Informationstheorie</strong> heute liest, kann man<br />

den Eindruck gewinnen, dass ihre Verfasser zwar<br />

den Unterschied zwischen <strong>der</strong> syntaktischen und<br />

semantischen Information erwähnten (weil sie das<br />

ihrer Reputation als Wissenschaftler schuldig<br />

waren), dass sie es aber nebenbei und unauffällig,<br />

fast verschämt taten, um den neuen Erkenntnissen,<br />

die sie propagierten, ja nichts von ihrer Größe zu<br />

nehmen.<br />

Seitdem haben sich des Themas auch Philosophen<br />

bemächtigt und den Unterschied zwischen<br />

syntaktischer und semantischer Information bemerkt.<br />

<strong>Zum</strong> Beispiel vertritt G. Ropohl die Ansicht,<br />

dass Informationen Zeichen (in dem weiten Sinn<br />

<strong>der</strong> Semiotik, nicht in dem engen eines endlichen<br />

Alphabets) sind und wie Zeichen drei Komponenten<br />

haben: eine syntaktische, eine semantische und<br />

eine pragmatische. Er definiert [7]:<br />

Eine Information ist ein Zeichen aus einer<br />

Zeichenmenge, das durch folgende Merkmale<br />

gekennzeichnet ist:<br />

· Das Zeichen ist ein physisches (d. h. stoffliches o<strong>der</strong><br />

energetisches) Ereignis, das mit einer bestimmten<br />

Häufigkeit o<strong>der</strong> Wahrscheinlichkeit auftritt.<br />

· Das Zeichen hat eine bestimmte Bedeutung, die ihm<br />

durch Konvention zugeschrieben wird.<br />

· Das Zeichen hat einen bestimmten Bezug zum Verhalten<br />

seines Benutzers.<br />

Ein brauchbarer <strong>Informationsbegriff</strong> muß alle<br />

drei Komponenten enthalten. Diese For<strong>der</strong>ung<br />

wird freilich von <strong>der</strong> <strong>Informationstheorie</strong> im<br />

engeren Sinne nicht erfüllt, denn diese und ihr<br />

mathematisch definiertes Informationsmaß<br />

betreffen nur die syntaktische Dimension <strong>der</strong><br />

Zeichen. [...] Dieser verengte, rein formale <strong>Informationsbegriff</strong><br />

hat wohl darum beson<strong>der</strong>e<br />

Beachtung gefunden, weil er mathematisch<br />

präzisiert wurde, während entsprechende<br />

Versuche für die semantische und pragmatische<br />

Dimension bisher erfolglos blieben. Aber<br />

selbstverständlich geht es nicht an, einen<br />

wissenschaftlichen Begriff allein nach Maßgabe<br />

seiner Formalisierbarkeit zu dimensionieren;<br />

entscheidend ist vielmehr seine Aussagekraft<br />

bezüglich realer Erscheinungen und Probleme,<br />

und da ist inzwischen oft genug gezeigt worden,<br />

daß ein auf die syntaktische Dimension<br />

verkürzter <strong>Informationsbegriff</strong> sehr unergiebig<br />

wäre.<br />

Das scheint mir ein sorgfältig durchdachter Versuch<br />

zu sein, den Kern <strong>der</strong> verschiedenen Variationen<br />

des <strong>Informationsbegriff</strong>s zu beschreiben. Doch<br />

auch Ropohl kommt nicht ohne eine Verbeugung<br />

vor Shannon aus, indem er die Auftrittshäufigkeit<br />

o<strong>der</strong> -wahrscheinlichkeit ins Spiel bringt. Wer mehr<br />

darüber wissen will, in welcher Weise sich Philosophen<br />

mit dem <strong>Informationsbegriff</strong> beschäftigen<br />

(und sie tun es intensiv), <strong>der</strong> sei auf die lange Diskussion<br />

[4] hingewiesen, an <strong>der</strong> sich auch eine ganze<br />

Reihe von Informatikern beteiligt hat.<br />

Als die Kunde von <strong>der</strong> Messbarkeit <strong>der</strong> Information<br />

nach Europa gekommen war, schien die<br />

Zeit anzubrechen, in <strong>der</strong> über den quantitativen<br />

<strong>Informationsbegriff</strong> auch die Geisteswissenschaften<br />

und Künste an den Erkenntnissen und Arbeitsweisen<br />

<strong>der</strong> exakten Wissenschaften teilhaben konnten.<br />

Wenn Information mit Struktur, Ordnung, Form<br />

eng verwandt war und man sie messen konnte, bestand<br />

die Aussicht, ästhetische Kategorien auf eine<br />

wissenschaftliche Grundlage zu stellen. Es entstanden<br />

über Nacht neue Wissenschaftszweige wie<br />

Informationspsychologie, kybernetische Pädagogik,<br />

quantitative Ästhetik, Redundanztheorie und wohl<br />

noch mehr. Literaturwissenschaftler vermaßen<br />

Texte, indem sie die Häufigkeit <strong>der</strong> Wörter, die Satzlängen<br />

und an<strong>der</strong>es zählten und daraus die Shannon’sche<br />

Information berechneten, die <strong>der</strong> Text enthält.<br />

Sie glaubten damit dem Geheimnis des Stils<br />

<strong>der</strong> einzelnen Schriftsteller auf die Spur zu kommen,<br />

demjenigen, das sich bis heute je<strong>der</strong> Messung<br />

entzieht. Man untersuchte auch Musikwerke mit<br />

statistischen Methoden auf die Tonhöhen und Intervalle,<br />

die in ihnen vorkommen, ebenfalls um die<br />

Merkmale von Personalstilen und Epochenstilen<br />

quantitativ zu erfassen. Das war die sog. „Informationsästhetik“.<br />

324<br />

Informatik_Spektrum_14_Oktober_2003


Was Einsichtige vorhersagen konnten, trat ein:<br />

Die Informationsästhetik war eine Sackgasse. Sie<br />

för<strong>der</strong>te nichts als Trivialitäten zutage und ist heute<br />

mausetot. Ich erwähne sie nur, um zu zeigen, wohin<br />

das Zusammenwerfen zweier vollkommen verschiedener<br />

<strong>Informationsbegriff</strong>e führen kann.<br />

Informatik und Information<br />

Der Begriff „Information“ gab auch <strong>der</strong> neuen<br />

Wissenschaft Informatik den Namen. Die Rechner<br />

wurden als informationsverarbeitende Maschinen<br />

bezeichnet. In den folgenden drei maßgeblichen<br />

Definitionen wird <strong>der</strong> Begriff „Information“ zur<br />

Definition <strong>der</strong> Informatik herangezogen:<br />

Duden Informatik (1993):<br />

Informatik (computer science): Wissenschaft<br />

von <strong>der</strong> systematischen Verarbeitung von Informationen,<br />

beson<strong>der</strong>s <strong>der</strong> automatischen<br />

Verarbeitung mit Hilfe von Digitalrechnern<br />

(Computer).<br />

Studien- und Forschungsführer Informatik (1996):<br />

Informatik ist die Wissenschaft, Technik und<br />

Anwendung <strong>der</strong> maschinellen Verarbeitung<br />

und Übermittlung von Informationen.<br />

Académie Française:<br />

Informatik: Die Wissenschaft <strong>der</strong> rationalen,<br />

vorrangig maschinell unterstützten Verarbeitung<br />

von Informationen, die menschliche Fachkenntnisse<br />

und Kommunikation in technischen,<br />

wirtschaftlichen und sozialen Bereichen<br />

unterstützen sollen.<br />

Hier ist offenkundig <strong>der</strong> semantische <strong>Informationsbegriff</strong><br />

gemeint, diejenige Information, die sich an<br />

den Empfänger Rechner richtet und die <strong>der</strong> Rechner<br />

verstehen muss, um sie verarbeiten zu können.<br />

Aber können Rechner wirklich ihre Eingabe verstehen?<br />

Gibt es kein einfacheres, unmittelbar einsichtiges<br />

Wort, das hier an die Stelle von „Information“<br />

treten könnte? Meiner Ansicht nach ja, und es wurde<br />

in <strong>der</strong> Anfangszeit <strong>der</strong> Rechner auch ständig<br />

benutzt: das Wort „Daten“. Der Rechner verarbeitet<br />

keine Informationen, son<strong>der</strong>n Daten. Daten sind<br />

etwas Elementares, jedem Bekanntes, das man undefiniert<br />

lassen kann. Der tägliche Wetterbericht enthält<br />

Daten, die Börsenberichte ebenfalls, und auch<br />

Klänge, Bil<strong>der</strong> und Filme sind, wenn sie digital dargestellt<br />

werden, Daten. Der Informatiker hat es noch<br />

einfacher; er sagt einfach: Daten sind Bitketten.<br />

Wer geneigt ist, diese Unterscheidungen als<br />

Spitzfindigkeit anzusehen, möge bedenken, dass<br />

<strong>der</strong> Begriff „Information“ ein Verstehen <strong>der</strong> Bedeutung<br />

durch einen Empfänger suggeriert, „Daten“<br />

und „Bitketten“ das aber nicht tun. Wer „Information“<br />

sagt und den Rechner eine informationsverarbeitende<br />

Maschine nennt, unterstellt bereits, dass<br />

<strong>der</strong> Rechner Bedeutung verstehen und damit<br />

menschliche Eigenschaften mindestens teilweise<br />

nachbilden kann. Wer bloß „Daten“ o<strong>der</strong> „Bitketten“<br />

sagt, tut das nicht, denn ein Verarbeiten von<br />

Daten o<strong>der</strong> Bitketten durch eine Maschine erfor<strong>der</strong>t<br />

kein Verstehen. Der Begriff „Daten“ ist neutral,<br />

<strong>der</strong> Begriff „Information“ emotionsgeladen. Da<br />

jedoch die Frage, ob Rechner etwas im menschlichen<br />

Sinn verstehen können, bis heute unentschieden<br />

ist, und Informatiker das Gefühl haben, mehr<br />

zu tun als nur Daten zu verarbeiten, kann man sich<br />

auch leicht <strong>der</strong> liberalen Auffassung Dennings [3]<br />

anschließen:<br />

Information liegt auf <strong>der</strong> Grenze zwischen den<br />

Fähigkeiten von Maschinen und den Fähigkeiten<br />

von Menschen. Daten liegen auf <strong>der</strong><br />

Maschinenseite, Wissen liegt auf <strong>der</strong> mensch.<br />

lichen, Information überlappt beide. Information<br />

ist für Informatiker das, was Leben für Biologen<br />

ist. Biologen haben keine allgemein anerkannte<br />

Definition des Begriffs „Leben“; sie benutzen<br />

ein halbes Dutzend Kriterien, wenn sie<br />

beurteilen wollen, ob es sich um Leben handelt.<br />

Wie wenig <strong>der</strong> Unterscheidung zwischen syntaktischer<br />

und semantischer Information in <strong>der</strong> Praxis<br />

Rechnung getragen wird, zeigt ein Blick in einführende<br />

Lehrbücher <strong>der</strong> Informatik. Dort findet man<br />

unter dem Stichwort „Information“ meist die syntaktische<br />

Information in einem kurzen Abschnitt<br />

über <strong>Informationstheorie</strong>, aber kein Wort über die<br />

semantische Information, geschweige denn einen<br />

Hinweis auf die Verschiedenheit bei<strong>der</strong>. Auf den<br />

Abschnitt über <strong>Informationstheorie</strong> wird später nie<br />

mehr Bezug genommen, es sei denn in einem<br />

Kapitel über Codierungstheorie o<strong>der</strong> Kryptografie;<br />

d. h., man braucht sie in <strong>der</strong> Informatik so gut wie<br />

gar nicht, ihre Behandlung ist nur eine Pflichtübung<br />

und Verbeugung vor <strong>der</strong> Geschichte, keine<br />

sachliche Notwendigkeit.<br />

Informatik_Spektrum_14_Oktober_2003 325


}<br />

ZUM INFORMATIONSBEGRIFF DER INFORMATIONSTHEORIE<br />

Inflation des <strong>Informationsbegriff</strong>s<br />

Die vermeintliche Messbarkeit von Information<br />

und die Nichtunterscheidung <strong>der</strong> beiden Informationsarten<br />

waren sicherlich auch unter den Ursachen<br />

für die Inflation des <strong>Informationsbegriff</strong>s, wie er<br />

uns in den Schlagwörtern von <strong>der</strong> „informierten<br />

Gesellschaft„ und <strong>der</strong> „Informationsgesellschaft“<br />

entgegentritt. Der nächste Schritt war dann die<br />

Gleichsetzung von Information mit Wissen, die uns<br />

die „Wissensgesellschaft“ und allerlei Aussprüche<br />

über den Wissensvorrat im Internet und die Verdopplung<br />

des menschlichen Wissens in so und so<br />

vielen Jahren beschert hat: Lauter Behauptungen,<br />

die einer sorgfältigen Begriffsanalyse nicht standhalten.<br />

Doch das gehört nicht mehr zum Thema<br />

dieses Beitrags.<br />

Abschließende Bemerkungen<br />

Aus dieser Analyse <strong>der</strong> Sachlage lässt sich m. E.<br />

<strong>der</strong> Schluss ziehen, dass die Shannon’sche <strong>Informationstheorie</strong><br />

und ihr quantitativer <strong>Informationsbegriff</strong><br />

für die Informatik nicht nur irrelevant, son<strong>der</strong>n<br />

sogar irreführend ist. Und daraus ergibt sich,<br />

dass die <strong>Informationstheorie</strong> in Zukunft nicht<br />

mehr als ein Grundbaustein zum Gebäude <strong>der</strong> Informatik<br />

angesehen werden sollte.<br />

Es ging in diesem Aufsatz nicht darum, was<br />

Information ist, son<strong>der</strong>n um das, was sie nicht ist.<br />

Wenn man Philosophen und philosophierende<br />

Informatiker danach befragt, was sie ist, bekommt<br />

man viele verschiedene und oft recht komplizierte<br />

Antworten (s. darüber beson<strong>der</strong>s die Diskussionen<br />

in Janich [4] und Ropohl [8]). Für mich – und ich<br />

denke, für die meisten Informatiker – reicht es aus,<br />

zu definieren: Information ist gedeutete Nachricht<br />

o<strong>der</strong> gedeutete Mitteilung o<strong>der</strong> Informationen sind<br />

gedeutete Daten. „Nachricht“, „Mitteilung“, „Daten“<br />

und „Deutung“ können dabei undefinierte Grundbegriffe<br />

bleiben.<br />

Wenn man bereit ist, „Information“ durch<br />

„Daten“ o<strong>der</strong> „Nachrichten“ o<strong>der</strong> „Mitteilungen“<br />

zu ersetzen und zugibt, dass Information nicht<br />

messbar ist, stürzt <strong>der</strong> Mythos von <strong>der</strong> Grundlagenbedeutung<br />

<strong>der</strong> Information in sich zusammen.<br />

Er lautet dann:<br />

Daten, Nachrichten, Mitteilungen sind für uns<br />

undefinierbare, aber zugleich unentbehrliche<br />

Grundbegriffe, die als gleichberechtigt neben<br />

die physikalischen Grundbegriffe Materie und<br />

Energie zu stellen sind. Man kann sie wie<br />

Materie transportieren, speichern und verarbeiten;<br />

und wie Energie die Fähigkeit hat,<br />

Arbeit zu leisten, haben Daten, Nachrichten<br />

und Mitteilungen die Fähigkeit, Wirkungen auf<br />

ihre Empfänger auszuüben. Aber sie sind we<strong>der</strong><br />

Materie noch Energie.<br />

Übrig geblieben durch diese Entmythologisierung<br />

ist eine Trivialität. Zwar scheinen wir gleich drei<br />

neue Grundbegriffe gewonnen zu haben, und man<br />

kann leicht weitere, wie etwa „Gedanken“<br />

und „Ideen“ hinzufügen. Mir scheint jedoch, dass<br />

die Unzulässigkeit, diese Begriffe den physikalischen<br />

Grundbegriffen „Materie“ und „Energie“ an<br />

die Seite zu stellen, gerade durch dieses Verfahren<br />

überzeugend klargestellt wird.<br />

Literatur<br />

1. Bense, M.: Philosophie <strong>der</strong> Technik. Phys. Bl. 10, 481–485 (1954)<br />

2. Brillouin, L.: Science and information theory. New York 1956; zit. nach Taube [12]<br />

3. Denning, P.: Leserbrief-Antwort. Comm. ACM 44(11), 12–13 (2001)<br />

4. Janich, P.: <strong>Informationsbegriff</strong> und methodisch-kulturalistische Philosophie. EuS<br />

(Ethik und Sozialwissenschaft) 9(2), 169–268 (1998). (Darin enthalten: Antworten an<br />

Janich von 31 Personen und Replik von Janich)<br />

5. Meyer-Eppler, W.: Grundlagen und Anwendungen <strong>der</strong> <strong>Informationstheorie</strong>. Berlin<br />

Göttingen Heidelberg: Springer 1959<br />

6. Neidhardt, P.: Einführung in die <strong>Informationstheorie</strong>. Berlin: Verlag Technik 1957<br />

7. Ropohl, G.: Technologische Aufklärung. Frankfurt a. M.: Suhrkamp 1991<br />

8. Ropohl, G.: Der <strong>Informationsbegriff</strong> im Kulturstreit. EuS (Ethik und Sozialwissenschaft)<br />

12(1), 3–67 (2001). (Darin enthalten: Antworten an Ropohl von 21 Personen und<br />

Replik von Ropohl)<br />

9. Rothschild, L.: zit. nach Taube [12]. Erscheint dort unter dem Verfassernamen<br />

Rothschild ohne bibliografische Angaben<br />

10. Shannon, C.E.: A mathematical theory of communication.The Bell System Technical<br />

Journal 27(3), 379–423 (1948)<br />

11. Shannon, C.E., Weaver W.: Mathematische Grundlagen <strong>der</strong> <strong>Informationstheorie</strong>. München:<br />

Oldenbourg 1976<br />

12. Taube, M.: Der Mythos <strong>der</strong> Denkmaschine. Reinbek: Rowohlt 1969<br />

Der vorliegende Artikel entstand unabhängig von dem im letzten Heft<br />

(Informatik-Spektrum 26 (4), S. 267ff.) zur Diskussion gestellten Beitrag<br />

„Ein großes Elend“ von Helmut Klemm und ist keine Replik auf diesen<br />

Beitrag. – HE<br />

326<br />

Informatik_Spektrum_14_Oktober_2003

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!