07.12.2012 Aufrufe

Erdfernerkundung - Numerische Physik: Modellierung

Erdfernerkundung - Numerische Physik: Modellierung

Erdfernerkundung - Numerische Physik: Modellierung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

6.2. KOMMUNIKATION UND INFORMATION 289<br />

Betrachtet man aber einen Text, so erkennt man, dass die Buchstaben mit unterschiedlicher<br />

Häufigkeit auftreten. In einem deutschen Text z.B. tritt der Buchstabe ‘e’ mit einer Häufigkeit<br />

von 14.4% auf (nur das Leerzeichen ist mit 14.42% geringfügig häufiger), die Buchstaben ‘n’<br />

(‘s’, ‘i’, ‘m’) haben Häufigkeiten von 8.65% (6.46%, 6.28%, 1.72%), die seltensten Buchstaben<br />

sind ‘x’ und ‘q’ mit Häufigkeiten von 0.8% bzw. 0.5% (vgl. Tabelle 6.1). Berücksichtigt man<br />

diese Verteilungen der Häufigkeiten, so ergibt sich ein mittlerer Informationsgehalt H von<br />

nur 4.1 bit/Zeichen alleine aus der Tatasache, dass die Zeichen nicht gleich wahrscheinlich<br />

sind.<br />

§ 962 Zusätzlich müssen wir aber auch noch berücksichtigen, dass die Zeichen in der Sprache<br />

nicht unabhängig voneinander sind. Betrachtet man Folgen von Zeichen in einem Text, so<br />

zeigt sich, dass z.B. auf ein ‘a’ wesentlich häufiger ein ‘n’ folgt als ein ‘o’, dass ein ‘c’ meist<br />

in Kombination mit einem ‘h’ auftritt, häufig sogar in der Form ‘sch’, und dass auf ein ‘q’<br />

stets ein ‘u’ folgt. Nach Küpfmüller [137] ergibt sich dann unter Berücksichtigung dieser<br />

Kombinationen und der unterschiedlichen Häufigkeiten der einzelnen Zeichen ein mittlerer<br />

Informationsgehalt H von 1.3 bit/Zeichen (verglichen mit den 4.7 bit/Zeichen bei gleich<br />

wahrscheinlichen und unabhängigen Zeichen).<br />

§ 963 Jede Abweichung von der Gleichverteilung bzw. von der statistischen Unabhängigkeit<br />

verringert also den mittleren Informationsgehalt einer Nachricht. Diese Verringerung der<br />

Entropie wird als Redundanz bezeichnet, manchmal auch als Weitschweifigkeit übersetzt. Formal<br />

definiert sich die Redundanz als die Differenz zwischen der maximal möglichen Entropie<br />

H0 wie in (6.3) und der in einer realen Zeichenkette steckenden Entropie H<br />

R = H0 − H . (6.4)<br />

Die relative Redundanz ist dann gegeben durch<br />

r = H0 − H<br />

H0<br />

.<br />

Kehren wir noch einmal zu dem obigen Beispiel der deutschen Sprache zurück, so erhalten wir<br />

eine Redundanz R von 3.4 bit/Zeichen bzw. eine relative Redundanz r von 0.73. Bezüglich des<br />

Informationsgehaltes der deutschen Sprache bedeutet das, dass 73% der Sprache redundant<br />

oder überflüssig sind und nur 27% Information tragen. Wir könnten also mit einer anderen<br />

Sprachstruktur aber dem gleichen Alphabet die zur Übermittlung einer Nachricht notwendigen<br />

Materialien auf etwas über 1/4 reduzieren (Bücher würden dünner, Morsebotschaften<br />

schneller etc.).<br />

§ 964 Ökonomisch würde die Verminderung der Redundanz daher attraktiv erscheinen. Aber<br />

auch nur erscheinen. Redundanz in der Sprache ist wichtig: zwar wird die Nachricht und damit<br />

auch die Übertragungszeit verlängert, andererseits ist jedoch das Erkennen von Fehlern<br />

und deren Korrektur möglich. So kann man in der Regel auch bei stark gestörter Telefonübertragung<br />

den Sender noch verstehen, zumindest wenn er in der Muttersprache spricht,<br />

da man aus den verstandenen Teilen die unverstandenen ergänzen kann, es aufgrund der<br />

Redundanz eben nicht auf jeden einzelnen Buchstaben ankommt. Steinbuch [228] gibt dazu<br />

verschiedene Beispiele, von denen einige im folgenden wiedergegeben werden. Ganz deutlich<br />

wird dabei, dass die gegenseitige Beziehung zwischen Zeichen (Wörtern, Satzfragmenten,<br />

Sätzen) für unser Verständnis von entscheidender Bedeutung ist. Liest man z.B. in<br />

diesem Text die sechs Buchstaben ‘Inf.....ion’, so besteht kein Zweifel, dass die fehlenden fünf<br />

Buchstaben ‘ormat’ sind und damit das ganze Wort ‘Information’ ist. Die Abhängigkeit der<br />

Zeichenergänzung vom Satzzusammenhang wird in den folgenden Beispielen deutlich. Beispielsweise<br />

werden wir im Satz ‘Es gibt konkave und kon.... Linsen’ das verstümmelte Signal<br />

‘kon....’ als ‘konvexe’ deuten. Dagegen werden wir dasselbe verstümmelte Signal ‘kon.....’ im<br />

Satz ‘Es gibt abstrakte und kon..... Malerei’ als ‘konkrete’ deuten.<br />

§ 965 Die Fähigkeit des Empfängers, Ergänzungen an unvollständigen Signalen vorzunehmen,<br />

hängt wesentlich von zwei Komponenten ab: (1) der Kenntnis des Empfängers über<br />

c○ M.-B. Kallenrode 2. Juli 2008

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!