01.01.2013 Aufrufe

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Entropie kontinuierlicher Signale<br />

Einführung der Wahrscheinlichkeitsdichte<br />

Es werden n Intervalle ∆x gewählt, die eine Wahrscheinlichkeit pn(∆x) besitzen<br />

Für die Entropie gilt dann<br />

n<br />

∑<br />

Hn ( , ∆x) =−lim p x x p x x<br />

� i( ∆ ) ⋅∆ ⋅ld( i(<br />

∆ ) ⋅∆<br />

)<br />

∆x→0<br />

i=<br />

0<br />

n→∞<br />

Grenzübergang zum Integral (Produkt unter dem Logarithmus in die Summe zerlegen)<br />

+∞<br />

∫<br />

Hx ( ) =− px ( ) ⋅ld( px ( )) ⋅dx−lim p( ∆x) ⋅ld( p( ∆x)) ⋅∆x<br />

Der zweite Teil divergiert wegen<br />

�<br />

−∞ ∆x→0i= 0<br />

n→∞<br />

<strong>Shannon</strong>.doc h. völz angelegt 1.3.09 aktuell 03.10.2009 Seite 15 von 29<br />

n<br />

∑<br />

lim log( ∆x)<br />

→ − ∞<br />

�<br />

∆x→0<br />

Daher wird der erste Term als relative Entropie bezeichnet<br />

+∞<br />

∫<br />

i i<br />

hx ( ) =− px ( ) ⋅ldpx ( ( )) ⋅dx<br />

−∞<br />

In der Praxis gibt es neben Nutzsignal immer eine Störung. Für sie gilt ebenfalls der<br />

Grenzübergang. Differenzbildung unterdrückt dann 2mal die divergierenden Terme (!!)<br />

Hx ( ) = h ( x) − h ( x)<br />

Nutz Stör<br />

Gaußsche Verteilungen bei Signal und Störung ergibt dann<br />

⎛ P + P<br />

H = ld⎜<br />

⎝ P<br />

N S<br />

Mögliche Interpretation: Es gibt m Pegel mit unterscheidbaren Amplitudenstufen<br />

S<br />

P + P<br />

m =<br />

P<br />

N S<br />

S<br />

⎞<br />

⎟<br />

⎠<br />

Sampling-Theorem<br />

englisch sample Probe<br />

Karl KÜPFMÜLLER (1897- 1977) Einschwingen bei Systemen etwa 1924<br />

Harry NYQUIST (1889 - 1976) Pulsmodulation etwa 1930<br />

Vladimir Alexandrowitsch KOTELNIKOW, (1908 - 2005) Abtastung 1933<br />

Claude SHANNON (1916 - 2001) exakt abgeleitet 1940

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!