01.03.2013 Aufrufe

307 KB - Universität Bremen

307 KB - Universität Bremen

307 KB - Universität Bremen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Kanalcodierung I<br />

Dr.-Ing. Volker Kühn, Dr.-Ing. Dirk Wübben<br />

<strong>Universität</strong> <strong>Bremen</strong><br />

Fachbereich 1, ANT<br />

Der Ausdruck γ ′ (yi(ℓ) | ai(ℓ)) wird auch Viterbi-Metrik benannt und beschreibt die Übergangswahrscheinlichkeiten<br />

des Kanals. Für den Spezialfall des AWGN-Kanals sind die Verhältnisse in Bild 4.7 dargestellt.<br />

p(yi(ℓ)|xi(ℓ)=− √ Es)= e−(y i (ℓ)+√Es) 2<br />

N0 √<br />

πN0<br />

− √ Es<br />

√ Es<br />

p(yi(ℓ)|xi(ℓ)= √ Es)= e−(y i (ℓ)−√Es) 2<br />

N0 √<br />

πN0<br />

Bild 4.7: Bedingte Wahrscheinlichkeitsdichtefunktionen beim AWGN-Kanal mit binärem Eingang<br />

Hier heben sich die Exponentialfunktion der Gaußverteilung und der ln gegenseitig auf, so dass besonders<br />

einfache Verhältnisse vorliegen. In der Praxis sind 2 äquivalente Metriken von Bedeutung:<br />

1. Quadratische euklidische Distanz:<br />

2. Korrelationsmetrik:<br />

γ ′ (yi(ℓ)|ai(ℓ)) = C−<br />

γ(yi(ℓ)|ai(ℓ)) = 2<br />

p(yi(ℓ)|ai(ℓ)) =<br />

1<br />

√ · e<br />

πN0<br />

−(y i (ℓ)−ai (ℓ))2<br />

N0 =⇒ γ ′ (yi(ℓ)|ai(ℓ)) = ln p(yi(ℓ)|ai(ℓ))= C−<br />

=⇒ γ(yi(ℓ)|ai(ℓ)) =<br />

N0<br />

yi(ℓ) 2<br />

N0<br />

+ 2 ai(ℓ)yi(ℓ)<br />

N0<br />

(yi(ℓ)−ai(ℓ)) 2<br />

N0<br />

−<br />

ai(ℓ) 2<br />

N0<br />

= C−<br />

y<br />

(yi(ℓ)−ai(ℓ)) 2<br />

yi(ℓ) 2<br />

N0<br />

N0<br />

+<br />

<br />

unabhg. von ai(ℓ)<br />

ai(ℓ)yi(ℓ)<br />

N0/2<br />

− Es<br />

N0<br />

<br />

konstant<br />

(4.18)<br />

· ai(ℓ)·yi(ℓ) (4.19)<br />

Eine direkte Umsetzung der Maximum-Likelihood-Decodierung kann nun beispielsweise so erfolgen, dass die<br />

γ(yi(ℓ)|ai(ℓ)) für alle möglichen Codesequenzen a aufsummiert werden. Als Lösung erhalten wir dann die Sequenz<br />

ˆx mit der geringsten euklidischen Distanz oder aber der maximalen Korrelationsmetrik zur empfangenen<br />

Folge y. Diese maximiert die bedingte Wahrscheinlichkeit p(y|ˆx). Diese direkte Umsetzung hat den Nachteil,<br />

dass sie viel zu aufwendig ist (Anzahl der Sequenzen wächst exponentiell mit ihrer Länge) und daher in der<br />

Praxis nicht realisiert werden kann.<br />

Dieses Problems kann durch Ausnutzung der Markov-Eigenschaft von Faltungscodes gelöst werden. Die Markov-<br />

Eigenschaft besagt nämlich, dass der aktuelle Zustand nur vom Vorzustand und dem aktuellen Eingangswert<br />

4.3. OPTIMALE DECODIERUNG MIT VITERBI-ALGORITHMUS 91

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!