307 KB - Universität Bremen
307 KB - Universität Bremen
307 KB - Universität Bremen
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Kanalcodierung I<br />
Dr.-Ing. Volker Kühn, Dr.-Ing. Dirk Wübben<br />
<strong>Universität</strong> <strong>Bremen</strong><br />
Fachbereich 1, ANT<br />
bestehend aus n Symbolen umgesetzt. Ferner bezeichnet y die empfangene Symbolfolge, ˆx die durch den Decodierer<br />
geschätzte codierte Folge und a∈Γ eine beliebige codierte Sequenz.<br />
Bei der Decodierung unterscheidet man prinzipiell zwischen Verfahren, die komplette Codeworte (Blockcodes)<br />
bzw. Codesequenzen (Faltungscodes) schätzen und solchen, die symbolweise arbeiten. Letztere bestimmen<br />
Schätzwerte für jedes Codebit, wobei ein Codierer-Inverses dann die Abbildung auf das zugehörige Informationswort<br />
realisiert. Da symbolweise entschieden wird, kann es vorkommen, dass die Codesequenz / das Codewort<br />
nicht Element des Coderaums ist und der Decodiervorgang versagt. Wir betrachten in diesem Abschnitt<br />
die sequenzweise Decodierung, wobei wiederum zwischen 2 Kriterien unterschieden werden muss.<br />
MAP-Kriterium<br />
Das MAP-Kriterium (Maximum A-posteriori Probability) ist bereits von den Blockcodes bekannt<br />
und stellt die optimale Decodierung dar. Dabei wird die Sequenz ˆx bestimmt, die die a-posteriori-<br />
Wahrscheinlichkeit P(ˆx|y) maximiert.<br />
P(ˆx|y)≥P(a|y)<br />
p(y| ˆx)·<br />
(4.13)<br />
P(ˆx)<br />
P(a)<br />
≥ p(y|a)·<br />
p(y) p(y)<br />
p(y| ˆx)·P(ˆx)≥ p(y|a)·P(a) (4.14)<br />
Die Decodierung erfolgt über ˆx = arg max(p(y|a)P(a))<br />
und berücksichtigt durch P(ˆx) eine a-<br />
priori-Information der Quellenstatistik.<br />
Maximum Likelihood-Kriterium<br />
a<br />
Treten alle codierten Sequenzen mit der gleichen Wahrscheinlichkeit P(ˆx)=P(a)=2 −k auf bzw. ist<br />
die Quellenstatistik dem Empfänger nicht bekannt, so kann keine a-priori-Information bei der Decodierung<br />
berücksichtigt werden. Dann gilt<br />
p(y| ˆx)≥ p(y|a). (4.15)<br />
Die Decodierung erfolgt über ˆx = argmax p(y|a). Für gleichverteilte Eingangssequenzen liefern<br />
a<br />
MAP- und Maximum-Likelihood-Kriterium identische (optimale) Ergebnisse. Sind die Eingangssequenzen<br />
nicht gleichverteilt und P(a) dem Empfänger nicht bekannt, so ist das Maximum-Likelihood-<br />
Kriterium suboptimal.<br />
Im Folgenden werden wir die Maximum Likelihood-Decodierung weiter verfolgen, eine Erweiterung auf die<br />
Decodierung mit dem MAP-Kriterium ist dann einfach möglich. Für diskreten gedächtnislosen Kanal (DMC)<br />
können die Verbundwahrscheinlichkeiten faktorisiert werden und es gilt<br />
N−1<br />
p(y|a)=<br />
∏<br />
ℓ=0<br />
n<br />
∏ ∏<br />
ℓ=0 i=1<br />
N−1<br />
p(y(ℓ)|a(ℓ))=<br />
Da ferner der ln eine streng monoton steigende Funktion ist, gilt auch<br />
N−1<br />
ln p(y|a) = ln<br />
=<br />
=<br />
n<br />
∏ ∏<br />
ℓ=0 i=1<br />
N−1 n<br />
∑ ∑<br />
ℓ=0 i=1<br />
N−1 n<br />
∑ ∑<br />
ℓ=0 i=1<br />
p(yi(ℓ)|ai(ℓ)) . (4.16)<br />
p(yi(ℓ)|ai(ℓ))<br />
ln p(yi(ℓ)|ai(ℓ))<br />
γ ′ (yi(ℓ)|ai(ℓ)) . (4.17)<br />
4.3. OPTIMALE DECODIERUNG MIT VITERBI-ALGORITHMUS 90