2006(â1)
2006(â1)
2006(â1)
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
информационных бит и логарифм отношения правдоподобия в конце каждого шага. Этот<br />
процесс выполняется по обоим (прямому и обратному) направлениям. Наконец, в последней<br />
итерации декодер выдает оценку информационных бит ĉ .<br />
Порядок вычислений по предложенному алгоритму следующий. В первой итерации<br />
на выходе первого декодера по алгоритму SOVA вычисляется LLR [2], [3]:<br />
( c ) ⎡ p( c 1 ) p( c 0 )<br />
Λ 1 t = ln<br />
⎣ t = y t = y ⎤<br />
⎦<br />
, (1)<br />
где c t – входной информационный бит на позиции t = 1, 2, 3, …,<br />
N ( N – длина информационного<br />
кадра); y – последовательность принятых сигналов при наличии шума;<br />
p( ct<br />
y ) – апостериорная вероятность (a posteriori probability – АРР) информационного бита.<br />
Λ 1 ct = ln ⎡⎣ pt,1 1 pt<br />
,1 0 ⎤ ⎦ +<br />
+ + Λ , где p ( ) и p ( ) – априорные вероятности бит 1 и 0 соответственно<br />
Известно [1], что LLR можно представить тремя слагаемыми: оценкой априорного LLR,<br />
LLR канала, вычисленным по принятому информационному биту, и LLR декодера, называемым<br />
внешним LLR и связанным с проверочными битами. Внешний LLR можно использовать<br />
в качестве априорной информации для другого декодера. Тогда на первой итерации для гауссовского<br />
канала выражение (1) преобразуется к виду ( ) ( ) ( )<br />
( c )<br />
4y<br />
t ,0 1, e t<br />
t,1 1<br />
t,1 0<br />
на входе первого декодера в момент t ; t,0<br />
y – принятый информационный бит; ( c )<br />
Λ 1,e t –<br />
внешний LLR первого декодера. Для первой итерации предполагается, что p t,1<br />
( 1 ) =<br />
= p t,1<br />
( 0 ) = 0.5 , т. е. априорные LLR = 0 .<br />
Из полученной оценки Λ ( c ) выделяется ( ) ( )<br />
1 t<br />
Λ = Λ − . Далее второй декодер<br />
после перемежения использует ( c )<br />
1,e t<br />
1, e ct 1 ct 4yt,0<br />
Λ в качестве априорной информации для получения<br />
своей оценки информационных бит. Таким образом, логарифм отношения правдоподобия<br />
выражается как Λ ( c ) = ln ⎡ p ( 1) p ( 0) ⎤ + 4yɶ + Λ ( c ) или ( c )<br />
2 t ⎣ t,2 t,2 ⎦ t,0 2, e t Λ 2 t =<br />
= Λ ɶ c + 4y ɶ + Λ c , где p ( ) и p ( ) – оценки априорных вероятностей бит 1 и<br />
( ) ( )<br />
1, e t t,0 2, e t<br />
t,2 1<br />
t,2 0<br />
0 соответственно на входе второго декодера в момент t ; ( c )<br />
Λ ɶ – внешний LLR первого<br />
1,e t<br />
декодера после перемежения; yɶ t,0<br />
– принятый информационный бит после перемежения.<br />
Оценки p t,2<br />
( 1 ) и p t,2<br />
( 0 ) определяются по формулам [2], [3]<br />
pt,2<br />
( c )<br />
t<br />
ɶ ( ) 1 ɶ<br />
1, 1, ( )<br />
⎪1 + exp Λ ɶ ⎩ ⎣ 1, e ( ct ) ⎦<br />
при ct<br />
= 0<br />
⎧<br />
⎪<br />
exp Λ e ct ⎣<br />
⎡ + exp Λ e ct ⎦<br />
⎤ при ct<br />
= 1;<br />
= ⎨ ⎡ 1 ⎤<br />
.<br />
1 t ɶ 2, e t t,0 1, e t ,<br />
Тогда для первого декодера на следующей итерации Λ ( c ) = Λ ( c ) + 4y + Λ ( c )<br />
где ( c )<br />
Λ ɶ – внешний LLR второго декодера после перемежения.<br />
2,e t<br />
На второй итерации первый декодер вновь обрабатывает принятую из канала последовательность,<br />
но уже с учетом априорной информации, сформированной из оценки второго<br />
декодера на первой итерации. Эта дополнительная информация позволяет первому декодеру<br />
получить более точную оценку внешнего LLR, используемую вторым декодером в качестве<br />
17