12.05.2013 Views

Tema: Capacidad de Canal

Tema: Capacidad de Canal

Tema: Capacidad de Canal

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Tema</strong>: <strong>Capacidad</strong> <strong>de</strong> <strong>Canal</strong><br />

Adriana Dapena Janeiro (adriana@udc.es)<br />

Facultad <strong>de</strong> Informática<br />

Universida<strong>de</strong> da Coruña<br />

Campus <strong>de</strong> Elviña s/n<br />

15071. A Coruña<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 1


Objetivos<br />

Presentar el concepto <strong>de</strong> capacidad <strong>de</strong>l canal.<br />

Estudiar el caso <strong>de</strong> canales SISO:<br />

<strong>Canal</strong>es AWGN.<br />

<strong>Canal</strong>es con <strong>de</strong>svanecimiento plano.<br />

CSI en recepción.<br />

CSI en recepción y en transmisión.<br />

<strong>Canal</strong>es con <strong>de</strong>svanecimiento selectivo en frecuencia.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 2


Bibliografía recomendada<br />

A. Goldsmith, Wireless Communications, Cambridge University<br />

Press, 2005.<br />

http://wsl.stanford.edu/andrea/Wireless/<br />

C. E. Shannon, “A mathematical theory of communication,” Bell<br />

System Technical Journal, vol. 27, pp. 379-423 and 623-656, July<br />

and October, 1948.<br />

http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html<br />

A. Goldsmith, P. P., Varaiya, “Capacity of fading channels with<br />

Channel Si<strong>de</strong> Information,” IEEE Trans. on Information Theory,<br />

vol. 43, no. 6, pp. 1986-1992, November, 1997.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 3


Conceptos básicos<br />

Cantidad <strong>de</strong> información<br />

Entropía<br />

Entropía conjunta<br />

Información mutua<br />

<strong>Capacidad</strong> <strong>de</strong> canales discretos sin<br />

memoria<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 4


Cantidad <strong>de</strong> información<br />

Sea x una variable aleatoria que toma valores discretos xk en un<br />

alfabeto X con probabilidad p(xk), p(xk) = 1.<br />

El valor <strong>de</strong> p(xk) expresa la probabilidad <strong>de</strong> que ocurra un<br />

<strong>de</strong>terminado valor xk pero también nos está indicando la<br />

cantidad <strong>de</strong> información que se adquiere cuando ese valor es<br />

observado.<br />

Si p(x2) > p(x1), entonces es mayor la incertidumbre sobre el<br />

evento x = x1 que sobre x = x2 y, por ello, también es mayor la<br />

información que se adquiere cuando éste ocurre.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 5


Cantidad <strong>de</strong> información (cont.)<br />

La cantidad <strong>de</strong> información adquirida al observar xk está<br />

relacionada con la inversa <strong>de</strong> su probabilidad y se <strong>de</strong>fine como<br />

sigue:<br />

I(xk) = log<br />

<br />

1<br />

p(xk)<br />

<br />

don<strong>de</strong> la base <strong>de</strong>l logaritmo es arbitraria.<br />

= − log(p(xk))<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 6


Entropía<br />

La cantidad media <strong>de</strong> información <strong>de</strong> x recibe el nombre <strong>de</strong><br />

entropía: H(x) = E[I(xk)] = − <br />

x∈X p(x) log(p(x)) = −E[log p(x)]<br />

H(x) = 0 si la variable aleatoria x <strong>de</strong>scribe un proceso<br />

<strong>de</strong>terminista.<br />

H(x) es máxima cuando la variable aleatoria es uniforme,<br />

H(x) = − log(|X |) don<strong>de</strong> |X | es el tamaño <strong>de</strong>l alfabeto <strong>de</strong> x.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 7


Entropía conjunta<br />

Consi<strong>de</strong>remos que tenemos un sistema cuya entrada x toma<br />

valores en un alfabeto X y su salida y es una versión perturbada <strong>de</strong><br />

x que toma valores en otro alfabeto Y.<br />

Entropía conjunta:<br />

H(x, y) = − <br />

x∈X<br />

<br />

y∈Y<br />

p(x, y) log(p(x, y)) = −E [log(p(x, y))]<br />

don<strong>de</strong> p(x, y) es la probabilidad conjunta <strong>de</strong> ambas variables<br />

aleatorias.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 8


Información mutua<br />

Incertidumbre sobre la entrada que permanece sin resolver<br />

<strong>de</strong>spués <strong>de</strong> observar la salida H(x|y) = H(x, y) − H(y)<br />

Incertidumbre sobre la salida que no es resuelta al observar la<br />

entrada (perturbación) H(y|x) = H(x, y) − H(x)<br />

Información mutua I(x; y) = <br />

p(x,y)<br />

x∈X y∈Y p(x, y) log p(x)p(y)<br />

H(x)<br />

H(x|y)<br />

H(x,y)<br />

I(x,y)<br />

H(y|x)<br />

H(y)<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 9


Resumen<br />

Entropía<br />

H(x) = − <br />

x∈X p(x)log(p(x))<br />

Entropía conjunta<br />

H(x, y) = − <br />

p(x, y)log(p(x, y))<br />

x∈X<br />

y∈Y<br />

Entropía condicionada<br />

H(x|y) = − <br />

p(x, y)log(p(y|x))<br />

I(x; y) = <br />

x∈X<br />

y∈Y<br />

Información mutua<br />

x∈X<br />

<br />

y∈Y p(x, y)log p(x,y)<br />

p(x)p(y)<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 10


<strong>Capacidad</strong> <strong>de</strong> un canal CDM<br />

Un <strong>Canal</strong> Discreto sin Memoria (CDM) es un sistema que<br />

consiste en un alfabeto <strong>de</strong> entrada X y un alfabeto <strong>de</strong> salida Y<br />

que son conjuntos finitos numerables y cuyos elementos están<br />

relacionados por una colección <strong>de</strong> funciones <strong>de</strong> masa <strong>de</strong><br />

probabilidad (ff.m.p.) condicionales, p(y|x) ≥ 0, que expresan la<br />

probabilidad <strong>de</strong> que se observe la señal y ∈ Y a la salida <strong>de</strong>l<br />

sistema cuando la entrada es x ∈ X .<br />

La capacidad <strong>de</strong> información <strong>de</strong>l canal (X, p(y|x), Y) se <strong>de</strong>fine<br />

como<br />

C = max I(x; y)<br />

p(x)<br />

don<strong>de</strong> el máximo se toma sobre todas las posibles ff.m.p. p(x).<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 11


<strong>Canal</strong> binario sin ruido<br />

x = 0<br />

1<br />

y = 0<br />

1<br />

x = 1 y = 1<br />

p(y = 0|x = 0) = 1, p(y = 1|x = 0) = 0,<br />

p(y = 0|x = 1) = 0, p(y = 1|x = 1) = 1<br />

Al no haber errores tampoco hay incertidumbre H(x|y) = 0.<br />

C = max<br />

p(x)<br />

I(x; y) = max<br />

p(x)<br />

H(x) − H(x|y) = max<br />

p(x) H(x)<br />

El valor máximo se alcanza para una distribución uniforme y es<br />

C = log 2 2 = 1bit. Se pue<strong>de</strong> transmitir la máxima información<br />

posible <strong>de</strong> la fuente.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 12


<strong>Canal</strong> binario simétrico<br />

x = 0<br />

1−p<br />

p<br />

y = 0<br />

x = 1<br />

p<br />

1−p<br />

y = 1<br />

Supongamos que la fuente produce símbolos equiprobables a una<br />

velocidad <strong>de</strong> 1000 bits/seg. Si durante la transmisión el canal<br />

introduce errores <strong>de</strong> forma que (en media) la mitad <strong>de</strong> los bits<br />

recibidos son incorrectos (p = 1/2)<br />

¿Cuál es la velocidad <strong>de</strong> transmisión? ¿500 bits/seg?<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 13


<strong>Canal</strong> binario simétrico .....<br />

x = 0<br />

1−p<br />

p<br />

y = 0<br />

x = 1<br />

p<br />

1−p<br />

y = 1<br />

p(y = 0|x = 0) = 1 − p, p(y = 1|x = 0) = p,<br />

p(y = 0|x = 1) = p, p(y = 1|x = 1) = 1 − p.<br />

La capacidad es C = max p(x)(H(y) − H(y|x)) = 1 − H(p) con<br />

H(p) = −(1 − p) log(1 − p) − p log p.<br />

H(p) resta bits <strong>de</strong> información: cuanto más impre<strong>de</strong>cible sea el<br />

error menor será la capacidad.<br />

Para p = 0 (o p = 1) estamos en el caso sin ruido: C = 1bit.<br />

Para p = 1/2, la salida es completamente aleatoria C = 0bit.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 14


<strong>Canal</strong> híbrido (ejercicio)<br />

x = 0<br />

x = 1<br />

x = 2<br />

1<br />

1−p<br />

p<br />

p<br />

1−p<br />

y = 0<br />

y = 1<br />

y = 2<br />

Suponemos p(x = 0) = P , p(x = 1) = p(x = 2) = Q tal que<br />

P + 2Q = 1.<br />

H(x) = −P log P − 2Q log Q.<br />

H(x|y) = 2Qα con α = H(p) = −(1 − p) log(1 − p) − p log p.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 15


<strong>Canal</strong> híbrido (cont.)<br />

Calcular P y Q que maximice C = H(x) − H(x|y) es<br />

equivalente a calcular los máximos <strong>de</strong>l Lagrangiano:<br />

L = −P log P − 2Q log Q − 2Qα − λ(P + 2Q − 1)<br />

Los valores obtenidos son:<br />

P = βQ = β/(2 + β), Q = 1/(2 + β)<br />

con β = e α (para una base e cualquiera).<br />

Para p = 0 (o p = 1), la capacidad <strong>de</strong>l canal es máxima<br />

C = log 3.<br />

Par p = 1/2, la capacidad es C = log 2.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 16


<strong>Capacidad</strong> <strong>de</strong> un canal AWGN<br />

Mo<strong>de</strong>lo <strong>de</strong>l canal<br />

Cálculo <strong>de</strong> la capacidad<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 17


Mo<strong>de</strong>lo <strong>de</strong> un canal AWGN<br />

Vamos a consi<strong>de</strong>rar el siguiente mo<strong>de</strong>lo <strong>de</strong> un canal AWGN<br />

(Additive White Gaussian Noise):<br />

x[i] es la señal transmitida en el instante i.<br />

n[i] es un ruido blanco gaussiano: media cero, <strong>de</strong>nsidad<br />

espectral <strong>de</strong> potencia Sn(f) = N0<br />

2 , función <strong>de</strong> autocorrelación<br />

RN(τ) = N0<br />

2 δ(τ).<br />

y[i] = x[i] + n[i] es la señal recibida en el instante i.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 18


<strong>Capacidad</strong> <strong>de</strong> un canal<br />

AWGN....<br />

Sean Pr, Pn y Pt + Pn, respectivamente, la potencia <strong>de</strong> recibida <strong>de</strong><br />

la señal transmitida, potencia <strong>de</strong>l ruido y la potencia total recibida.<br />

Si el canal es <strong>de</strong> banda limitada a B Hz (ancho <strong>de</strong> banda 2B), las<br />

entropías en bits/seg vienen dadas por:<br />

Por tanto, la capacidad es<br />

H(y) = B log(4π(Pr + Pn))<br />

H(n) = B log(4πPn)<br />

C = H(y) − H(y|x) = H(y) − H(n) = B log(1 + Pr/Pn)<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 19


<strong>Capacidad</strong> <strong>de</strong> un canal AWGN<br />

(cont.)<br />

Definiendo la relación señal a ruido (SNR) como γ = Pr/Pn<br />

obtenemos:<br />

C = B log(1 + γ)<br />

Como el ruido tiene <strong>de</strong>nsidad espectral <strong>de</strong> potencia N0/2, la<br />

potencia total en un ancho <strong>de</strong> banda 2B es<br />

Pn = 2B × (N0/2) = N0B.<br />

Por tanto, γ = Pr/(N0B).<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 20


Ejemplo.....<br />

Supongamos que la potencia recibida <strong>de</strong> la señal viene dada por<br />

Pr(d) = Pt(d0/d) 3 don<strong>de</strong> d0 = 10m y d es la distancia entre<br />

transmisor y receptor, N0 = 10 −9 W/Hz y B = 30kHz. La figura<br />

muestra la relación señal a ruido γ = Pt(d)/Pn (dB) y la capacidad<br />

<strong>de</strong>l canal para distancias entre 100m y 1Km y Pt = 1W (potencia en<br />

transmisión).<br />

SNR (dB)<br />

20<br />

15<br />

10<br />

5<br />

0<br />

−5<br />

−10<br />

−15<br />

100 200 300 400 500 600 700 800 900 1000<br />

distancia d<br />

<strong>Capacidad</strong> (kbps)<br />

160<br />

140<br />

120<br />

100<br />

80<br />

60<br />

40<br />

20<br />

0<br />

100 200 300 400 500 600 700 800 900 1000<br />

distancia d<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 21


<strong>Canal</strong>es con <strong>de</strong>svanecimiento<br />

plano<br />

Mo<strong>de</strong>lo <strong>de</strong> canal<br />

<strong>Capacidad</strong> con CSI en recepción.<br />

<strong>Capacidad</strong> con CSI en recepción y en<br />

transmisión.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 22


Mo<strong>de</strong>lo <strong>de</strong> canal<br />

El término g[i] ≥ 0 es una ganancia que mo<strong>de</strong>laremos con un<br />

proceso estacionario ergódico con distribución p(g).<br />

S es la potencia media <strong>de</strong> la señal transmitida.<br />

N0/2 es la <strong>de</strong>nsidad espectral <strong>de</strong> potencia <strong>de</strong>l ruido.<br />

B es el ancho <strong>de</strong> banda <strong>de</strong>l canal.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 23


Mo<strong>de</strong>lo <strong>de</strong> canal (cont.)<br />

Valor instantáneo <strong>de</strong> la SNR en recepción:<br />

γi = Sg[i]<br />

N0B<br />

Valor medio <strong>de</strong> la SNR en recepción:<br />

γ = Sg<br />

N0B<br />

Consi<strong>de</strong>raremos dos casos:<br />

CSI en recepción.<br />

CSI en recepción y en transmisión.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 24


CSI en recepción<br />

Suponemos que el receptor conoce g[i] para cada instante i.<br />

<strong>Capacidad</strong> <strong>de</strong> Shannon (ergódica)<br />

C =<br />

∞<br />

0<br />

B log(1 + γ)p(γ)dγ<br />

Se cumple C ≤ CAWGN = B log(1 + γ).<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 25


CSI en recepción (cont.)<br />

<strong>Capacidad</strong> con outage<br />

Máxima velocidad a la que se pue<strong>de</strong> transmitir sobre el canal<br />

admitiendo que pue<strong>de</strong> <strong>de</strong>codificarse incorrectamente con una<br />

cierta probabilidad pout.<br />

Suponemos que la SNR en recepción, γ, es constante durante<br />

un intervalo <strong>de</strong> tiempo.<br />

El transmisor fija un valor <strong>de</strong> SNR mínimo (en recepción), γmin,<br />

y transmite a una velocidad cercana a la capacidad para ese<br />

valor<br />

C = B log(1 + γmin)<br />

Los datos serán correctamente recibidos si γ > γmin.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 26


CSI en recepción (cont.)<br />

<strong>Capacidad</strong> con outage<br />

Se <strong>de</strong>fine la probabilidad <strong>de</strong> outage como<br />

pout = p(γ < γmin) =<br />

La capacidad promedio es<br />

γmin<br />

0<br />

p(γ) = P(γmin)<br />

Co = (1 − pout)B log(1 + γmin)<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 27


CSI en recepción (cont.)<br />

<strong>Capacidad</strong> con outage<br />

Curva <strong>de</strong> <strong>Capacidad</strong>/B en función <strong>de</strong> la probabilidad <strong>de</strong> outage.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 28


Ejemplo....<br />

Vamos a calcular la capacidad <strong>de</strong> un canal con <strong>de</strong>svanecimiento<br />

plano que introduce las siguientes ganancias:<br />

g[i] g[1] = 0.025 g[2] = 0.25 g[3] = 10<br />

p(g[i]) 0.1 0.5 0.4<br />

Pt = 10mW , N0 = 10 −9 W/Hz y B = 30kHz.<br />

SNR en recepción:<br />

Supongamos<br />

γ1 = 0.833(−0.79dB) γ2 = 83.333(19.2dB) γ3 = 333.33(25dB)<br />

Su capacidad es: C = 3<br />

k=1 B log(1 + γk)p(γk) = 151.58kbps<br />

<strong>Capacidad</strong> <strong>de</strong> un canal AWGN con γ = 137.58 (21.80dB):<br />

CAWGN = B log(1 + 137.58) = 213.43kbps<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 29


Ejemplo (cont.)<br />

Probabilida<strong>de</strong>s <strong>de</strong> las SNR en recepción::<br />

γi γ1 = 0.833 γ2 = 83.333 γ3 = 333.33<br />

p(γ) 0.1 0.5 0.4<br />

pout = P(γ) 0.1 0.6 1<br />

<strong>Capacidad</strong>es C = B log(1 + γi) para γi:<br />

γi γ1 = 0.833 γ2 = 83.333 γ3 = 333.33<br />

C 26.23 kbps 191.94 kbps 251.55 kbps<br />

Para pout = P(γ1 = 0.1), po<strong>de</strong>mos transmitir a velocida<strong>de</strong>s<br />

cercanas a C = 191.94kbps pero solamente <strong>de</strong>codificaremos<br />

correctamente cuando la SNR sea γ2 o γ3. La capacidad real<br />

es Co = (1 − 0.1)191.94kbps = 172.75kbps.<br />

Para pout = 0.6 la capacidad real es C = 125.78kbps<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 30


CSI en ambos lados<br />

Asumiremos que g[i] es perfectamente conocido tanto en<br />

transmisión como en recepción.<br />

La capacidad promedio es C = ∞<br />

0<br />

B log(1 + γ)p(γ)dγ.<br />

El transmisor adapta su potencia S(γ) en función <strong>de</strong> la SNR en<br />

recepción γ tal que<br />

∞<br />

0<br />

S(γ)p(γ)dγ ≤ S<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 31


CSI en ambos lados (cont.)....<br />

La capacidad <strong>de</strong> un canal variante en tiempo es<br />

C =<br />

∞<br />

B log<br />

0<br />

<br />

1 + γ S(γ)<br />

<br />

p(γ)dγ<br />

S<br />

El objetivo es maximizarla sujeto a la restricción<br />

∞<br />

0 S(γ)p(γ)dγ ≤ S.<br />

Se obtiene:<br />

S(γ)<br />

S =<br />

1<br />

γ0<br />

− 1<br />

γ γ ≥ γ0<br />

0 γ < γ0<br />

Solamente se transmite en los intervalos don<strong>de</strong> se cumple la<br />

condición.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 32


CSI en ambos lados (cont.)<br />

Asignación <strong>de</strong> potencia óptima: Watter-Filling<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 33


CSI en ambos lados (cont.)<br />

La capacidad resultante es<br />

C =<br />

∞<br />

0<br />

<br />

γ<br />

B log<br />

El valor <strong>de</strong> corte <strong>de</strong>be satisfacer<br />

∞<br />

S(γ)<br />

S p(γ)dγ<br />

∞ <br />

1<br />

=<br />

γ0<br />

γ0<br />

γ0<br />

γ0<br />

<br />

p(γ)dγ<br />

− 1<br />

<br />

p(γ)dγ = 1<br />

γ<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 34


Ejemplo .....<br />

Vamos a continuar con el ejemplo anterior...<br />

Consi<strong>de</strong>remos que las probabilida<strong>de</strong>s <strong>de</strong> las SNR en recepción<br />

son:<br />

γi γ1 = 0.833 γ2 = 83.333 γ3 = 333.33<br />

p(γ) 0.1 0.5 0.4<br />

Calculemos el umbral γ0 <strong>de</strong> forma que<br />

<br />

γi>γ0<br />

3<br />

i=1<br />

1<br />

γ0<br />

p(γi)<br />

γ0<br />

− 1<br />

<br />

p(γi) = 1<br />

γ<br />

−<br />

3<br />

i=1<br />

p(γi)<br />

γi<br />

= 1<br />

En nuestro caso γ0 = 1<br />

1.13 = 0.8 < γ1 y, por tanto, la SNR más<br />

débil nunca se utilizará.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 35


Ejemplo (cont.)<br />

Calcularemos el umbral γ0 eliminando γ1,<br />

2<br />

i=1<br />

p(γi)<br />

γ0<br />

−<br />

2<br />

i=1<br />

En nuestro caso resulta, γ0 = 0.89.<br />

La capacidad resultante es<br />

C =<br />

i=2<br />

γ0<br />

p(γi)<br />

γi<br />

= 1<br />

3<br />

B log2( γi<br />

)p(γi) = 200.82kbps<br />

La capacidad es mayor que la obtenida con CSI en recepción y<br />

se aproxima a la <strong>de</strong> un canal AWGN.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 36


<strong>Canal</strong>es con <strong>de</strong>svanecimiento<br />

selectivo en frecuencia<br />

Mo<strong>de</strong>lo <strong>de</strong> canal (canales invariantes<br />

en tiempo)<br />

<strong>Capacidad</strong><br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 37


Mo<strong>de</strong>lo <strong>de</strong> canal<br />

Supondremos un canal invariante en tiempo.<br />

<strong>Canal</strong> con respuesta en frecuencia H(f) conocida tanto el el<br />

transmisor como en recepción.<br />

Se transmite una potencia total S.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 38


<strong>Canal</strong> con <strong>de</strong>svanecimiento<br />

selectivo en frecuencia (cont.)<br />

H(f) pue<strong>de</strong> dividirse en subcanales <strong>de</strong> ancho <strong>de</strong> banda B.<br />

La SNR en cada canal es |Hj| 2 Sj<br />

N0B don<strong>de</strong> Sj es la potencia<br />

localizada en el j-ésimo canal, <br />

j Sj ≤ S. La capacidad <strong>de</strong>l<br />

j-ésimo canal es<br />

.<br />

Cj = B log 2<br />

<br />

1 + |Hj| 2 <br />

Sj<br />

N0B<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 39


<strong>Canal</strong> con <strong>de</strong>svanecimiento<br />

selectivo en frecuencia (cont.)<br />

Como tenemos varios canales en paralelo, nos planteamos<br />

maximizar la capacidad (ejercicio)<br />

Se obtiene<br />

max C = <br />

B log2 don<strong>de</strong> γj = |Hj| 2 S<br />

NoB .<br />

j<br />

Sj<br />

S =<br />

<br />

1 + |Hj| 2 <br />

Sj<br />

N0B<br />

1<br />

γ0<br />

− 1<br />

γj<br />

γj ≥ γ0<br />

0 γ < γ0<br />

El parámetros γ0 <strong>de</strong>be ser elegido <strong>de</strong> forma que<br />

1 1<br />

j ( − ) = 1. La capacidad resultante es<br />

γ0 γj<br />

C = <br />

γj>γ0 B log <br />

γj<br />

2<br />

γ0<br />

s.a. <br />

Sj ≤ S<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 40<br />

k


<strong>Canal</strong> con <strong>de</strong>svanecimiento<br />

selectivo en frecuencia (cont.)<br />

Watter-filling para canales con <strong>de</strong>svanecimiento selectivo en<br />

frecuencia.<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 41


Ejemplo....<br />

Vamos a calcular la capacidad <strong>de</strong> un canal selectivo en frecuencia<br />

consi<strong>de</strong>rando que se pue<strong>de</strong> aproximar por tres canales <strong>de</strong><br />

B = 1MHz y con H1 = 1, H2 = 2 y H3 = 3. Consi<strong>de</strong>raremos que la<br />

restricción en potencia es S = 10mW y que N0 = 10 −9 W/Hz.<br />

SNR en recepción: γj = |Hj| 2 S<br />

NoB : γ1 = 10, γ2 = 40, γ3 = 90.<br />

Utilizando 3<br />

j=1<br />

C = 3<br />

j=1 B log 2<br />

( 1<br />

γ0<br />

γj<br />

γ0<br />

1 − γj ) = 1, obtenemos γ0 = 2.64 < γ1.<br />

<br />

=<br />

1000000 (log 2(10/2.64) + log 2(40/2.64) + log 2(90/2.64)) =<br />

10.93Mbps<br />

Teoría <strong>de</strong> la comunicación para re<strong>de</strong>s móviles.- Adriana Dapena – p. 42

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!