8 CRISTIANE MARIA SATOUma codificação ingênua poderia simplesmente associar um codeword diferente a cada palavra.Mas uma codificação mais esperta se aproveitaria do fato de que é permitido codificarpalavras indistinguíveis a um mesmo codeword para diminuir o número de codewords necessários.Nosso problema central é, de alguma forma, medir o desempenho de uma codificaçãoe calcular qual seria o melhor desempenho possível.Agora descreveremos o problema mais formalmente. Seja V um conjunto finito e p umadistribuição de probabilidade sobre V . Chamamos os elementos de V de símbolos. Suponhaque a fonte emite símbolos de V . Em um dado instante, a probabilidade de um símbolov ∈ V ser emitido é p v . Como já foi dito, nem todos os símbolos emitidos pela fonte sãodistinguíveis dois-a-dois. Podemos considerar distinguibilidade como uma relação binária,simétrica e arbitrária (mas conhecida e fixa) que nos diz, para cada par de símbolos, se estessão distinguíveis ou não. A relação de distinguibilidade entre os símbolos pode ser descritaatravés de um grafo sobre V , no qual dois vértices são adjacentes se são distinguíveis. Talgrafo é chamado de grafo dos símbolos de V .Fixe t um inteiro não-negativo. Seja U um conjunto finito. Denotamos por U t o conjuntode todas as t-uplas (u 1 , . . . , u t ), onde u i ∈ U para todo i. Uma palavra de comprimento t(emitida pela fonte) é uma t-upla (v 1 , . . . , v t ) ∈ V t de símbolos emitidos consecutivamentepela fonte. Duas palavras x = (x 1 , . . . , x t ) e y = (y 1 , . . . , y t ) são distinguíveis se x i e y i sãodistinguíveis para algum i.Considere um grafo cujo conjunto de vértices é o conjunto de todas as palavras de comprimentot, onde vértices são adjacentes se são distinguíveis. Tal grafo é chamado de grafo daspalavras de V t . A seguinte construção mostra como obter o grafo das palavras de V t a partirdo grafo dos símbolos de V .Seja G um grafo. A t-ésima potência co-normal G t de G é o grafo com sobre V (G) t comconjunto de arestasE(G t ) := {{x, y}: {x i , y i } ∈ E(G) para algum 1 ≤ i ≤ t}.Note que o grafo das palavras de V t é a t-ésima potência co-normal do grafo dos símbolosde V .Defina a probabilidade de uma palavra u = (u 1 , . . . , u t ) como p(u) := ∏ ti=1 p(u i). A probabilidadede um subconjunto U ⊆ V t é definida como p(U) := ∑ u∈U p(u).Seja U ⊆ V (G t ). Uma codificação das palavras de U é uma função que associa a cadavértice de U um codeword de modo que vértices adjacentes são associados a codewordsdiferentes. Fixe 0 < ε < <strong>1.</strong> Lembrando que é permitido que uma fração de palavras debaixíssima probabilidade deixe de ser codificada, definimos uma codificação das palavras decomprimento t como uma codificação das palavras de um conjunto U ⊆ V (G t ) tal que p(U) >1 − ε.O desempenho de uma codificação é medida pela razãolg M,tonde M é o número de codewords diferentes que a codificação utiliza. Essa razão indicao número de bits necessários pela codificação para descrever cada símbolo de uma palavra.Assim, quanto menor a razão, melhor é o desempenho da codificação. Estamos interessadosem medir o quão boa pode ser uma codificação para palavras muito longas. A entropia degrafos será a resposta para essa questão.Observe que um conjunto estável em G t é um conjunto de palavras duas-a-duas nãodistinguíveise que, portanto, podem ser mapeadas para um mesmo codeword. Assim, onúmero de codewords necessários para uma codificar as palavras de U ⊆ V t é o número de
<strong>ENTROPIA</strong> <strong>DE</strong> <strong>GRAFOS</strong> 9conjuntos estáveis de G t necessários para cobrir U. Isto é, o número de codewords necessáriospara codificar U é o número cromático χ(G t [U]). Portanto, o desempenho da melhorcodificação de U élg χ(G t [U]).tFinalmente, podemos apresentar a definição de entropia de grafos dada originalmente porKörner [12]. Seja G um grafo e p uma distribuição de probabilidade sobre V (G). A entropiade G com relação a p é definida comoH(G, p) := limt→∞min{1t lg χ(Gt [U]): U ⊆ V (G t ), p(U) > 1 − ε}.Para mostrar que essa é uma fórmula válida, é necessário provar que o limite existe e éindependente de ε ∈ (0, 1). Körner fez isso mostrando que a expressão acima é equivalente auma fórmula computável que será apresentada na subseção seguinte.Uma idéia intuitiva para a entropia de grafos é a seguinte: suponha que G é o grafo desímbolos de um conjunto finito V e que p é uma distribuição de probabilidade sobre V .Então, o número médio de bits necessários em uma codificação ótima para as palavras em V té tH(G, p).3.2. Uma caracterização alternativa. Nesta subseção apresentamos uma caracterizaçãode entropia de grafos dada por Körner [12]. Para isso, revisamos alguns conceitos básicos deentropia de variáveis aleatórias.Vamos definir um conceito bastante usado em teoria da informação: a entropia de umavariável aleatória, que é um valor diretamente relacionado à quantidade de informação contidana variável aleatória em questão.Seja p uma distribuição de probabilidade sobre um conjunto V . A entropia de p é definidacomoH(p) := ∑ p v lg 1 .p vv∈VConsideramos 0 lg 1 0 = 0 lg 0 = 0 e x lg 1 0= ∞ para todo x > 0.Definimos a entropia de uma variável aleatória X como H(X) := H(dist(X)). Podemosdizer que a entropia de X é uma medida da incerteza de X. Em outras palavras, a entropiade X pode ser interpretada como a quantidade de informação contida em X.Sejam X e Y variáveis aleatórias que tomam seus valores em conjuntos V e U, respectivamente.A entropia conjunta entre X e Y é definida comoH(X, Y ) := ∑ ∑p xy lg 1 ,p xyx∈V y∈Uonde p xy := P[X = x, Y = y].A entropia condicional de X dado Y é definida comoH(X | Y ) := ∑ ∑P[Y = y]H(X y ),x∈V y∈Uonde X y := (X | Y = y). A entropia condicional de X dado Y pode ser interpretada comoa quantidade de informação contida em X mas não em Y . A seguir provamos uma relaçãonatural entre a entropia conjunta e a entropia condicional.Lema 3.1 Sejam X e Y variáveis aleatórias. EntãoH(X, Y ) = H(X) + H(Y | X).