10.07.2015 Views

EXERCICES

EXERCICES

EXERCICES

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

4 _________________________________________________ exercices du chapitre IIIOn considère une source binaire sans mémoire S 0dont la loi de probabilité vérifie:P{ S 0= 0}= 0,9 = 1− P{ S 0= 1}.I CODAGE DE SOURCEOn souhaite coder les mots source de longueur n = 4 en des mots code binaires de longueurr = 3.1. Construire un code bloc attribuant à chaque mot source de longueur 4 un mot code binairede longueur 3 en faisant en sorte que la probabilité de ne pouvoir attribuer avec certitude unmot source à un mot code soit la plus petite possible. Calculer cette probabilité.2. Ce codage fait correspondre à S 0une nouvelle source S 1possédant 2 3 = 8 symboles. -Calculer l'entropie par symbole de S 1.3. On suppose que le débit binaire de S 0est D S0= 1 T Set que la durée d'un mot source S 1coîncide avec la durée d'un mot source S 0- Calculer le débit d'information (entropie par unité de temps) de S 1et le comparer au débitd'information de S 0 . Commenter (succintement) la différence observée.II CODAGE DE CANALPour transmettre le contenu de la source S 1 , on utilise un canal binaire symétrique deparamètre p = P{ Y = 0 / X = 1}= P{ Y = 1 / X = 0}= 0,08 (où X et Y désignentrespectivement l'entrée et la sortie du canal).TRANSMISSION SANS CODAGE.On relie directement la souce S 1au canal.0. La condition du deuxième théorème de Shannon est-elle satisfaite?1. Quelle est la probabilité pour qu'un élément binaire d'un mot de S 1soit erroné?2. Calculer la probabilité pour qu'un mot source de S 1 soit transmis correctement.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!