13.07.2015 Views

Mécanismes de fiabilisation pro-actifs - ISAE

Mécanismes de fiabilisation pro-actifs - ISAE

Mécanismes de fiabilisation pro-actifs - ISAE

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

6 Chapitre 2. Etat <strong>de</strong> l'art et principales notionsun ensemble <strong>de</strong> sorties à valeurs dans un second alphabet B et une loi <strong>de</strong> transitiondénissant la <strong>pro</strong>babilité d'obtenir une sortie Y 2 B, sachant que la valeur d'entréeest X 2 A. Cette <strong>pro</strong>babilité peut se noter P (Y jX). La connaissance du canal nousdonne ainsi la loi <strong>de</strong> transition pour chaque couple (X; Y ).Soit une variable aléatoire X à valeurs dans (x 0 ; x 1 ; :::; x n ) un ensemble ni <strong>de</strong>valeurs. On dénit l'entropie <strong>de</strong> X, notée H(X), qui mesure l'incertitu<strong>de</strong> sur la variableX par la formulation suivante :H(X) =n∑P (X = x i ) log 2 P (X = x i )i=0L'entropie est une fonction positive qui s'annule si et seulement si X est déterminéeou en d'autres termes si 9i 2 f0; 1; :::; ng=P (X = x i ) = 1. Par ailleurs, l'entropie peutêtre vue comme le nombre minimal <strong>de</strong> bits nécessaires au codage <strong>de</strong> X.De manière générale, l'objectif du récepteur/déco<strong>de</strong>ur est <strong>de</strong> déduire la valeurd'entrée X qui a été transmise en fonction <strong>de</strong> la valeur Y <strong>de</strong> l'alphabet <strong>de</strong> sortiequ'il a reçue. Pour cela, on dénit alors l'information mutuelle <strong>de</strong>s variables X et Y ,notée I(X; Y ) qui représente l'information que l'on peut déduire sur X à partir <strong>de</strong> Y .L'information mutuelle s'exprime <strong>de</strong> la manière suivante :I(X; Y ) = H(X) H(XjY )Lorsque le canal <strong>de</strong> transmission est sans erreur, la connaissance <strong>de</strong> Y permetd'obtenir X <strong>de</strong> manière déterministe : H(XjY ) = 0. L'information mutuelle est alorsmaximale. Dans le pire cas, le canal est tellement mauvais que la connaissance <strong>de</strong> Yn'apporte aucune information sur X et dans ce cas, H(XjY ) = H(X), l'informationmutuelle est nulle rendant toute transmission impossible.La capacité C d'un canal <strong>de</strong> transmission se dénit <strong>de</strong> la manière suivante :C = max(I(X; Y ))XDans le cadre d'un canal parfait, la capacité du canal est optimale C = max X (H(X))alors qu'elle est nulle lorsque l'entrée et la sortie sont totalement décorellées.2.2 Les co<strong>de</strong>s à eacementsDe manière générale, les co<strong>de</strong>s correcteurs d'erreurs désignent l'ensemble <strong>de</strong>s mécanismesmathématiques permettant la correction <strong>de</strong> diérents types d'erreurs pouvantaecter un ensemble <strong>de</strong> données. Ces co<strong>de</strong>s sont ainsi capables <strong>de</strong> détecter etcorriger <strong>de</strong>s erreurs <strong>de</strong> transmission, mais également <strong>de</strong>s pertes d'information. Dansce <strong>de</strong>rnier cas, la famille <strong>de</strong> co<strong>de</strong>s correspondante est connue sous la dénomination<strong>de</strong> co<strong>de</strong>s correcteurs pour le canal à eacements, ou plus singulièrement co<strong>de</strong>s àeacements.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!