compression d'images appliquee aux angiographies cardiaques
compression d'images appliquee aux angiographies cardiaques
compression d'images appliquee aux angiographies cardiaques
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
1.2. Mesures de performance<br />
1.2.1. T<strong>aux</strong> de <strong>compression</strong><br />
En plus du débit R c , une mesure courante pour déterminer le degré de <strong>compression</strong><br />
obtenu est le t<strong>aux</strong> de <strong>compression</strong> CR (1) . Il est défini par:<br />
CR =<br />
nombre de bits de l'image originale<br />
nombre de bits de l'image comprimée =<br />
R<br />
R<br />
o<br />
c<br />
(I-1.1)<br />
Pour une même méthode de <strong>compression</strong> et un même CR réalisés sur des images<br />
distinctes, la qualité obtenue peut être très variable d’une image à l’autre. Les propriétés<br />
statistiques des images originales jouent un rôle prépondérant dans le résultat obtenu.<br />
Par exemple avec une image sur-échantillonnée, donc très redondante, il est facile<br />
d’obtenir des t<strong>aux</strong> élevés. La théorie de l’information donne une limite théorique au CR<br />
maximal qu’il est possible d’obtenir sans distorsion pour toute méthode de <strong>compression</strong><br />
sur une image donnée.<br />
1.2.2. Entropie<br />
L’entropie est une grandeur qui caractérise la quantité d’information que contient une<br />
image. Par exemple une image dont tous les pixels ont la même valeur contient très peu<br />
d’information car elle est extrêmement redondante, son entropie est faible. En revanche,<br />
une image dont tous les pixels ont une valeur aléatoire contient beaucoup d’information,<br />
son entropie est forte. Ceci est comparable à l’entropie en thermodynamique qui croit<br />
avec le désordre.<br />
En pratique, l’entropie d’une image numérique est inversement liée à la probabilité<br />
d’apparition des nive<strong>aux</strong> de gris dans l’image. Plus une valeur de gris k est rare, plus sa<br />
probabilité d’apparition p(k) est faible, et cela contribue à une entropie globale plus<br />
grande. Par définition, l’entropie d'ordre zéro H 0 est donnée par:<br />
L’utilisation du logarithme de base deux fait de H 0 le nombre de bits moyen par pixel<br />
R<br />
2 −1<br />
H 0 = - ∑ pk ( ).log pk ( ) bpp (I-1.2)<br />
2<br />
k = 0<br />
nécessaire pour coder toute l’information contenue dans l’image. Une image codée avec<br />
R bits par pixels a en fait presque toujours une entropie d'ordre zéro inférieure à R. Dans<br />
sa théorie de l’information applicable à tout signal y compris les images, Shannon a<br />
démontré un théorème qui indique qu’il est possible de coder (comprimer) un signal<br />
d’entropie H avec H bpp, tout en obtenant une distorsion arbitrairement faible [SHAN-48].<br />
Par conséquent, l’entropie H 0 d’une image originale fournit le débit minimal qu’il est<br />
possible d’atteindre par <strong>compression</strong> pixel par pixel sans dégrader l’image, et par là<br />
même un t<strong>aux</strong> de <strong>compression</strong> sans perte maximal.<br />
1.3. Mesures de distorsion<br />
La distorsion (D) est l’erreur introduite par l’opération de <strong>compression</strong>, due au fait<br />
qu’éventuellement l’image reconstruite n’est pas exactement identique à l’image originale.<br />
1 CR : de l'anglais "<strong>compression</strong> ratio" (t<strong>aux</strong> de <strong>compression</strong>)<br />
- 32 -