14.09.2014 Views

compression d'images appliquee aux angiographies cardiaques

compression d'images appliquee aux angiographies cardiaques

compression d'images appliquee aux angiographies cardiaques

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

1.2. Mesures de performance<br />

1.2.1. T<strong>aux</strong> de <strong>compression</strong><br />

En plus du débit R c , une mesure courante pour déterminer le degré de <strong>compression</strong><br />

obtenu est le t<strong>aux</strong> de <strong>compression</strong> CR (1) . Il est défini par:<br />

CR =<br />

nombre de bits de l'image originale<br />

nombre de bits de l'image comprimée =<br />

R<br />

R<br />

o<br />

c<br />

(I-1.1)<br />

Pour une même méthode de <strong>compression</strong> et un même CR réalisés sur des images<br />

distinctes, la qualité obtenue peut être très variable d’une image à l’autre. Les propriétés<br />

statistiques des images originales jouent un rôle prépondérant dans le résultat obtenu.<br />

Par exemple avec une image sur-échantillonnée, donc très redondante, il est facile<br />

d’obtenir des t<strong>aux</strong> élevés. La théorie de l’information donne une limite théorique au CR<br />

maximal qu’il est possible d’obtenir sans distorsion pour toute méthode de <strong>compression</strong><br />

sur une image donnée.<br />

1.2.2. Entropie<br />

L’entropie est une grandeur qui caractérise la quantité d’information que contient une<br />

image. Par exemple une image dont tous les pixels ont la même valeur contient très peu<br />

d’information car elle est extrêmement redondante, son entropie est faible. En revanche,<br />

une image dont tous les pixels ont une valeur aléatoire contient beaucoup d’information,<br />

son entropie est forte. Ceci est comparable à l’entropie en thermodynamique qui croit<br />

avec le désordre.<br />

En pratique, l’entropie d’une image numérique est inversement liée à la probabilité<br />

d’apparition des nive<strong>aux</strong> de gris dans l’image. Plus une valeur de gris k est rare, plus sa<br />

probabilité d’apparition p(k) est faible, et cela contribue à une entropie globale plus<br />

grande. Par définition, l’entropie d'ordre zéro H 0 est donnée par:<br />

L’utilisation du logarithme de base deux fait de H 0 le nombre de bits moyen par pixel<br />

R<br />

2 −1<br />

H 0 = - ∑ pk ( ).log pk ( ) bpp (I-1.2)<br />

2<br />

k = 0<br />

nécessaire pour coder toute l’information contenue dans l’image. Une image codée avec<br />

R bits par pixels a en fait presque toujours une entropie d'ordre zéro inférieure à R. Dans<br />

sa théorie de l’information applicable à tout signal y compris les images, Shannon a<br />

démontré un théorème qui indique qu’il est possible de coder (comprimer) un signal<br />

d’entropie H avec H bpp, tout en obtenant une distorsion arbitrairement faible [SHAN-48].<br />

Par conséquent, l’entropie H 0 d’une image originale fournit le débit minimal qu’il est<br />

possible d’atteindre par <strong>compression</strong> pixel par pixel sans dégrader l’image, et par là<br />

même un t<strong>aux</strong> de <strong>compression</strong> sans perte maximal.<br />

1.3. Mesures de distorsion<br />

La distorsion (D) est l’erreur introduite par l’opération de <strong>compression</strong>, due au fait<br />

qu’éventuellement l’image reconstruite n’est pas exactement identique à l’image originale.<br />

1 CR : de l'anglais "<strong>compression</strong> ratio" (t<strong>aux</strong> de <strong>compression</strong>)<br />

- 32 -

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!