14.09.2014 Views

compression d'images appliquee aux angiographies cardiaques

compression d'images appliquee aux angiographies cardiaques

compression d'images appliquee aux angiographies cardiaques

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

N° d’ordre 97 ISAL 0107 Année 1997<br />

THESE<br />

Présentée<br />

DEVANT L’INSTITUT NATIONAL DE SCIENCES<br />

APPLIQUEES DE LYON<br />

pour obtenir<br />

LE GRADE DE DOCTEUR<br />

FORMATION DOCTORALE: GENIE BIOLOGIQUE ET MEDICAL<br />

ECOLE DOCTORALE DES SCIENCES POUR L’INGENIEUR DE LYON: Electronique,<br />

Electrotechnique, Automatique<br />

PAR<br />

PATRICIA BEAUREPAIRE, EPOUSE BERETTA<br />

Ingénieur de l’Université de Technologie de Compiègne<br />

Génie Biologique et Médical - Promotion 1987<br />

COMPRESSION D’IMAGES APPLIQUEE AUX<br />

ANGIOGRAPHIES CARDIAQUES:<br />

ASPECTS ALGORITHMIQUES,<br />

EVALUATION DE LA QUALITE DIAGNOSTIQUE<br />

Soutenue le 21 novembre 1997 devant la commission d’examen<br />

Jury:<br />

Pr M. Amiel<br />

Pr D. Barba Rapporteur<br />

Pr M. Bertrand Rapporteur<br />

Pr R. Goutte<br />

Dr H. Haas<br />

Pr. M. Lamure Rapporteur<br />

Pr. R. Prost Directeur de thèse


REMERCIEMENTS<br />

Le présent travail n’a pu aboutir que grâce au soutien et à l’aide d’un nombre conséquent de<br />

personnes que j’ai eu la chance de trouver sur mon parcours depuis 1991.<br />

Tout a commencé par la compréhension de mes motivations par deux personnes, au même<br />

moment et dans des contextes différents.<br />

• Monsieur le Professeur Amiel, codirecteur du Laboratoire CREATIS à Lyon (alors appelé<br />

LTSU), a tout de suite accepté de m’aider à trouver un cadre pour un DEA et une thèse. Je<br />

lui suis reconnaissante de m’avoir ouvert les portes de ses équipes de recherche.<br />

• Monsieur Vandelle, de la Société Philips Systèmes Médic<strong>aux</strong> à Paris, a soutenu ma<br />

transition entre une fonction technico-commerciale et des investigations cliniques et<br />

scientifiques. Il a réalisé que le fil conducteur était l’imagerie médicale, en faisant évoluer<br />

mon centre d’intérêt de l’utilisateur au concepteur. Je le remercie d’avoir initié les<br />

démarches qui m’ont conduite à participer à un projet de recherche au sein des structures<br />

internationales de Philips Medical Systems (PMS) en Hollande, et qui ont permis la mise en<br />

place d’une convention Cifre.<br />

Une convention Cifre comprend trois partenaires: un laboratoire universitaire, un industriel, et<br />

un étudiant en thèse.<br />

• Le laboratoire universitaire est le laboratoire CREATIS, abrité par l’INSA de Lyon et par<br />

l’Hôpital Neuro-Cardiologique de Lyon. Je remercie les Professeurs Amiel et Goutte pour<br />

leur accueil dans leur laboratoire, pour leur participation à de nombreuses discussions sur<br />

mon travail, et pour leur participation à mon jury de thèse.<br />

• L’industriel est la Société Philips Systèmes Médic<strong>aux</strong>, dont le siège français est à Paris. Je<br />

remercie Monsieur Philippe Soly pour son soutien continu et le lien qu’il m’a permis de<br />

garder avec la société, tout en étant basée dans un autre contexte. Le Docteur Hein Haas,<br />

a été le coordinateur, depuis la Hollande, du projet PMS de <strong>compression</strong>. Je lui dois une<br />

grande partie de mes progrès au cours de ces années, grâce à son talent pour gérer un<br />

projet complexe, à son soutien logistique, à sa rigueur pour atteindre les objectifs fixés, <strong>aux</strong><br />

contacts internation<strong>aux</strong> dont il m’a fait bénéficier, et grâce au temps et <strong>aux</strong> conseils<br />

consacrés à mes trav<strong>aux</strong>.<br />

• Il est inutile de présenter l’étudiant(e) en thèse. Mais une thèse est peu de chose sans un<br />

bon directeur de thèse. Je tiens à exprimer ma sincère gratitude au Professeur Rémy Prost<br />

pour avoir encadré mon DEA et ma thèse. Sa créativité scientifique m’a constamment<br />

gardée en éveil. Il m’a beaucoup apporté tant au niveau théorique (il faut dire qu’il y avait du<br />

chemin à parcourir!), qu’au niveau de soutiens concrets pour faire avancer mes trav<strong>aux</strong>.


Je tiens à exprimer ma reconnaissance à Monsieur le Professeur Dominique Barba, de<br />

l’IRESTE à Nantes,<br />

et à Monsieur le Professeur Michel Lamure, de l’URA 394, Université Claude Bernard de Lyon<br />

pour avoir bien voulu s’intéresser à ce travail et en être les rapporteurs.<br />

Je suis particulièrement heureuse que Monsieur le Professeur Michel Bertrand, de l’Hôpital<br />

Cardiologique de Lille, ait accepté de me faire bénéficier de son ultime soutien en étant<br />

rapporteur. Je garde une nostalgie de mon séjour de deux ans dans son Service<br />

d’Hémodynamique, à cause de l’ambiance de travail, la gentillesse et l’efficacité que j’y ai<br />

trouvées.<br />

A l’équipe de l’Hôpital Cardiologique de Lyon:<br />

Ricardo Roriz et Guy Durand de Gévigné pour m’avoir initiée à la coronarographie et avoir<br />

contribué <strong>aux</strong> idées de bases des protocoles d’évaluation,<br />

Gérard Finet, Thierry Moll.<br />

Et au collègues du B13: Claire Baldy, Emmanuelle Canet, Christian Renaudin, Ferial Tlemsani,<br />

A Renée.<br />

A l’équipe de Creatis:<br />

Bernard et Daniel pour le temps passé sur mes problèmes informatiques,<br />

Atilla Baskurt, Olivier Baudin, Hugues Benoît Catin, Christophe Odet, Marc Robini, Nicolas<br />

Rougnon-Glasson et tous ceux qui m’ont donné des coups de main.<br />

A “la grand famille” du Centre Hémodynamique de Lille:<br />

Merci de m’avoir si chaleureusement accueillie, de m’avoir autant aidée et fait rire.<br />

A Eric van Belle pour sa participation en tant qu’observateur de l’évaluation diagnostique,<br />

à Eugène Mac Fadden pour tout ce temps passé à améliorer le contenu et la langue de mes<br />

rédactions en anglais,<br />

à Christophe Bauters, au Pr Jean Marc Lablanche,<br />

à Michel, Jean Philippe pour le temps passé avec mes fichiers ou mes photos et à Jean Paul<br />

pour son aide avec le prototype de CD<br />

et à Catherine, Claudine, Sylvette, et toute l’équipe<br />

Many thanks to the <strong>compression</strong> project team :<br />

Paul Zwart from, Philips Medical Systems X-ray Pre-development, who untiringly provided<br />

tapes, tools, time, ideas and logic to support me from beginning and after the end.<br />

Hein Haas, who is invited to read my warm French comments earlier in these<br />

acknowledgments.<br />

Marcel Breeuwer, Richard Heusdens, René Klein Gunnewick, Peter van Otterloo, from Philips<br />

Research, for sharing so much of their knowledge.<br />

I am grateful to the Hermann/UT team of Houston for their participation in the <strong>compression</strong><br />

evaluation study.<br />

I was honored that Professor Gould, Smalling, Anderson and Schroth accepted to participate in<br />

the reading sessions, and gave their valuable advice on the study.<br />

It has been a chance for me to work with Professor Richard Kirkeeide. Many thanks for all the<br />

efforts to meet the schedule with viewing sessions, and for the lengthy discussions.<br />

I have been privileged to be associated with the LKEB for the QCA evaluation. I am grateful to<br />

Professor Hans Reiber and Doctor Gerald Koning for their support and valuable work.<br />

Je voudrais exprimer mes sincères remerciements à Monsieur le Professeur Adeleine, du<br />

Laboratoire d’Informatique Médicale des Hospices Civils de Lyon, pour m’avoir offert son


temps, ses explications et m’avoir aidée dans mes analyses de données. Cette aide a été<br />

d’une grande valeur ajoutée. Merci à Madame Canova.<br />

Many thanks to my current colleagues, who brought their little touch to this work:<br />

Ruud ten Caat, Ruud Weterings, Tim Beuman and my colleagues from Philips Medical<br />

Systems CardioVascular in Best.<br />

A tous mes amis, et à Odile qui a suivi de près le feuilleton de la thèse.<br />

A tous ceux que je n’ai pas cités ici et que j’ai rencontrés pendant ce travail.


Enfin, je dois tout à ma famille qui m’a soutenue dans tous mes efforts.<br />

A mes parents, mon meilleur tremplin dans la vie.<br />

A ma grand-mère dont je suis fière.<br />

Aux quatre générations qui tissent leurs liens.<br />

A mes be<strong>aux</strong>-parents, à qui ce nom convient à merveille.<br />

A tous mes proches,<br />

Pour qu’ils ne leur vienne jamais l’idée de comprimer<br />

les images de coeur qu’ils ont dans la tête<br />

A Yves,<br />

et à son prochain succès<br />

ce travail lui est dû<br />

cette thèse lui est dédiée


ENGLISH SUMMARY<br />

Image <strong>compression</strong> is key for archiving and communication of digital cardiac angiograms.<br />

We studied some algorithm aspects of a <strong>compression</strong> technique adapted to such images, and validated the<br />

diagnostic quality of compressed images.<br />

In a <strong>compression</strong> scheme based on the Discrete Cosine Transform, we focused on two topics:<br />

- the adaptivity and robustness of scalar quantizers,<br />

- the effect of post-processing in combination with <strong>compression</strong>.<br />

These algorithmic problems are general and can be applied to other <strong>compression</strong> methods.<br />

It is not possible to validate the diagnostic quality of compressed medical images based on mathematics<br />

parameters. An evaluation with medical experts is needed.<br />

We present experiments in which the diagnostic quality of three <strong>compression</strong> techniques were assessed with a<br />

<strong>compression</strong> ratio of 12:1: the JPEG standard, the MPEG standard, and a dedicated method developed in Philips<br />

Laboratories, the so-called MLOT. We assessed visual interpretation and quantitative analysis performed on noncompressed<br />

and compressed images from patient studies.<br />

We found that the observer variability of visual interpretation and of quantitative analysis is not statistically<br />

significantly modified by <strong>compression</strong>. In our experimental conditions, <strong>compression</strong> does not significantly alter the<br />

diagnostic quality.<br />

Our results are very promising. They show that image <strong>compression</strong> is acceptable for the clinical work. There is a<br />

vast field of applications for the <strong>compression</strong> of cardiac angiograms. Either dedicated algorithms can be developed<br />

and optimum results can be reached; or standard algorithms can be applied. Clinical evaluations are key to<br />

determine the boundaries within which any <strong>compression</strong> method can be used for medical applications.<br />

RESUME EN FRANCAIS<br />

La <strong>compression</strong> <strong>d'images</strong> avec perte présente aujourd'hui un intérêt majeur pour l'archivage et la communication<br />

des <strong>angiographies</strong> <strong>cardiaques</strong>.<br />

Notre travail porte sur les aspects algorithmiques d'une technique de <strong>compression</strong> adaptée à cette modalité<br />

d'imagerie médicale, et sur la validation de la qualité diagnostique <strong>d'images</strong> comprimées.<br />

Dans un schéma de <strong>compression</strong> à base de la transformation cosinus discrète de l’image (Full-Frame DCT) nous<br />

avons principalement étudié deux aspects : l'adaptivité et la robustesse de la quantification scalaire des coefficients<br />

du plan de le DCT d'une part, et la prise en compte de post traitements d'autre part.<br />

Ces deux aspects algorithmiques ont une portée générale, ils sont applicables à d'autres méthodes de<br />

<strong>compression</strong>.<br />

La validation de la qualité diagnostique <strong>d'images</strong> médicales comprimées ne peut pas être, actuellement, basée sur<br />

des paramètres mathématiques, mais uniquement sur une évaluation par des experts médic<strong>aux</strong>.<br />

Nous avons conduit des campagnes d'évaluation de la qualité diagnostique avec trois méthodes de <strong>compression</strong> à<br />

un t<strong>aux</strong> maximum de 12:1 : le standard JPEG, le standard MPEG, et MLOT, une méthode dédiée développée par<br />

les laboratoires Philips.<br />

Nous avons pu observer que, dans les conditions définies ci-dessus, la <strong>compression</strong> n’augmente pas la variabilité<br />

des interprétations visuelles et des mesures quantitatives de façon statistiquement significative. Dans nos<br />

conditions expérimentales, la qualité diagnostique de l’image comprimée est préservée .<br />

Globalement, les résultats de ces expériences sont très prometteurs car ils attestent que la <strong>compression</strong> est<br />

acceptable pour le travail du clinicien. Il existe un vaste champ d'applications de la <strong>compression</strong> pour les<br />

<strong>angiographies</strong> <strong>cardiaques</strong> en développant des algorithmes dédiés supérieurs <strong>aux</strong> standards, en identifiant à l’aide<br />

d’évaluations cliniques les limites d’application de des algorithmes standards ou dédiés.


TABLE DES MATIERES<br />

REMERCIEMENTS............................................................................................................. 8<br />

INTRODUCTION............................................................................................................... 18<br />

CADRE DE TRAVAIL ....................................................................................................... 24<br />

PARTIE I : COMPRESSION D'ANGIOGRAPHIES CARDIAQUES :<br />

PROBLEMES ALGORITHMIQUES ET ILLUSTRATION AVEC LA FULL-FRAME<br />

DCT 29<br />

CHAPITRE I-1 ETUDE BIBLIOGRAPHIQUE DES METHODES DE COMPRESSION<br />

D'IMAGES ................................................................................................................. 30<br />

1. Généralités sur la <strong>compression</strong> <strong>d'images</strong> ................................................................. 31<br />

1.1. Contraintes et applications d'un système de <strong>compression</strong>............................ 31<br />

1.2. Mesures de performance............................................................................... 32<br />

1.2.1. T<strong>aux</strong> de <strong>compression</strong>..................................................................... 32<br />

1.2.2.Entropie .......................................................................................... 32<br />

1.3. Mesures de distorsion ................................................................................... 33<br />

2. Principales méthodes de <strong>compression</strong> d'image........................................................ 34<br />

2.1. Classification des méthodes de <strong>compression</strong> ............................................... 34<br />

2.1.1. Méthodes avec ou sans perte........................................................ 34<br />

2.1.2. Méthodes par pixels, groupes de pixels, ou image entière ............ 34<br />

2.1.3. Méthodes intra- et inter- images .................................................... 34<br />

2.1.4. Méthodes adaptives, non adaptives .............................................. 35<br />

2.1.5. Méthodes spatiales et méthodes par transformation ..................... 35<br />

2.2. Méthodes sans perte..................................................................................... 45<br />

2.2.1. Méthodes différentielles et prédictives........................................... 35<br />

2.2.2. Méthodes par plages (Runlength coding) ...................................... 36<br />

2.2.3. Codeurs entropiques...................................................................... 36<br />

2.2.4. Méthodes par dictionnaire adaptif (Lempel-Ziv)............................. 38<br />

2.2.5. Codage arithmétique...................................................................... 38<br />

2.3. Méthodes avec pertes ................................................................................... 39<br />

2.3.1. Sous-échantillonnage .................................................................... 39<br />

2.3.2. Quantification scalaire.................................................................... 39<br />

2.3.3. Quantification vectorielle................................................................ 39<br />

2.3.4. Méthodes par transformation......................................................... 40<br />

2.3.5. Codage sous-bandes..................................................................... 44<br />

2.3.6. Ondelettes ..................................................................................... 45<br />

2.4. Autres méthodes ........................................................................................... 45<br />

2.4.1. Méthodes par contour.................................................................... 45<br />

2.4.2. Méthodes texturales....................................................................... 45<br />

2.4.3. Fractales ........................................................................................ 46<br />

2.5. Standard pour les images fixes : JPEG......................................................... 46<br />

2.5.1. Principes génér<strong>aux</strong> ........................................................................ 46<br />

2.5.2. Descriptif résumé et illustré de l'algorithme JPEG avec perte ....... 46<br />

2.6. Standard pour séquences <strong>d'images</strong> : MPEG................................................. 50<br />

2.6.1. Principes génér<strong>aux</strong> ........................................................................ 50


2.6.2. Descriptif résumé de l'algorithme MPEG ....................................... 51<br />

2.6.3. Princip<strong>aux</strong> artéfacts ....................................................................... 52<br />

2.7. Méthode développée par Philips : MLOT ...................................................... 53<br />

CHAPITRE I-2 GENERALITES SUR LES IMAGES MEDICALES ET ANGIOGRAPHIQUES :<br />

ACQUISITION, COMPRESSION ET STANDARDISATION..................... 56<br />

1. Compression des images médicales ........................................................................ 57<br />

1.1. Tendance en radiologie................................................................................. 57<br />

1.2. Tendance en cardiologie ............................................................................... 58<br />

2. Standards <strong>d'images</strong> médicales ................................................................................. 59<br />

2.1. Pourquoi un standard .................................................................................... 59<br />

2.2. Historique des standards ACR-NEMA et DICOM.......................................... 59<br />

2.3. DICOM et la <strong>compression</strong> ............................................................................. 59<br />

3. Standards médic<strong>aux</strong> et standards industriels ........................................................... 60<br />

4. Principe et particularité de l'angiographie cardiaque................................................. 61<br />

5. Quelques propriétés des images d'<strong>angiographies</strong> <strong>cardiaques</strong>.................................. 63<br />

CHAPITRE I-3 ALLOCATION DES BITS DANS LA TECHNIQUE FULL FRAME DCT .. 67<br />

1. Introduction ............................................................................................................... 68<br />

2. Coding of the DCT Coefficients ................................................................................ 69<br />

2.1. Full Frame DCT coding scheme.................................................................... 69<br />

2.2. Normalized DCT coefficents.......................................................................... 70<br />

2.3. Zonal splitting of the DCT plane .................................................................... 70<br />

2.4. Uniform optimal quantizer.............................................................................. 72<br />

2.5. Integer bit allocation ...................................................................................... 74<br />

2.6. Coding of the quantized DCT coefficients ..................................................... 75<br />

3. Experimental results and discussion......................................................................... 75<br />

3.1. Experiments................................................................................................... 75<br />

3.2. Discussion ..................................................................................................... 76<br />

3.3. Perspectives .................................................................................................. 78<br />

4. Conclusion ................................................................................................................ 78<br />

CHAPITRE I-4 COMPRESSION FULL FRAME DCT ET RENFORCEMENT DE CONTOUR<br />

80<br />

1. Introduction ............................................................................................................... 82<br />

2. Should the raw image or the processed image be compressed? ............................. 82<br />

2.1. Edge enhancement filtering of digital cardiac angiograms ............................ 82<br />

2.2. Edge enhancement after data <strong>compression</strong>.................................................. 84<br />

2.3. Edge enhancement before data <strong>compression</strong>............................................... 84<br />

2.4. integration of the edge enhancement in the <strong>compression</strong> /<br />

de<strong>compression</strong> process................................................................................. 85<br />

2.5. Integration of de-enhancement in the de<strong>compression</strong> scheme ..................<br />

by inverse filtering.......................................................................................... 86<br />

2.6. Improvement of the de-enhancement of compressed images ....................<br />

by regularization ............................................................................................ 86<br />

3. Full Frame DCT coding and directional quantization ................................................ 88<br />

3.1. Block Diagram ............................................................................................... 88<br />

3.2. Full Frame DCT and zonal splitting ............................................................... 88<br />

3.3. Bit allocation, quantization and coding .......................................................... 89<br />

4. Experimental results and discussion......................................................................... 90<br />

4.1. Results from simulations of the <strong>compression</strong> ................................................ 90<br />

4.2. Results on coded images .............................................................................. 91<br />

5. Conclusion ................................................................................................................ 93


CHAPITRE I-5 ETUDE THEORIQUE DE LA ROBUSTESSE DU QUANTIFICATEUR<br />

UNIFORME OPTIMUM ........................................................................... 96<br />

1. Introduction ............................................................................................................... 97<br />

2. Matched uniform quantizers with generalized Gaussian distributions....................... 99<br />

2.1. Notation ......................................................................................................... 99<br />

2.2. Mean Square Error of uniform quantizers with GG pdf................................ 100<br />

2.3. Minimum-MSE uniform quantizer ................................................................ 103<br />

2.4. Entropy of uniform quantizers with GG pdf.................................................. 105<br />

2.5. Entropy-constrained uniform quantizer with GG pdf.................................... 107<br />

3. Mismatched uniform quantizers .............................................................................. 109<br />

3.1. Mismatched relative to the shape................................................................ 109<br />

3.1.1. Minimum-MSE uniform quantizers............................................... 110<br />

3.1.2. Entropy-constrained uniform quantizers ...................................... 111<br />

3.2. Mismatch relative to the variance ................................................................ 112<br />

3.2.1. Minimum-MSE uniform quantizers............................................... 112<br />

3.2.2. Entropy-constrained uniform quantizers ...................................... 114<br />

4. Discussion and conclusion...................................................................................... 114<br />

CHAPITRE I-6 APPLICATION DE L'ETUDE DE LA ROBUSTESSE DU<br />

QUANTIFICATEUR UNIFORME A LA COMPRESSION D'IMAGES PAR<br />

FULL-FRAME-DCT ................................................................................ 116<br />

1. Introduction ............................................................................................................. 117<br />

2. Ensemble <strong>d'images</strong> test.......................................................................................... 117<br />

3. Méthode de <strong>compression</strong>........................................................................................ 118<br />

3.1. FFDCT......................................................................................................... 118<br />

3.2. Découpage circulaire................................................................................... 118<br />

3.3. Evaluation des paramètres de la distribution des régions ........................... 119<br />

3.4. Allocation marginale et quantificateur ‘midtread’ uniforme .......................... 122<br />

3.5. Calcul du t<strong>aux</strong> de <strong>compression</strong> ................................................................... 122<br />

4. Résultats ............................................................................................................... 122<br />

4.1. Apport du quantificateur optimisé par rapport au quantificateur<br />

non optimisé ................................................................................................ 122<br />

4.2. Vérification de la stabilité des caractéristiques statistiques des images<br />

d'une même séquence associée à la robustesse du quantificateur. ........... 125<br />

4.3. Quantificateur modélisé à partir d'un ensemble <strong>d'images</strong> :<br />

effet de la non-adaptation............................................................................ 126<br />

5. Discussion............................................................................................................... 130<br />

CHAPITRE I-7 CONCLUSION DE LA PARTIE COMPRESSION .................................. 131<br />

PARTIE II : EVALUATION DE LA QUALITE D'ANGIOGRAPHIES CARDIAQUES<br />

COMPRIMEES...........................................................................................136<br />

CHAPITRE II-1 ETUDE BIBILOGRAPHIQUE DES METHODES D'EVALUATION D'IMAGES<br />

COMPRIMEES ET PROPOSITION D'UNE NOUVELLE APPROCHE ADAPTEE<br />

AUX EXAMENS ANGIOGRAPHIQUES ................................................. 137<br />

1. Bibliographie sur l'évaluation <strong>d'images</strong> comprimées............................................... 138<br />

1.1. Introduction.................................................................................................. 138<br />

1.2. Liste des principales méthodes d'évaluation ............................................... 138<br />

1.3. Quantification objective de la qualité par mesures de type SNR................. 139


1.4. Appréciation visuelle subjective de la qualité d'image ................................. 139<br />

1.5. Indices diagnostics de la performance du couple observateur/test<br />

diagnostic ...................................................................................................... 141<br />

1.5.1. Notion de "gold standard" ............................................................ 141<br />

1.5.2. Indices diagnostics : sensibiliité, spécificité, PVP, PVN............... 141<br />

1.6. Fidilité diagnostique par la méthode ROC................................................... 142<br />

1.6.1. Historique..................................................................................... 142<br />

1.6.2. Principe........................................................................................ 143<br />

1.6.3. Etudes de <strong>compression</strong> <strong>d'images</strong> radiologiques à base<br />

de méthode ROC......................................................................... 145<br />

1.7. Fidélité diagnostique par d'autres méthodes ............................................... 145<br />

2. Protocole expérimental de nos évaluations diagnostiques ..................................... 146<br />

2.1. Choix du type d'examen .............................................................................. 146<br />

2.2. Tâche diagnostique ..................................................................................... 147<br />

2.2.1. Tâche d'interprétation visuelle uniquement.................................. 147<br />

2.2.2. Ventriculographie......................................................................... 147<br />

2.2.3. Coronarographie.......................................................................... 149<br />

2.3. Protocole expérimental................................................................................ 152<br />

3. Princip<strong>aux</strong> outils statistiques utilisés ....................................................................... 153<br />

3.1. Méthodologie basée sur la concordance..................................................... 153<br />

3.1.1. Type de concordances évaluées ................................................. 153<br />

3.1.2. Reproductibilité des observateurs dans l'interprétation ................<br />

de coronarographies..................................................................... 154<br />

3.2. Estimation statistique de la concordance .................................................... 155<br />

3.2.1. Concordance par test de kappa................................................... 155<br />

3.2.2. Coefficient de corrélation de concordance de Lin........................ 156<br />

3.2.3.Graphiques des différences en fonction des moyennes ............... 159<br />

3.2.4. Analyse de la variance................................................................. 159<br />

CHAPITRE II-2 PREMIERE ETUDE D'EVALUATION DIAGNOSTIQUE ....................... 161<br />

1. Introduction ............................................................................................................. 162<br />

2. Materials & methods ............................................................................................... 163<br />

2.1. Patient selection .......................................................................................... 163<br />

2.2. Image selection ........................................................................................... 163<br />

2.3. Image processing ........................................................................................ 163<br />

2.4. Observers and viewing sessions ................................................................. 164<br />

2.5. Diagnostic task ............................................................................................ 165<br />

3. Statistical analysis................................................................................................... 165<br />

3.1. Introduction.................................................................................................. 165<br />

3.2. Analysis of the LV interpretations ................................................................ 165<br />

3.3. Analysis of the coronary angiogram interpretations..................................... 166<br />

4. Results ............................................................................................................... 166<br />

4.1. Image quality judgements............................................................................ 166<br />

4.2. Left ventricle interpretations ........................................................................ 167<br />

4.2.1. Introduction .................................................................................. 167<br />

4.2.2. Inter-observer agreement ............................................................ 167<br />

4.2.3. Intra-observer agreement ............................................................ 169<br />

4.3. Coronary arteriogram interpretations........................................................... 170<br />

4.3.1. A score for coronary branches..................................................... 170<br />

4.3.2. Inter-observer agreement ............................................................ 171<br />

4.3.3. Intra-observer agreement ............................................................ 172<br />

5. Conclusion .............................................................................................................. 173<br />

CHAPITRE II-3 DEUXIEME ETUDE D'EVALUATION DIAGNOSTIQUE ....................... 175


1. Introduction ............................................................................................................. 176<br />

2. Methods ............................................................................................................... 177<br />

2.1. Angiography ................................................................................................ 177<br />

2.2. Images......................................................................................................... 178<br />

2.2.1. Images selection and transfer...................................................... 178<br />

2.2.2. Image treatments......................................................................... 178<br />

2.2.3. Film review................................................................................... 179<br />

2.3. Data collected during review........................................................................ 179<br />

2.3.1. Segment classification ................................................................. 179<br />

2.3.2. Scoring sheet............................................................................... 180<br />

2.4. Data analysis ............................................................................................... 180<br />

3. Results ............................................................................................................... 181<br />

3.1. Ventriculograms........................................................................................... 181<br />

3.1.1. Side by side comparisons (O-J-L)................................................ 181<br />

3.1.2. LV-gram quality and docs comments on perceptual quality......... 182<br />

3.1.3. Location of LV abnormalities ....................................................... 182<br />

3.1.4. Distribution of abnormalities per image treatment ...................... 183<br />

3.1.5. Agreement tables......................................................................... 183<br />

3.2. Arteriograms ................................................................................................ 184<br />

3.2.1. Side by side comparison (O-J-L) ................................................. 184<br />

3.2.2. Coronary arteriograms quality and comments ............................. 185<br />

3.2.3. Location of coronary arteries abnormalities ................................. 185<br />

3.2.4. Distribution of abnormalities per image treatment ....................... 186<br />

3.2.5. Differences of scores between image treatments........................ 186<br />

4. Discussion............................................................................................................... 188<br />

4.1. Major findings .............................................................................................. 188<br />

4.2. Discussion of issues related to the method ................................................. 189<br />

4.2.1. Interpretation of complete cases.................................................. 189<br />

4.2.2. Gold standard .............................................................................. 189<br />

4.2.3. Variability of observers' visual interpretation................................ 189<br />

4.3. Need for complementary studies................................................................. 190<br />

CHAPITRE II-4 MESURES QUANTITATIVES SUR LES IMAGES COMPRIMEES....... 191<br />

1. Etude bibliographique des méthodes d'analyse quantitative des coronaires.......... 192<br />

1.1. Brève description de l'analyse quantitative.................................................. 192<br />

1.2. Historique .................................................................................................... 192<br />

1.3. Système QCA des appareils Philips............................................................ 192<br />

1.4. Precision et limitations du système ............................................................. 194<br />

2. Méthodes pour tester un système QCA.................................................................. 195<br />

3. Trav<strong>aux</strong> de la littérature sur la QCA avec <strong>compression</strong>.......................................... 195<br />

4. Méthode de notre étude de QCA appliquée sur des images comprimées.............. 196<br />

4.1. Protocole expérimental................................................................................ 196<br />

4.2. Valeurs mesurées et analysées .................................................................. 197<br />

5. Résultats ............................................................................................................... 198<br />

5.1. Comparaisons inter-<strong>compression</strong>................................................................ 198<br />

5.1.1.Graphes des différences par rapport <strong>aux</strong> moyennes.................... 198<br />

5.1.2. Coefficient de concordance de Lin .............................................. 200<br />

5.2. Comparaisons intra-<strong>compression</strong>................................................................ 202<br />

5.2.1. Graphes des différences par rapport <strong>aux</strong> moyennes................... 202<br />

5.2.2. Coefficients concordance de Lin.................................................. 205<br />

5.2.3. Coefficient de variations............................................................... 205<br />

5.3. Analyse de la variance ................................................................................ 206<br />

6. Discussion............................................................................................................... 208


6.1. Résultats des analyses de données............................................................ 208<br />

6.2. Aspects méthodologiques du protocole expérimental ................................. 209<br />

6.3. Robustesse de la QCA à la <strong>compression</strong>.................................................... 209<br />

7. Conclusion .............................................................................................................. 209<br />

CHAPITRE II-5 CONCLUSION DE LA PARTIE EVALUATION ..................................... 210<br />

1. Objet des évaluations ............................................................................................. 211<br />

2. Qualité subjective.................................................................................................... 211<br />

2.1. Comparaison de JPEG, MPEG et MLOT .................................................... 211<br />

2.2. Visibilité de la présence de la <strong>compression</strong> selon les observateurs............ 211<br />

2.3. Effet des post-traitements ........................................................................... 212<br />

3. Evaluations diagnostiques ...................................................................................... 212<br />

3.1. Conditions expérimentales .......................................................................... 212<br />

3.2. Méthode statistique et variabilité des observateurs..................................... 212<br />

3.3. Princip<strong>aux</strong> résultats ..................................................................................... 213<br />

4. Evaluation QCA ...................................................................................................... 213<br />

5. Perpectives ............................................................................................................. 214<br />

BILAN ET PERSPECTIVES ........................................................................................... 215<br />

REFERENCES BIBLIOGRAPHIQUE ............................................................................. 219<br />

ANNEXE ............................................................................................................... 229<br />

Questionnaires diagnostics des évaluations


INTRODUCTION<br />

- 13 -


- 14 -


Problématique liée au remplacement du ciné-film<br />

Ce travail s'inscrit dans la perspective du remplacement du film de radio-cinéma, actuel support<br />

universel pour la visualisation et l'archivage des <strong>angiographies</strong> <strong>cardiaques</strong>, par un support<br />

entièrement numérique.<br />

L'angiographie cardiaque est une modalité d'imagerie cardiaque à base de rayons X qui permet<br />

de visualiser les cavités et les vaisse<strong>aux</strong> du cœur. Au cours d'un examen, un cathéter est<br />

introduit en général depuis l'aine et amené par le réseau vasculaire jusqu'<strong>aux</strong> ventricules ou à<br />

l'ostium (embouchure) des artères coronaires. D'où le nom de cathétérisme cardiaque donné à<br />

l'ensemble de cette procédure. Un produit de contraste opaque <strong>aux</strong> rayons X est injecté<br />

sélectivement alors qu'une séquence <strong>d'images</strong> est réalisée. On visualise ainsi l'anatomie de<br />

cavités et artères du cœur, tout en évaluant leur dynamique. On recherche principalement des<br />

défauts de contraction du ventricule gauche, et des rétrécissements ou sténoses des artères<br />

coronaires.<br />

L'angiographie cardiaque reste un examen invasif, pratiqué en dernier lieu pour compléter une<br />

série de tests afin de confirmer ou de poser un diagnostic et une thérapeutique. Cette série de<br />

tests comprend examens cliniques, ECG 1 d'effort, imagerie par médecine nucléaire,<br />

échocardiographie. Bien que l'imagerie par angiographie cardiaque ne soit pas d'une fiabilité<br />

absolue, elle est encore la référence pour juger de pathologies <strong>cardiaques</strong>, notamment pour les<br />

maladies coronaires. Cet examen revêt une importance capitale en occident notamment, où les<br />

maladies <strong>cardiaques</strong> sont une cause majeure de mortalité.<br />

Le film 35-mm présente des qualités qui ont établi dans les faits son statut de support standard.<br />

La qualité d'image est excellente, surtout en ce qui concerne la résolution spatiale: l'oeil est loin<br />

de pouvoir distinguer le plus petit détail disponible sur ce support argentique. La durabilité d'un<br />

film est inégalée: on peut encore visionner les examens réalisés <strong>aux</strong> tout débuts de<br />

l'angiographie cardiaque il y a plus de vingt ans. Le film de radio-cinéma est utilisé partout, ce<br />

standard est échangé entre les services cliniques des établissements hospitaliers, entre de<br />

nombreux établissements pour des recherches multi-centriques au niveau national ou<br />

international.<br />

Pourquoi remplacer un tel "étalon or"?<br />

L'archivage et la gestion des bobines de radio-cinéma 35-mm est toujours une difficulté pour<br />

les services hospitaliers concernés. Le film génère un coût non négligeable, dû au support<br />

vierge, au développement de type photographique (impliquant matériel et personnel), et au<br />

stockage. Ce coût est estimé à 100 dollars en moyenne par film <strong>aux</strong> Etats-Unis [NISS-94]. Le<br />

stockage demande espace et organisation. Bien que la durée légale pendant laquelle un film<br />

doive être conservé en France soit de dix ans, il n'est probablement pas évident pour tous les<br />

établissements de ressortir un examen après un tel laps de temps. Autre handicap, la<br />

duplication d'un film ne préserve pas sa qualité originale. Par conséquent, lorsqu’un service<br />

envoie un film à un autre, il ne dispose plus de son archive sur le patient.<br />

Les techniques d'imagerie numérique ont fait leur entrée il y a dix ans déjà dans les salles de<br />

cathétérisme. L'apport de ces techniques a été considérable. Tout d'abord les traitements<br />

numériques permettent d'améliorer la visibilité des vaisse<strong>aux</strong> et facilitent l'interprétation des<br />

images. Bien que la résolution spatiale d'une image numérique soit inférieure à celle d'un film<br />

35-mm, le gain en résolution de contraste rehausse nettement la qualité diagnostique.<br />

Deuxième point, des logiciels de mesure apportent une information plus précise qu'avant sur la<br />

contractilité du muscle cardiaque et la taille des vaisse<strong>aux</strong>, grâce à des calculs basés sur les<br />

pixels. Troisième point, l'avènement des images numériques et de leur corollaire le temps réel<br />

1 ECG: ElectroCardioGramme<br />

- 15 -


a permis l'essor de procédures interventionnelles, dont les fameux "ballonnages" ou<br />

angioplasties. La possibilité de visionner de nouveau immédiatement une séquence, d’agrandir<br />

(zoom) un vaisseau permet de juger instantanément du résultat après le gonflage d'un<br />

ballonnet. Quatrième point, la duplication d'une image numérique est parfaite. Enfin, on<br />

commence à bénéficier des technologies liées <strong>aux</strong> autoroutes de l'information pour transmettre<br />

les images d'un service ou d'un site hospitalier à un autre (télé-cardiologie). L'intérêt d'un<br />

archivage numérique est certain, et les cardiologues envisagent tout naturellement de travailler<br />

sans film dès que possible.<br />

Apport de l’angiographie cardiaque numérique<br />

Le support final des <strong>angiographies</strong> reste encore souvent aujourd'hui le film de radio-cinéma.<br />

L'intérêt d'une solution entièrement numérique est incontesté. Cependant, on atteint les limites<br />

des technologies actuelles, du moins à des coûts acceptables. Il y a deux pierres<br />

d'achoppement. La première réside dans la capacité des disques informatiques. Un examen<br />

typique d'angiographie cardiaque comprend au minimum une douzaine de séquences pour voir<br />

le ventricule gauche et les artères coronaires sous différents angles. Réalisées à 12,5 ou 25<br />

images par secondes (15 ou 30 im/sec <strong>aux</strong> Etats-Unis), afin de suivre la dynamique cardiaque,<br />

l'ensemble de ces séquences totalise facilement 2000 à 3000 images, pour un seul examen.<br />

En terme d'espace disque, cela correspond à 500 à 800 MO (Mega-octets), avec le format<br />

habituel <strong>d'images</strong> de 512x512 pixels codés sur 8 bits. Sur un système d'angiographie<br />

numérique, on arrive maintenant à stocker le travail d’un à quelques jours. Ensuite, au fur et à<br />

mesure que la journée avance, les premiers examens sont écrasés. Deuxième difficulté<br />

technologique vis à vis d'une solution numérique: la visualisation dynamique. Pour visualiser de<br />

nouveau un examen à la cadence nécessaire, il faut disposer d’une rapidité d’accès au médium<br />

de stockage (à travers un réseau, ou sur un support comme le CD) qui n’est pas encore<br />

possible sur les images brutes dans l’état actuel de la technologie.<br />

Intérêt de la <strong>compression</strong> d’image<br />

Pour contourner les deux difficultés technologiques majeures posées par l'archivage numérique<br />

des <strong>angiographies</strong> <strong>cardiaques</strong>, à savoir la capacité de stockage et la visualisation à cadence<br />

élevée sur des supports standards tels que le CD ou à travers des rése<strong>aux</strong> informatiques, une<br />

solution s'impose: la <strong>compression</strong> d'image.<br />

Par des techniques combinant des recettes astucieuses avec des théories mathématiques<br />

avancées, on parvient à réduire l'espace disque nécessaire à une image. On stocke un<br />

ensemble binaire codé. Avant de pouvoir visualiser l'image, il faut lui appliquer le processus<br />

inverse pour obtenir à nouveau un ensemble de pixels visibles. Le processus ou l'algorithme<br />

permettant de passer des pixels origin<strong>aux</strong> à un ensemble binaire codé correspondent à l'étape<br />

de <strong>compression</strong> d'image; le processus ou l'algorithme permettant de retrouver ensuite une<br />

image sous forme de pixels correspond à l'étape de dé<strong>compression</strong>. En toute rigueur, l'image<br />

comprimée (appelée aussi compressée) est un ensemble binaire codé, et l'image décomprimée<br />

(ou décompressée) est l'ensemble de pixels que l'on a reconstruit à partir de l'ensemble binaire<br />

codé. Dans la pratique, on parle souvent d'image comprimée pour désigner une image qui a<br />

subi les deux étapes de <strong>compression</strong> et dé<strong>compression</strong>.<br />

On distingue deux types de <strong>compression</strong> de donnée, selon qu'il est possible ou non de<br />

retrouver exactement l'information de départ: la <strong>compression</strong> sans perte, et la <strong>compression</strong><br />

avec perte.<br />

La <strong>compression</strong> sans perte est complètement réversible, aucune perte d’information n’est<br />

introduite par les processus de <strong>compression</strong>/dé<strong>compression</strong>. Les t<strong>aux</strong> de <strong>compression</strong> que l’on<br />

peut atteindre sont limités. Pour les images médicales, ils sont de l’ordre de 2 à 3:1 [ROOS-91].<br />

Un t<strong>aux</strong> de <strong>compression</strong> de 2:1 correspond à une réduction par un facteur 2 de l’espace disque<br />

occupé par l’image.<br />

- 16 -


La <strong>compression</strong> avec perte introduit une distorsion irréversible. Elle seule permet d’atteindre les<br />

t<strong>aux</strong> de <strong>compression</strong> important. Selon la méthode de <strong>compression</strong>, selon les propriétés de<br />

l’image de départ, selon le t<strong>aux</strong> de <strong>compression</strong>, la distorsion est plus ou moins importante, et<br />

plus ou moins visible.<br />

L'idée de la <strong>compression</strong> avec perte commence à pouvoir être évoquée devant la communauté<br />

médicale; elle n'était pas du tout acceptée lorsque ce travail a commencé. La crainte d’une<br />

perte d’information diagnostique constituait un frein psychologique et légal majeur. La présente<br />

thèse fait partie des trav<strong>aux</strong> montrant qu’une perte d’information au sens technique n’est pas<br />

forcément associée à une perte de qualité au sens diagnostic.<br />

Cahier des charges du projet dans lequel s’insère le présent travail<br />

Le présent travail s’inscrit dans le cadre d’un projet multidisciplinaire coordonné par une équipe<br />

de recherche de la Société Philips Medical Systems <strong>aux</strong> Pays-Bas. De ce fait, les images<br />

utilisées dans nos trav<strong>aux</strong> proviennent de systèmes d’angiographie cardiaque numérique<br />

Philips. Le projet a porté sur la mise au point de méthodes de <strong>compression</strong> appropriées <strong>aux</strong><br />

examens d’angiographie cardiaque, et sur leur validation dans des conditions cliniques. Dans<br />

l’absolu, les images comprimées avec la ou les méthodes retenues devaient pouvoir remplacer<br />

complètement les images originales. Le but ultime était de réaliser une <strong>compression</strong> temps réel<br />

pendant l’acquisition.<br />

Le cahier des charges de la méthode de <strong>compression</strong> était le suivant:<br />

- possibilité de contrôler avec précision le t<strong>aux</strong> de <strong>compression</strong>, afin que chaque image occupe<br />

un espace disque fixe et connu à l’avance<br />

- possibilité d’accéder à chaque image individuellement<br />

- obtention d’une qualité visuelle propice au diagnostic pour un t<strong>aux</strong> de 8 à 12:1<br />

- absence d’artefacts de blocs tels que ceux introduits par les standards JPEG et MPEG<br />

- robustesse visuelle <strong>aux</strong> post-traitements, notamment à un traitement de renforcement de<br />

contours employé en angiographie cardiaque<br />

- possibilité de réaliser l’algorithme de <strong>compression</strong> en hardware<br />

Le cahier des charges de la validation clinique était le suivant:<br />

- évaluer la qualité visuelle (cosmétique)<br />

- évaluer si l’interprétation diagnostique visuelle reste inchangée avec la <strong>compression</strong><br />

- évaluer si le résultat des mesures quantitatives reste inchangé avec la <strong>compression</strong><br />

- comparer les performances d’algorithmes dédiés (mis au point durant ce projet), et<br />

d’algorithmes standards tels que JPEG et MPEG.<br />

Objet de nos trav<strong>aux</strong><br />

Nos trav<strong>aux</strong> sont constitués de deux parties principales. La première partie traite de notre<br />

contribution en matière d’algorithme de <strong>compression</strong>. La deuxième partie traite de nos études<br />

d’évaluation diagnostique, sur lesquelles a porté une part majoritaire de nos efforts.<br />

Le travail de <strong>compression</strong> a essentiellement visé à élucider des aspects algorithmiques<br />

origin<strong>aux</strong>, selon des questions suscitées par les particularités des images d’angiographie<br />

cardiaque. La mise au point d’une méthode complète n’a pas été l’objectif principal, compte<br />

tenu du temps à consacrer <strong>aux</strong> études d’évaluation.<br />

Nous avons choisi d’illustrer les aspects algorithmiques que nous avons développés en<br />

travaillant dans le cadre d’une méthode de <strong>compression</strong> par transformation à base de Full-<br />

Frame DCT. Cette méthode proposée dans le domaine médical par [LO-85] et [CHAN-89]<br />

présentait au début de nos trav<strong>aux</strong> (c’est à dire en 1991) plusieurs avantages:<br />

- absence d’artefacts de bloc du fait du traitement pleine image (Full-Frame)<br />

- 17 -


- possibilité d’intégrer les post traitements dans le processus de <strong>compression</strong><br />

- faculté d’utiliser une adaptation au système visuel humain<br />

- existence d’un hardware performant ([HO-91]).<br />

Les résultats sur les aspects algorithmiques de <strong>compression</strong> abordés dans cette thèse ont une<br />

portée plus générale que leur simple application à la <strong>compression</strong> par Full-Frame DCT. Ils<br />

peuvent aisément être étendus, à d’autres méthodes par transformation notamment.<br />

Le travail d’évaluation a consisté en plusieurs études. Les algorithmes évalués ont été: les<br />

standards JPEG et MPEG, et une méthode mise au point par les laboratoires du groupe<br />

Philips, dénotée MLOT. Malheureusement, nous n’avons pas pu inclure les images<br />

comprimées par Full-Frame DCT dans ces campagnes, pour des raisons pratiques.<br />

Nous avons réalisé trois campagnes d’évaluation: deux campagnes à partir de l’interprétation<br />

visuelle diagnostique (dénotées “évaluations diagnostiques”), et une campagne à partir de<br />

mesures quantitatives assistées par logiciel (dénotée “évaluation QCA 2 ”).<br />

Contenu de ce mémoire<br />

En préliminaire, nous présenterons le contexte général de notre thèse. Celle-ci a été réalisée<br />

dans le cadre d’une convention Cifre avec la Société Philips Systèmes Médic<strong>aux</strong> et le<br />

Laboratoire Creatis. Les équipes industrielles, universitaires et hospitalières impliquées dans<br />

nos études seront brièvement présentées dans ce chapitre.<br />

La première partie de ce mémoire est consacrée au thème de la <strong>compression</strong>. Elle comprend<br />

plusieurs chapitres.<br />

Une revue des méthodes de <strong>compression</strong> d’image sera donnée dans le chapitre II-1. On y<br />

abordera des notations, et des notions générales telles que les mesures de performance et de<br />

distorsion. On y trouvera une explication du mécanisme des principales méthodes de<br />

<strong>compression</strong> existantes, avec un peu plus de détail sur les méthodes que nous avons étudiées<br />

ou utilisées. Le chapitre II-2 abordera des généralités sur les images médicales numériques,<br />

sur les <strong>angiographies</strong> <strong>cardiaques</strong>, et évoquera les avantages et les inconvénients associés <strong>aux</strong><br />

formats d’images standards, que se soit les formats médic<strong>aux</strong> tels que DICOM, ou les formats<br />

de l’industrie de l’image tels que JPEG.<br />

Les quatre chapitres suivants seront consacrés à nos développements en matière de<br />

quantification et de <strong>compression</strong> à base de Full-Frame DCT. Le premier thème est l’allocation<br />

de bits (chapitre I-3). Une fois l’image transformée par Full-Frame DCT, une stratégie de<br />

répartition des bits doit être réalisée. Le deuxième thème est la combinaison <strong>compression</strong> et<br />

renforcement (chapitre I-4). Le renforcement de contour a pour inconvénient de renforcer les<br />

artefacts de <strong>compression</strong>, pas seulement par le bord des vaisse<strong>aux</strong>! Nous aborderons des<br />

stratégies pour minimiser cet inconvénient. Nous verrons aussi comment il est possible de faire<br />

d’une pierre deux coups, en effectuant le renforcement au cours du processus de <strong>compression</strong>.<br />

Le troisième thème est celui de l’adaptativité du quantificateur (chapitre I-5). Le quantificateur<br />

étudié est le quantificateur scalaire uniforme. Nous avons mené une étude théorique de<br />

l’impact d’une mauvaise adaptation des paramètres utilisés dans le quantificateur par rapport<br />

<strong>aux</strong> paramètres de la distribution réelle du signal à quantifier. Nous avons validé cette étude<br />

théorique par une expérimentation à partir d’images (chapitre I-6). Pour finir, le chapitre I-7<br />

donnera une synthèse sur la partie <strong>compression</strong>.<br />

La deuxième partie de ce mémoire est consacrée à l'évaluation. Elle comprend elle aussi<br />

plusieurs chapitres.<br />

Le chapitre II-1 est une analyse bibliographique sur les méthodes d’évaluation de la qualité<br />

cosmétique et diagnostique d’images comprimées. Nous y expliquons aussi en quoi consistent<br />

les tâches d’interprétations visuelles qui conduisent à un diagnostic sur les examens<br />

2 QCA: de l’anglais Quantitative Coronary Analysis<br />

- 18 -


d’<strong>angiographies</strong> <strong>cardiaques</strong>. Nous avons mis au point un protocole expérimental et une analyse<br />

statistique qui s’adapte au plus près à ces tâches cliniques.<br />

Les chapitres II-2 et II-3 décrivent les deux campagnes d’évaluation diagnostiques (méthode,<br />

résultats et discussions). Il a été demandé à des experts médic<strong>aux</strong> d’effectuer une<br />

interprétation visuelle sur des <strong>angiographies</strong> <strong>cardiaques</strong> originales et comprimées. Cette<br />

interprétation consiste à trouver et classifier des anormalités sur les segments de ventricule<br />

gauche et sur les segments de coronaires. Nous avons cherché à quantifier statistiquement le<br />

degré d’accord entre les interprétations sur les images originales et comprimées, et à évaluer si<br />

cet accord est significativement modifié par la <strong>compression</strong>.<br />

La première évaluation diagnostique s’est déroulée à l’Hôpital Cardiologique de Lille, avec les<br />

méthodes MPEG et MLOT, à un t<strong>aux</strong> de 12:1. Nous avons comparé les interprétations visuelles<br />

de deux cardiologues sur des examens d’angiographie origin<strong>aux</strong> et comprimés.<br />

La deuxième évaluation subjective s’est déroulée au Hermann Hospital à Houston (Texas,<br />

USA), avec les méthodes JPEG et MLOT, à un t<strong>aux</strong> de 12:1. Nous avons comparé les<br />

interprétations visuelles de quatre cardiologues sur des examens d’angiographie origin<strong>aux</strong> et<br />

comprimés.<br />

Le chapitre II-4 est consacré à l’évaluation QCA. Nous y introduirons la méthode de mesure sur<br />

laquelle a porté l’étude. Nous résumerons les rares trav<strong>aux</strong> d’évaluation de <strong>compression</strong> et<br />

QCA. Nous expliquerons notre protocole expérimental, les outils statistiques utilisés, donnerons<br />

les résultats et leur interprétation. La campagne d'évaluation QCA s'est déroulée à l'AZL de<br />

Leiden.<br />

Le chapitre II-5 est une synthèse sur l’évaluation.<br />

Une synthèse et conclusion générale terminera ce mémoire.<br />

- 19 -


CADRE DE TRAVAIL<br />

- 20 -


- 21 -


Cadre général<br />

Ce travail de thèse a été réalisé dans le cadre d’une convention CIFRE impliquant le<br />

Laboratoire CREATIS et la Société Philips Systèmes Médic<strong>aux</strong>. Les études présentées dans ce<br />

mémoires s’insèrent dans un projet de recherche industrielle piloté depuis les Pays-Bas par le<br />

groupe Pre-Development de la division Cardio-Vasculaire internationale de la Société Philips<br />

Medical Systems (PMS). Le but du projet est de tester dans des conditions cliniques l’effet de<br />

la <strong>compression</strong> d’images sur des <strong>angiographies</strong> <strong>cardiaques</strong>. Les méthodes de <strong>compression</strong><br />

concernées sont des standards existants et des méthodes développées spécifiquement. Les<br />

retombées attendues concernent la réalisation de systèmes d’angiographie cardiaque<br />

complètement digit<strong>aux</strong>, ce qui reste un défi technologique pour le stockage et la communication<br />

des images compte tenu de la taille et du nombre d’images par examen.<br />

Pour réaliser les objectifs fixés, il a été nécessaire de s’insérer dans un contexte<br />

pluridisciplinaire de médecins et d’ingénieurs. Afin de diversifier les sources d’images et de<br />

pouvoir consulter les experts de plusieurs centres, une coopération avec plusieurs sites a été<br />

mise en place:<br />

• le Laboratoire Creatis pour des questions algorithmiques en <strong>compression</strong> d’image<br />

appliquées <strong>aux</strong> <strong>angiographies</strong> <strong>cardiaques</strong>, et pour la mise au point des protocoles<br />

d’évaluation.<br />

• le Laboratoire de Recherche NatLab du groupe Philips <strong>aux</strong> Pays-Bas où a été mis au point<br />

un algorithme spécifique testé dans la cadre de la présente thèse, appelé MLOT<br />

• l’Hôpital Cardiologique de Lyon pour des études pilotes d’évaluation clinique d’images<br />

comprimées<br />

• l’Hôpital Cardiologique de Lille pour une campagne d’évaluation portant sur deux méthodes<br />

de <strong>compression</strong> (le standard MPEG et la méthode spécifique MLOT)<br />

• le Hermann Hospital et l’Université du Texas à Houston pour une campagne d’évaluation<br />

portant sur deux méthodes de <strong>compression</strong> (le standard JPEG et la méthode spécifique<br />

MLOT)<br />

• l’AZL de Leiden <strong>aux</strong> Pays-Bas pour une campagne de mesures quantitatives sur des images<br />

comprimées par deux méthodes (le standard JPEG et la méthode spécifique MLOT)<br />

Convention CIFRE<br />

Le système des conventions CIFRE a été mis au point par le Ministère de la Recherche<br />

français en vue de faciliter les coopérations entre les laboratoires publiques de recherche et les<br />

entreprises privées. Les conventions CIFRE sont gérées par l’Association Nationale pour la<br />

Recherche Technique (ANRT) et comprennent trois partenaires: un laboratoire universitaire de<br />

recherche, un industriel, et un étudiant en thèse. L’étudiant effectue sa thèse dans le cadre du<br />

laboratoire, tout en étant salarié de l’entreprise. Un contrat de coopération lie le laboratoire et<br />

l’entreprise. L’entreprise prend des engagements vis à vis de l’ANRT et de l'étudiant, et perçoit<br />

une subvention pour couvrir une partie des dépenses salariales de celui-ci.<br />

Laboratoire Creatis<br />

Le laboratoire CREATIS (Centre de REcherche et d’Applications en Traitement de l’Image et<br />

du Signal) est une Unité Mixte de Recherche du Centre National de la Recherche Scientifique:<br />

l’UMR 5515. L’ancienne appellation de cette unité était au début de ce travail: Laboratoire de<br />

Traitement du Signal et des Ultra-Sons (LTSU). Creatis est affilié à l’Institut National de la<br />

Santé et de la Recherche Médicale. Le laboratoire dépend de l’Institut National des Sciences<br />

Appliquées (INSA) de Lyon, et de l’Université Claude Bernard de Lyon. L’unité comprend une<br />

soixantaine de chercheurs à temps complet ou partiel, ainsi qu’une dizaine de membres de<br />

personnel technique. Les membres de Creatis se répartissent sur deux sites: l’INSA et l’Hôpital<br />

Neuro-Cardiologique Louis-Pradel.<br />

- 22 -


La spécificité de Creatis est de réunir au sein d’une même unité des chercheurs en sciences de<br />

la vie (radiologues, cardiologues, vétérinaires), et des chercheurs en sciences pour l’ingénieur<br />

(informaticiens, mathématiciens appliqués...).<br />

Les sujets de recherches sont principalement axés autour du traitement de l’image appliqué<br />

<strong>aux</strong> images médicales. Les trav<strong>aux</strong> sont organisés en thèmes scientifiques (axes de<br />

recherche), et projets médic<strong>aux</strong> (applications médicales spécifiques).<br />

Les thèmes scientifiques de l’unité sont:<br />

• Imagerie Dynamique,<br />

• Imagerie Volumique,<br />

• Formation de l’Image Ultrasonore.<br />

Les projets médic<strong>aux</strong> sont:<br />

• Imagerie fonctionnelle de l’ischémie myocardique<br />

• Imagerie morphologique et fonctionnelle des vaisse<strong>aux</strong><br />

• Radiologie quantitative de la structure osseuse: structure du réseau trabéculaire<br />

• Traitement des images IRM de sclérose en plaques: corrélation avec le retentissement<br />

fonctionnel<br />

• Aide au diagnostic des pathologies du sein.<br />

Société Philips Medical Systems<br />

La Société Philips Medical Systems est l’un des grands constructeurs mondi<strong>aux</strong> d’imagerie<br />

médicale. Sa gamme de produits comprend les systèmes de radiologie conventionnels et<br />

numériques, la scanographie, la résonance magnétique, l'échographie. Les systèmes vers<br />

lesquels le présent travail est principalement orienté sont les systèmes d’angiographie<br />

cardiaque. Philips est leader mondial dans ce domaine avec un parc d’environ 2000 machines<br />

installées, soit 40% du total.<br />

Philips Medical Systems est une division du groupe Philips, dont le siège est à Eindhoven <strong>aux</strong><br />

Pays-Bas. Le groupe Philips compte environ 230000 personnes et PMS environ 9000.<br />

La structure française de PMS a principalement une activité de vente et après-vente. Dans le<br />

cadre d’études et de recherche avec des établissements hospitaliers, l’organisation nationale<br />

procure un support technique et logistique, ce qui a typiquement été le cas pour le bon<br />

déroulement de nos expériences pilotes et campagnes d’évaluation réalisées en France. PMS<br />

France est le partenaire industriel de cette convention Cifre.<br />

La totalité du projet de <strong>compression</strong> a été pilotée par le groupe "Pre-Development X-Ray" de<br />

PMS à Best, près de Eindhoven, <strong>aux</strong> Pays-Bas. Le site de Best, compte environ 2000<br />

personne. Il abrite le siège de PMS et l’un des centres importants de fabrication, notamment<br />

des gammes de radiologie numérique. Le groupe "Pre-Development X-Ray" s’occupe de tout<br />

projet en amont du développement, c’est à dire de la mise au point et de l’évaluation de<br />

nouvelles technologies ayant un potentiel d’application dans les futurs produits. La mise au<br />

point et le test de méthodes de <strong>compression</strong>, l’évaluation du potentiel technologique et médical<br />

de ces méthodes fait typiquement partie de ses activités. Au début de ce travail, ce groupe<br />

comptait environ 8 personnes. Il en compte aujourd’hui une vingtaine, plus quelques élèves<br />

ingénieurs en stage.<br />

Le laboratoire NatLab est l’un de cinq laboratoires de recherche du groupe Philips. Il est situé à<br />

Eindhoven. Une de ses équipes, le groupe Digital Signal Processing développe de nouvelles<br />

applications pour les systèmes de communications audio et vidéo. Par exemple, il a mis au<br />

point la <strong>compression</strong> utilisée par Philips en télévision haute définition et pour les cassettes<br />

DCC. PMS a impliqué ce groupe dans le développement d’un algorithme de <strong>compression</strong><br />

- 23 -


adapté <strong>aux</strong> images médicales, avec comme principale application l’angiographie cardiaque. Ce<br />

travail a débouché sur l’algorithme MLOT qui a fait l’objet des évaluations présentées dans ce<br />

mémoire.<br />

La structure de PMS <strong>aux</strong> USA a également été impliquée pour coordonner les contacts avec<br />

des équipes hospitalo-universitaires. Il était prévu au début du projet de participer à une étude<br />

multi-centrique en radiologie pilotée par l’UCLA et utilisant une méthode de <strong>compression</strong> à<br />

base de Full-Frame DCT. Cette étude n’a finalement pas vu le jour. En revanche, PMS-USA a<br />

procuré son soutien pour l’évaluation que nous avons réalisé à Houston.<br />

Hôpital Cardiologique de Lille<br />

L’hôpital Cardiologique de Lille fait partie de la dizaine d’hôpit<strong>aux</strong> français dont les soins sont<br />

dédiés uniquement à cette spécialité. Notre première campagne d’évaluation diagnostique s’y<br />

est déroulée, au sein du Département d’Hémodynamique. Ce service compte trois salles<br />

d’<strong>angiographies</strong> <strong>cardiaques</strong>, dont deux numériques. Il réalise 3500 examens d’<strong>angiographies</strong><br />

<strong>cardiaques</strong> par an, dont 1000 interventions. Ces examens sont réalisés par une équipe<br />

d’environ six cardiologues à pleins temps, et de nombreux vacataires. L’activité de recherche<br />

clinique de ce centre est très intense et implique chacun des membres du personnel. Cette<br />

particularité a été très propice au bon déroulement de notre étude et de projets corollaires qui<br />

se sont déroulés durant mon séjour à Lille. Les thèmes de recherche sont axés autour du<br />

diagnostic et du traitement des maladies coronariennes. Ils concernent les nouve<strong>aux</strong> dispositifs<br />

d’imagerie, le matériel interventionnel, les traitements médicamenteux associés <strong>aux</strong> prothèses<br />

endo-vasculaires... Le Département d’Hémodynamique est “core laboratory” dans de nombreux<br />

protocoles de recherche clinique multi-centriques impliquant des mesures quantitatives sur les<br />

films d’<strong>angiographies</strong>.<br />

Hermann Hospital / University of Texas<br />

Le Hermann Hospital de Houston <strong>aux</strong> Etats-Unis est un hôpital privé à but non lucratif. Il est<br />

situé dans le plus grand complexe médical des USA, appelé le Texas Medical Center (un<br />

conglomérat d’établissements hospitaliers dont la densité et la taille nous sont inconnus en<br />

Europe). Il est le centre de formation (“teaching hospital”) pour l’University of Texas Medical<br />

School. Le centre d’hémodynamique (“cath lab”) compte trois salles d’<strong>angiographies</strong><br />

<strong>cardiaques</strong> et réalise environ 1200 examens par ans. Une équipe de médecins est responsable<br />

du service médical en même temps que de l’activité de formation et de recherche. Les thèmes<br />

princip<strong>aux</strong> d’investigations concernent le diagnostic et le traitement de l’infarctus du myocarde<br />

et de l’angor instable. Les activités de recherche concernent les développements et l’évaluation<br />

de nouvelles modalités d’imagerie, et développement et l’évaluation de médicaments, de<br />

matériels interventionnels.<br />

AZL de Leiden<br />

Le “Laboratory for Clinical Experimental Image Processing” (abréviation hollandaise: LKEB) fait<br />

partie de l’Hôpital Universitaire de Leiden (abréviation hollandaise: AZL). Il est constitué d’une<br />

équipe d’une trentaine de personnes de formation scientifique et technique. Ses axes de<br />

recherche et développement concernent le traitement d’image en radiologie et cardiologie. Sa<br />

spécialité concerne les logiciels d’analyse quantitative en angiographie <strong>cardiaques</strong>. Les<br />

logiciels de mesures quantitatives des ventricules gauches et des artères coronaires<br />

disponibles sur les systèmes Philips ont été mis au point et évalués par le LKEB. Les autres<br />

thèmes d’analyse quantitative étudiés concernent par exemple la résonance magnétique et<br />

les ultrasons.<br />

- 24 -


PARTIE I<br />

Compression d’<strong>angiographies</strong><br />

<strong>cardiaques</strong>:<br />

problèmes algorithmiques et illustration<br />

avec la Full-Frame DCT<br />

- 29 -


CHAPITRE I-1<br />

ETUDE BIBLIOGRAPHIQUE DES<br />

METHODES DE COMPRESSION<br />

D’IMAGES<br />

- 30 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

1. Généralités sur la <strong>compression</strong> d’images<br />

1.1. Contraintes et applications d’un système de <strong>compression</strong><br />

La <strong>compression</strong> d’une image numérique permet de réduire le nombre de bits qu’elle<br />

occupe. Les deux principes qui interviennent pour atteindre cet objectif sont la réduction<br />

de la redondance (n'introduisant pas de perte), et la représentation approximative de<br />

l’information contenue dans l’image (introduisant une perte).<br />

Une image numérique est une matrice composée d’échantillons élémentaires appelés<br />

pixels (1) . Nous appellerons M le nombre de lignes de l’image, et N le nombre de colonnes.<br />

La position d’un pixel sur la matrice image sera indiquée par son indice de ligne m∈[0,M[,<br />

et son indice de colonne n∈[0,N[. A chaque pixel d’une image monochrome est associé<br />

une valeur numérique à laquelle correspond un niveau de gris. En général, le nombre de<br />

nive<strong>aux</strong> de gris est une puissance de deux. Par exemple, une image dont les pixels ont<br />

des nive<strong>aux</strong> de gris représentés avec des nombres allant de 0 à 255, soit 256 valeurs<br />

possibles, est codée sur 8 bits par pixel (bpp (2) ). Notons que par convention le niveau de<br />

gris ‘0’ correspond à du noir, et le niveau ‘255’ à du blanc. Le nombre de bits par pixels R<br />

(3) est appelé ‘débit’. On notera R o le débit de l’image originale avant <strong>compression</strong>, et R c<br />

son débit après <strong>compression</strong>.<br />

L’image originale est une matrice de pixels qui occupe au total:<br />

B o =M.N.R o bits.<br />

L’image comprimée est une suite de bits qui occupe B c bits. On voit que R c = Bc ( M. N)<br />

correspond au nombre de bits moyens ramené au nombre de pixels. Cependant l’image<br />

comprimée n’est généralement pas physiquement composée de pixels. La dé<strong>compression</strong><br />

est nécessaire pour représenter l'image décomprimée sous forme de pixels visibles.<br />

L’image décomprimée occupe alors la même place que l’image originale soit B o bits, mais<br />

elle peut avoir subi une distorsion due à la <strong>compression</strong>. Par abus de langage, nous<br />

appellerons souvent par la suite ‘image comprimée’ une image qui aura en réalité subi<br />

successivement l’opération de <strong>compression</strong> et l’opération inverse de dé<strong>compression</strong>.<br />

La <strong>compression</strong> d’images peut s’employer avec des contraintes et des attentes très<br />

différentes, selon l’utilisation à laquelle les images sont destinées. On peut vouloir réduire<br />

le nombre de bits d’une image avec une contrainte sur la capacité de stockage, la vitesse<br />

de transmission, le temps d’accès depuis un médium de stockage, etc... On peut prévoir<br />

d’utiliser l’image décomprimée pour des applications de loisir, du traitement d’image, de la<br />

recherche visuelle rapide dans une base <strong>d'images</strong>, du diagnostic médical, etc...<br />

Toute la problématique de la <strong>compression</strong> d’image consiste à satisfaire les<br />

contraintes technologiques, techniques ou financières <strong>aux</strong>quelles on est confronté,<br />

tout en obtenant la qualité requise de l'image décomprimée pour l’application<br />

désirée.<br />

1 pixel : abréviation de l’anglais "picture element"<br />

2 bpp : abréviation de "bit par pixel"<br />

3 R : de l'anglais "rate", débit<br />

- 31 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

1.2. Mesures de performance<br />

1.2.1. T<strong>aux</strong> de <strong>compression</strong><br />

En plus du débit R c , une mesure courante pour déterminer le degré de <strong>compression</strong><br />

obtenu est le t<strong>aux</strong> de <strong>compression</strong> CR (1) . Il est défini par:<br />

CR =<br />

nombre de bits de l'image originale<br />

nombre de bits de l'image comprimée =<br />

R<br />

R<br />

o<br />

c<br />

(I-1.1)<br />

Pour une même méthode de <strong>compression</strong> et un même CR réalisés sur des images<br />

distinctes, la qualité obtenue peut être très variable d’une image à l’autre. Les propriétés<br />

statistiques des images originales jouent un rôle prépondérant dans le résultat obtenu.<br />

Par exemple avec une image sur-échantillonnée, donc très redondante, il est facile<br />

d’obtenir des t<strong>aux</strong> élevés. La théorie de l’information donne une limite théorique au CR<br />

maximal qu’il est possible d’obtenir sans distorsion pour toute méthode de <strong>compression</strong><br />

sur une image donnée.<br />

1.2.2. Entropie<br />

L’entropie est une grandeur qui caractérise la quantité d’information que contient une<br />

image. Par exemple une image dont tous les pixels ont la même valeur contient très peu<br />

d’information car elle est extrêmement redondante, son entropie est faible. En revanche,<br />

une image dont tous les pixels ont une valeur aléatoire contient beaucoup d’information,<br />

son entropie est forte. Ceci est comparable à l’entropie en thermodynamique qui croit<br />

avec le désordre.<br />

En pratique, l’entropie d’une image numérique est inversement liée à la probabilité<br />

d’apparition des nive<strong>aux</strong> de gris dans l’image. Plus une valeur de gris k est rare, plus sa<br />

probabilité d’apparition p(k) est faible, et cela contribue à une entropie globale plus<br />

grande. Par définition, l’entropie d'ordre zéro H 0 est donnée par:<br />

L’utilisation du logarithme de base deux fait de H 0 le nombre de bits moyen par pixel<br />

R<br />

2 −1<br />

H 0 = - ∑ pk ( ).log pk ( ) bpp (I-1.2)<br />

2<br />

k = 0<br />

nécessaire pour coder toute l’information contenue dans l’image. Une image codée avec<br />

R bits par pixels a en fait presque toujours une entropie d'ordre zéro inférieure à R. Dans<br />

sa théorie de l’information applicable à tout signal y compris les images, Shannon a<br />

démontré un théorème qui indique qu’il est possible de coder (comprimer) un signal<br />

d’entropie H avec H bpp, tout en obtenant une distorsion arbitrairement faible [SHAN-48].<br />

Par conséquent, l’entropie H 0 d’une image originale fournit le débit minimal qu’il est<br />

possible d’atteindre par <strong>compression</strong> pixel par pixel sans dégrader l’image, et par là<br />

même un t<strong>aux</strong> de <strong>compression</strong> sans perte maximal.<br />

1.3. Mesures de distorsion<br />

La distorsion (D) est l’erreur introduite par l’opération de <strong>compression</strong>, due au fait<br />

qu’éventuellement l’image reconstruite n’est pas exactement identique à l’image originale.<br />

1 CR : de l'anglais "<strong>compression</strong> ratio" (t<strong>aux</strong> de <strong>compression</strong>)<br />

- 32 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

La mesure de distorsion utilisée généralement en <strong>compression</strong> d’image est l’erreur<br />

quadratique moyenne MSE (1) . Cette grandeur est définie par la moyenne des écarts au<br />

carré e 2<br />

entre le pixel (m,n) de l’image originale I(m,n), et le pixel (m,n) de l’image<br />

mn<br />

reconstruite Î(m,n)<br />

MSE =<br />

1<br />

MN .<br />

M −1<br />

N −1<br />

^<br />

2<br />

∑∑ [ Imn ( , ) − Imn ( , )]<br />

(I-1.3)<br />

m=<br />

0 n=<br />

0<br />

On référence cette erreur par rapport à la dynamique de l’image en décibels. On obtient<br />

un rapport signal sur bruit crête pour une image dont le maximum est 2 R -1 dénoté PSNR<br />

(peak SNR). Si le minimum de l’image est nul (image bien cadrée) on obtient le rapport<br />

signal sur bruit crête à crête noté PPSNR (peak to peak SNR (2) )<br />

Lorsque la reconstruction est parfaite, la MSE est nulle et le PPSNR tend vers l’infini.<br />

2 1<br />

PSNR ou PPSNR = 10.log 10<br />

. ( R − )<br />

MSE<br />

2<br />

dB<br />

(I-1.4)<br />

Ces mesures de distorsion sont objectives et simples à calculer. Certaines méthodes de<br />

<strong>compression</strong> recherchent le meilleur compromis entre la performance et la distorsion, et<br />

optimisent des courbes t<strong>aux</strong>-distorsion ou R(D) (3) . Cette approche sera utilisée dans le<br />

chapitre I-6.<br />

L’inconvénient de la MSE est qu’elle ne rend pas compte de la perte de qualité visuelle<br />

engendrée par la <strong>compression</strong>. Si tous les pixels d’une image étaient translatés, l’erreur<br />

quadratique serait très élevée, alors que la qualité visuelle serait parfaitement bonne. De<br />

plus. la MSE est une mesure globale sur toute l’image, qui gomme les variations locales.<br />

Par exemple dans une image médicale, si des détails anatomiques importants sont<br />

dégradés par la <strong>compression</strong> et si la majeure partie du reste de l’image est fidèlement<br />

restituée, alors la MSE est relativement faible mais, pour l’expert médical, cette image a<br />

une qualité diagnostique médiocre.<br />

De très nombreuses recherches visent à trouver des mesures objectives de distorsion qui<br />

prédisent suffisamment bien la qualité perceptuelle. Ces trav<strong>aux</strong> ont apporté une<br />

connaissance sur les réponses du système visuel humain (dénoté HVS (4) ) à certaines<br />

formes de dégradation. Il est de plus nécessaire de valider la mesure de distorsion à<br />

l’utilisation et l’usage qui sera fait des images décomprimées. Ces études, même<br />

appliquées à l’imagerie médicale, n’ont pas encore abouti à une mesure de distorsion qui<br />

prédise de façon satisfaisante la qualité des images reconstruites en fonction de leur<br />

emploi pour une interprétation visuelle ou automatique, avec ou sans analyse quantitative<br />

(par exemple dans l’évaluation des sténoses). L’état de l’art consiste encore à se baser<br />

sur des mesures de distorsion lors du développement de la méthode de <strong>compression</strong>, et<br />

ensuite de le valider à l'aide d'observateurs par des comparaisons statistiques. Cette<br />

approche est largement utilisée dans notre travail.<br />

1 MSE : de l’anglais “Mean Square Error” (erreur quadratique moyenne)<br />

2 SNR : de l'anglais "Signal to Noise Ratio" (rapport signal sur bruit)<br />

3 R (D) : de l'anglais "Rate-Distorsion" (débit-distorsion)<br />

4 HVS : de l'anglais "Human Visual System" (système visuel humain)<br />

- 33 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

2. Principales méthodes de <strong>compression</strong> d’images<br />

Cette section donne une présentation des différentes méthodes courantes en<br />

<strong>compression</strong> <strong>d'images</strong>. Le lecteur familier de ces techniques peut se reporter directement<br />

à a section 2.5.6 sur la méthode MLOT.<br />

2.1. Classification des méthodes de <strong>compression</strong><br />

On peut établir une classification des principales méthodes de <strong>compression</strong> à l’aide de<br />

différents critères. Nous en donnons cinq dans ce qui suit. Puis nous introduirons dans les<br />

sections 2.2 et 2.3 les méthodes les plus courantes, en incluant les méthodes sur<br />

lesquelles a porté ce travail du point de vue des aspects algorithmique et de leur<br />

évaluation.<br />

2.1.1. Méthodes avec ou sans perte d’information<br />

Cette première classification s’intéresse à la présence ou non d’une distorsion ou perte<br />

d’information introduite par la <strong>compression</strong>. C’est la classification que nous utiliserons par<br />

la suite en 2.2 et 2.3 pour exposer les principales méthodes de <strong>compression</strong> rencontrées.<br />

Le t<strong>aux</strong> de <strong>compression</strong> (CR) généralement atteint par les méthodes sans perte sur des<br />

images médicales normalement échantillonnées est d'environ 2 ou 3 [ROOS-91], [LIEN-<br />

95], [NZOM-95].<br />

2.1.2. Méthodes par pixels, groupes de pixels, ou image entière<br />

Cette deuxième classification s’intéresse à la zone de travail de base sur laquelle<br />

s’appliquent les algorithmiques: des pixels individuels, des blocs de pixels, ou toute<br />

l’image. Pour citer quelques exemples:<br />

• codage individuel des pixels: méthodes sans perte par DPCM (1) [CUTL-52] et codage de<br />

Huffman [HUFF-52];<br />

• codage de blocs de pixels: les standards JPEG (2) [PENN-93] et MPEG (3) [LEGA-91]<br />

travaillent par blocs adjacents de 8x8 pixels, la quantification vectorielle [GERS-82];<br />

• codage de l’image entière: DCT (4) Full-Frame (étudiée dans cette thèse), codage<br />

<strong>d'images</strong> sous-bandes par filtrage [WOOD-86] ou décomposition sur une base<br />

d’ondelettes [BARL-94], [MALL-89].<br />

2.1.3. Méthodes intra- et inter-images<br />

Cette troisième classification s’applique <strong>aux</strong> séquences d’images (séries temporelles ou<br />

séries de coupes 3D). Les méthodes intra-images (intra-frame en anglais) effectuent la<br />

<strong>compression</strong> de chaque image individuellement. Les méthodes inter-images (inter-frame)<br />

exploitent la redondance entre les images successives. Le standard multimédia MPEG<br />

code des séquences d’images en détectant le mouvement d’une image à l’autre. Les<br />

zones fixes de l’image ne contiennent pas d’information supplémentaire, les zones<br />

mobiles contiennent une information qu’il faut coder.<br />

2.1.4. Méthodes adaptatives, non-adaptatives<br />

Cette quatrième classification indique si la méthode de <strong>compression</strong> est adaptative ou<br />

non. Une méthode non-adaptative applique les mêmes paramètres (bits alloués et<br />

1 DPCM : de l'anglais "Differential Pulse Code Modulation" (modulation par impulsion et codage<br />

différentielle)<br />

2 JPEG: de l'anglais "Joint Picture Expert Group", méthose standardisée de codage inter-image<br />

3 MPEG: de l'anglais "Motion Picture Expert Group", méthode standardiséé de codage multimédia<br />

4 DCT: de l'anglais "Discrete Cosine Transform" (transformée cosinus discrète)<br />

- 34 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

quantificateurs) de façon fixe, quel que soit l’ensemble de données à coder. Une méthode<br />

adaptative va modifier ses paramètres au fur et à mesure du codage, en s’adaptant <strong>aux</strong><br />

données d’entrée.<br />

2.1.5. Méthodes spatiales et méthodes par transformation<br />

La cinquième classification s’intéresse au domaine dans lequel s’effectuent les opérations<br />

de base de la <strong>compression</strong>. Une image peut être représentée de deux façons strictement<br />

équivalentes:<br />

• Dans le domaine spatial, dans lequel l’image est représentée sous forme de pixels.<br />

C’est le domaine accessible visuellement à l’observateur.<br />

• Dans un domaine fréquentiel, dans lequel l’image est représentée sous forme de<br />

coefficients de fréquences spatiales. Le passage d’un domaine à l’autre se fait par des<br />

transformations mathématiques totalement réversibles, telles que la transformation de<br />

Fourrier ou la transformation Cosinus. Intuitivement, une fréquence spatiale correspond<br />

au fait qu’un motif se reproduit régulièrement dans l’image, avec une certaine<br />

fréquence, comme par exemple un damier.<br />

Dans le domaine spatial, l’information contenue dans l’image est distribuée sur toute la<br />

matrice image. Dans le domaine des fréquences, l’information (qui est strictement<br />

équivalente) est généralement plus “concentrée”. De ce fait, il est approprié de construire<br />

un algorithme de <strong>compression</strong> sur les coefficients du plan des fréquences de l’image.<br />

Cette approche est largement utilisée, par exemple dans les méthodes standards JPEG et<br />

MPEG.<br />

2.2. Méthodes sans pertes<br />

Les méthodes sans pertes peuvent s’appliquer dans le domaine spatial, ou plus<br />

difficilement, dans le domaine des fréquences. Pour rester général, nous emploierons le<br />

terme symbole au lieu de pixel ou bien coefficient du domaine des fréquences, et la notion<br />

de séquence de symboles pour une image ou une partie d’image. Les termes réversible et<br />

irréversible seront employés respectivement comme synonymes de sans et avec perte.<br />

2.2.1. Méthodes différentielles et prédictives<br />

Ces méthodes exploitent la redondance entre un symbole et ses voisins, qui en général<br />

se ressemblent beaucoup. Par exemple, on code le premier symbole, on calcule la<br />

différence avec le second symbole et on code cette différence. Celle dernière nécessite<br />

moins de bits que les symboles eux-mêmes car cette différence est souvent faible. On<br />

code ensuite la différence entre le deuxième symbole et le troisième, etc...<br />

Dans des systèmes plus complexes et performants, on établit une fonction de prédiction<br />

qui permet d’estimer la valeur d’un symbole en fonction de la valeur des symboles voisins.<br />

On code alors l’erreur de prédiction, qui est l’écart entre la vraie valeur du symbole et la<br />

valeur prédite. La fonction de prédiction peut être plus ou moins complexe selon l’ordre de<br />

prédiction (nombre de symboles impliqués dans le calcul de prédiction), la topologie<br />

(position des symboles voisins utilisés dans le calcul), l’utilisation de pondération (poids<br />

affectés <strong>aux</strong> symboles du calcul de prédiction selon leur position relative par rapport au<br />

symbole prédit ou selon les propriétés statistiques de l’ensemble de symboles). La façon<br />

de coder les erreurs de prédiction est souvent basée sur la quantification scalaire, que<br />

nous verrons plus loin (section I-1|2-3-2). Le codage prédictif ainsi décrit correspond à la<br />

modulation par impulsion et codage différentielle (MICD, ou DPCM en anglais) [O’NEA-66]<br />

[NETR-77].<br />

- 35 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

L’efficacité d’une méthode prédictive est fortement liée à l’adéquation de la fonction de<br />

prédiction <strong>aux</strong> symboles à coder afin que les valeurs d’erreur de prédiction soient faibles.<br />

On peut rendre les méthodes différentielles et les méthodes prédictives irréversibles si on<br />

code les différences ou les erreurs de prédiction de façon approchée. Le débit maximal<br />

après codage dans le cas sans perte est égal à l’entropie de la séquence d’erreurs de<br />

prédiction.<br />

Dans ses systèmes numériques d’angiographie cardiaque, de type DCI ou Integris, la<br />

société Philips Medical Systems utilise depuis le début des années 90 un système basé<br />

sur la méthode DPCM pour le codage des images stockées sur disque dur. En raison des<br />

cadences d’acquisition et de visualisation très élevées en cardiologie (12.5 et 25 im/sec,<br />

voire 50 im/sec), le codage est réalisé par un matériel spécialisé. Un réglage de la<br />

machine, rend possible l’augmentation du t<strong>aux</strong> de <strong>compression</strong> au-dessus du seuil de<br />

réversibilité (environ 2:1) et permet ainsi de gagner encore plus d’espace disque. Cela se<br />

fait en allouant moins de bits pour coder l’erreur de prédiction.<br />

Une méthode bien connue de type différentielle ou prédictive est la modulation delta<br />

(DM (1) ) [SCHI-70] [STEE-75]. C’est la plus simple de ces méthodes. On transmet le<br />

premier symbole, et on prédit chaque symbole comme étant égal à son prédécesseur.<br />

L’erreur de prédiction est codée sur 1 bit en ne conservant que l’information sur le signe<br />

de cette erreur. On décode chaque symbole en l’augmentant ou le diminuant d’un pas fixe<br />

par rapport à son prédécesseur, selon que l’erreur de prédiction était positive ou négative.<br />

Cette méthode est de fait irréversible.<br />

2.2.2. Méthodes par plages (Runlength coding)<br />

Une plage est une succession de symboles ayant la même valeur. Pour chaque plage<br />

rencontrée dans la séquence, on code sa valeur et le nombre de symboles qu’elle<br />

comprend. Pour que cette méthode soit utile, il faut que la longueur moyenne des plages<br />

soit suffisamment élevée.<br />

Le Runlength Coding (RLC) est utilisé par les fax dont les images sont binaires. Il est<br />

aussi largement utilisé dans les méthodes par transformation, comme par exemple JPEG:<br />

après avoir calculé les coefficients du domaine des fréquences et les avoir quantifiés<br />

(tronqués ou arrondis), on obtient un grand nombre de valeurs nulles, qui se prêtent bien<br />

au RLC.<br />

2.2.3. Codeurs entropiques<br />

Le but du codage entropique est de s’approcher le plus possible de l’entropie H 0 (équation<br />

I-1-1) de la séquence de symboles, en affectant les codes les plus courts possibles <strong>aux</strong><br />

symboles de probabilité élevée et vice versa. Ces systèmes sont conçus de manière à ce<br />

que les codes résultants, bien que de longueur variable, puissent être décodés de façon<br />

unique.<br />

La première méthode de ce type a été l’algorithme de Shannon-Fano, résultant des<br />

réflexions sur la théorie de l’information de l’après-guerre. Après avoir classé par ordre de<br />

probabilité croissante les symboles, on les divise en deux parties dont la somme des<br />

probabilités est comparable. La première partie a un code débutant par 0, la deuxième<br />

partie par 1. On divise ensuite chaque partie de nouveau en deux et on rajoute de<br />

nouveau un 0 ou un 1, et ainsi de suite jusqu’à avoir des parties avec un seul symbole.<br />

Pour un symbole, le code résultant est constitué de la succession de 0 et 1 qui ont été<br />

affectés.<br />

1 DM: de l'anglais "Delta Modulation"<br />

- 36 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

Le codage de Huffman [HUFF-52] a rapidement remplacé le codage de Shannon-Fano<br />

car il est plus efficace. Le codage de Huffman a la particularité de produire des codes de<br />

préfixe unique, ce qui permet de les décoder sans ambiguïté. La façon de construire les<br />

codes binaires est différente de Shannon-Fano. On classe aussi par ordre de probabilité<br />

croissante les symboles. A l’inverse de la technique précédente, on part des deux derniers<br />

symboles dont la probabilité est la plus faible, et on les groupe en une partie à laquelle on<br />

affecte la probabilité résultante. On reclasse l’ensemble de probabilités obtenues et on<br />

regroupe de nouveau les parties de plus faible probabilité. On construit ainsi un arbre<br />

jusqu’à ce qu’il ne reste plus que deux probabilités. On part de celles-ci pour construire les<br />

codes binaires des symboles, comme illustré sur un exemple dans la Figure I-1.1.<br />

La table des codes doit être transmises avec les symboles codés, afin de l’utiliser pour le<br />

décodage.<br />

Pour une séquence de N symboles, un codeur de Huffman produit typiquement N codes<br />

dont la longueur est comprise entre 1 et N. En pratique, pour éviter les tables de codes<br />

trop longues lorsque N est grand, on utilise des tables tronquées. On choisit une valeur<br />

convenable de N 1


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

a) Construction de l'arbre binaire<br />

p 1 = 0.40 0.40 0.40 0.40<br />

p 2 = 0.20 0.20 1.00<br />

0.35<br />

p 3 = 0.15 0.15<br />

0.60<br />

p 4 = 0.15<br />

0.25 0.25<br />

p 5 = 0.10<br />

passe 1 passe 2 passe 3 passe 4<br />

0<br />

1<br />

0<br />

1<br />

b) Affectation des codes à<br />

l'arbre<br />

0<br />

0 .<br />

1<br />

1<br />

c) Table des codes résultants<br />

symbole probabilité code<br />

1 0.40 0<br />

2 0.20 100<br />

3 0.15 101<br />

4 0.15 110<br />

5 0.10 111<br />

Figure I-1.1 : Exemple de codage de Huffman pour des symboles de<br />

probabilité {0.40, 0.20, 0.15, 0.15, 0.10}<br />

2.2.4. Méthodes par dictionnaire adaptatif (Lempel-Ziv)<br />

Dans les méthodes par dictionnaire adaptatif, le codeur lit un groupe de symboles et<br />

recherche des équivalences avec des chaînes de symboles rencontrées dans un<br />

ensemble de symboles précédents. Le premier algorithme de ce type a été mis au point<br />

par Lempel et Ziv en 1977 [ZIV-77], et a donné lieu au programme LZ77. Celui-ci lit un flot<br />

de symboles et cherche des chaînes équivalentes dans une fenêtre de 4Ko précédant le<br />

flot d’entrée. Les équivalences sont remplacées par des codes. Les programmes PKZIP<br />

et Lharc sont basés sur le système LZ77. Lempel et Zip ont développé une nouvelle<br />

version de leur algorithme en 1978, LZ78, où le dictionnaire est construit à partir de tous<br />

les symboles précédemment rencontrés et non par une fenêtre.[ZIV-78] Le programme<br />

COMPRESS sous Unix utilise la méthode LZ78. Le succès de ces méthodes s’explique<br />

par la rapidité des calculs.<br />

2.2.5. Codage arithmétique<br />

Le codage arithmétique [RISS-76] [WITT-87] est un codage récent utilisant un modèle<br />

statistique, tout comme le codeur de Huffman. Contrairement à ce dernier, il produit un<br />

code pour une séquence de symboles tout entière, et non pas un code par symbole.<br />

Chaque nouveau symbole lu modifie de façon incrémentale le code de sortie. Ce code de<br />

sortie est un nombre à virgule flottante compris entre 0 et 1, dont le nombre de chiffres<br />

après la virgule correspond au nombre de symboles. Contrairement à Huffman, il n’est<br />

pas obligatoire que chaque code ait un nombre entier de bits. Par exemple un symbole de<br />

- 38 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

probabilité 0.9 a pour entropie 0.15, mais Huffman affectera probablement un code de un<br />

bit (ou plus), et la séquence codée aura un nombre de bits plus long qu’en théorie.<br />

Le codeur arithmétique est plus performant que le codeur de Huffman, mais il est plus<br />

complexe à implémenter.<br />

2.3. Méthodes avec pertes<br />

Tout comme les méthodes sans pertes, les méthodes avec pertes peuvent avoir pour<br />

domaine de travail le plan spatial ou le plan des fréquences.<br />

2.3.1. Sous-échantillonnage<br />

Le sous-échantillonnage consiste à ne conserver qu’une partie des données. Par<br />

exemple, si on ne stocke qu’un pixel de l’image sur deux, on obtient un CR de 4:1.<br />

L’image reconstruite s’obtient par interpolation, par exemple en remplaçant chaque pixel<br />

manquant par la moyenne de deux pixels adjacents. Cette méthode extrêmement simple<br />

est à employer avec précaution car la distorsion n’est pas contrôlée.<br />

2.3.2. Quantification scalaire<br />

La quantification scalaire consiste à remplacer un nombre très grand de symboles par un<br />

nombre restreint de codes. C’est une opération irréversible très largement employée en<br />

<strong>compression</strong>. Par exemple, le fait d’arrondir des nombres flottant à l’entier le plus proche<br />

est une quantification scalaire. En général, un quantificateur scalaire est une fonction en<br />

escalier. L’intervalle de toutes les valeurs possibles de symboles d’entrée est divisé en n<br />

intervalles adjacents appelés intervalles de décision. Chaque symbole appartient à l’un de<br />

ces intervalles, et sa valeur codée correspond au numéro de son intervalle. Tous les<br />

symboles d’entrée appartenant à un même intervalle sont codés et reconstruits avec la<br />

même valeur. La valeur reconstruite est déduite directement des bornes de l’intervalle<br />

d’entrée. Pour cela on essaie d’adapter le mieux possible la position des bornes des<br />

intervalles de décision et la règle de reconstruction <strong>aux</strong> propriétés de la séquence de<br />

symboles. Tout le problème consiste à minimiser la distorsion introduite par la<br />

quantification tout en restreignant au maximum le nombre de codes. Un rappel<br />

bibliographique sur la quantification scalaire et une étude du quantificateur scalaire<br />

uniforme sont donnés au chapitre I-6.<br />

2.3.3. Quantification vectorielle<br />

La quantification vectorielle [GERS-82] [GRAY-84] [GERS-92] découpe la matrice de<br />

symboles (pixels ou coefficients du plan des fréquences) en petits blocs. Chaque bloc est<br />

codé par son indice dans un dictionnaire de blocs types. Le codage consiste à repérer<br />

dans le dictionnaire des mots-codes disponibles celui qui ressemble le plus au bloc<br />

d’entrée. Le critère consiste en général à minimiser l’erreur quadratique. Le décodage<br />

consiste simplement à remplacer l’indice par le mot-code correspondant dans le<br />

dictionnaire. La création du dictionnaire de bloc types est une étape préalable et cruciale.<br />

Il est construit par apprentissage à l'aide d'un ensemble <strong>d'images</strong> type à comprimer, ou à<br />

l'aide d'un treillis qui utilise les propriétés de la distribution statistique des symboles à<br />

coder. Un dictionnaire n’est performant que pour la classe d’image avec laquelle il a été<br />

mis au point.<br />

• Principe général<br />

2.3.4. Méthodes par transformation<br />

- 39 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

Les méthodes par transformation figurent parmi les techniques de <strong>compression</strong> les plus<br />

employées. Elles permettent d’obtenir des t<strong>aux</strong> de <strong>compression</strong> élevés tous en<br />

conservant une bonne qualité d’image. Ce sont des méthodes qui font appel<br />

successivement à plusieurs principes de <strong>compression</strong>. Elles sont utilisées par des<br />

standards internation<strong>aux</strong> pour le codage des images fixes et de la vidéo (voir paragraphe<br />

I-2.5 sur JPEG et I-1.6 sur MPEG).<br />

Le principe de la <strong>compression</strong> par transformation est de décomposer les pixels fortement<br />

corrélés de l’image en ensembles de coefficients spectr<strong>aux</strong> partiellement décorrélés, dont<br />

l’énergie est concentrée dans un nombre restreint de coefficients. Ce compactage de<br />

l’énergie permet d’affecter en priorité <strong>aux</strong> coefficients spectr<strong>aux</strong> les plus énergétiques un<br />

nombre de bits plus élevé qu’<strong>aux</strong> autres.<br />

Les méthodes par transformation suivent le schéma de fonctionnement présenté dans la<br />

Figure I-1.2.<br />

Etape de <strong>compression</strong>:<br />

image<br />

originale<br />

division en<br />

blocs transformation quantification<br />

Codage<br />

entropique<br />

séquence de<br />

bits<br />

Etape de dé<strong>compression</strong>:<br />

séquence de<br />

bits<br />

décodage<br />

déquantification<br />

approchée<br />

transformation<br />

inverse<br />

recombinaison<br />

des blocs<br />

image<br />

reconstruite<br />

Figure I-1.2: Schéma de principe de la <strong>compression</strong> par transformation<br />

1. Division en blocs<br />

La première étape consiste à diviser l’image en blocs sur lesquels vont s’appliquer<br />

indépendamment les étapes suivantes. La principale raison de ce découpage est de<br />

limiter le nombre de pixels à traiter à la fois pour diminuer les temps de calcul et la<br />

complexité des circuits électroniques. Il peut résulter de cette division un effet visuel<br />

appelé effet de "blocs" : à des t<strong>aux</strong> élevés la frontière des blocs devient visible car ils ont<br />

été comprimés indépendamment. La taille des blocs est variable selon les méthodes. Elle<br />

est de 8x8 pour JPEG et MPEG. Il peut être intéressant de choisir une taille de bloc plus<br />

élevée, selon les images [DING-95]. Dans la méthode DCT Full-Frame, l’image n’est pas<br />

divisée en blocs.<br />

2. Transformation<br />

La deuxième étape consiste à appliquer une transformation mathématique à chaque bloc.<br />

Le but de cette transformation est de décorréler les pixels, ce qui a pour effet en général<br />

de redistribuer l’énergie de l’image dans un nombre restreint des coefficients transformés.<br />

De cette façon, un grand nombre de coefficients transformés ont des très faibles valeurs,<br />

et peuvent être supprimés ou se voir allouer un nombre très faible de bits lors de l’étape<br />

suivante de quantification. La transformation fait passer d’un espace de nombres entiers,<br />

les pixels, à un espace de nombres flottants (voire de complexes) qui sont les coefficients<br />

du plan des fréquences, aussi appelé coefficients spectr<strong>aux</strong>.<br />

Les deux motivations principales à l'utilisation d'une transformation sont:<br />

- 40 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

• l'obtention d'une représentation de l'image qui se prête bien à la quantification et au<br />

codage,<br />

• la possibilité d'ajuster les erreurs de quantification selon la sensibilité au système visuel<br />

humain.<br />

3. Quantification et codage<br />

La troisième étape est la quantification des coefficients transformés, afin de se ramener à<br />

un nombre limité de valeurs différentes. La quantification est souvent précédée d’une<br />

pondération psychovisuelle des coefficients, afin de préserver ceux <strong>aux</strong>quels l’oeil est le<br />

plus sensible. La quantification est la seule étape irréversible de tout le schéma de<br />

<strong>compression</strong> par transformation. Souvent, un quantificateur scalaire uniforme est<br />

employé. Un codage entropique est effectué sur les coefficients quantifiés, pour aboutir<br />

au flot binaire de sortie. En général, c’est le degré de quantification qui détermine le<br />

niveau de <strong>compression</strong> obtenu. Une quantification grossière donne une <strong>compression</strong><br />

importante mais introduit une forte dégradation.<br />

• Les transformations<br />

Les transformations utilisées en <strong>compression</strong> d’image sont des transformations<br />

orthogonales. Ce sont des opérations séparables, c’est à dire que l’opération en deux<br />

dimensions est équivalente à deux opérations successives à une dimension, l’une<br />

horizontalement puis l’autre verticalement. Elles sont totalement réversibles.<br />

L’écriture sous forme matricielle d’une transformation 1-D est la suivante:<br />

⎡.<br />

⎢<br />

⎢<br />

⎢<br />

⎢<br />

y = T x = ⎢<br />

⎢<br />

⎢<br />

⎢<br />

⎢<br />

⎣<br />

.<br />

A1<br />

A 1<br />

A1<br />

.<br />

⎤<br />

⎥<br />

⎥<br />

⎥<br />

⎥<br />

⎥ x<br />

⎥<br />

⎥<br />

⎥<br />

. ⎥<br />

⎦<br />

(I-1.5)<br />

où x est le vecteur Nx1 des pixels d’une ligne de l’image originale, T est la matrice bloc<br />

diagonale de transformation, y est le résultat de la transformation: un vecteur de Nx1<br />

coefficients. La matrice A 1 est un bloc de bxb coefficients. Les blocs A 1 de la diagonale de<br />

T ne se recouvrent pas ('non-overlap').<br />

x = T -1 y = T *T y<br />

(I-1.6)<br />

La transformation inverse s’écrit:<br />

En <strong>compression</strong> d’image, les matrices de transformations sont réelles et orthogonales,<br />

c’est à dire T -1 = T *T , où T -1 est la matrice inverse de T, et T *T est la matrice conjuguée<br />

transposée de T. Il résulte des propriétés des matrices que T est unitaire. La matrice de<br />

transformation T est aussi considérée comme un ensemble de vecteurs colonnes qui<br />

forment une base dans l’espace à N dimensions. Ces vecteurs sont unitaires et<br />

orthogon<strong>aux</strong>.<br />

Une autre façon de représenter la transformation est de considérer que chaque élément<br />

y(k) du vecteur des coefficients transformés est obtenu par une combinaison linéaire des<br />

valeurs x(m) de l’image et des vecteurs de la base (k et m = 1, ..., N). Cette représentation<br />

- 41 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

est illustrée en 1-D par la figure I-1.3 (a). Inversement, chaque vecteur de données x(m)<br />

est le fruit de la combinaison linéaire des vecteurs de la base et des coefficients y(k), k=1,<br />

N. La décomposition de x(m) est illustrée figure I-1.3 (b).<br />

La quantification distord les valeurs y(k) en valeurs y^<br />

(k). Les erreurs de quantification<br />

sont différentes d’un bloc à l’autre, et il se peut qu'une erreur positive soit introduite à la<br />

bordure d’un bloc alors qu’une erreur négative est introduite à la bordure adjacente du<br />

bloc voisin. Il en résulte une discontinuité entre les deux blocs de l’image reconstruite,<br />

comme le montre la figure I-1.3 (b).<br />

échantillons<br />

bloc<br />

bloc<br />

^<br />

Y 1,1 x<br />

^<br />

+<br />

Y 1,2 x<br />

+<br />

n<br />

n<br />

^<br />

Y 2,1 x<br />

^<br />

+<br />

Y 2,2 x<br />

+<br />

n<br />

n<br />

+<br />

Y 1,2 x<br />

+<br />

n<br />

n<br />

Y 2,1 x<br />

+<br />

Y 2,2 x<br />

+<br />

n<br />

n<br />

^ +<br />

Y 1,8 x<br />

^ +<br />

Y<br />

n 2,8 x<br />

discontinuité<br />

bloc 1<br />

bloc 2<br />

n<br />

Y 1,8<br />

+ x<br />

n<br />

Y 2,8<br />

+ x<br />

(a)<br />

n<br />

Echantillons reconstruits<br />

(b)<br />

n<br />

Figure I-1.3: Transformation par bloc, quantification et effet de bloc<br />

Il existe de très nombreuses transformations orthogonales: transformée de Karhunen-<br />

Loeve, de Hadamard, transformée sinus, cosinus. Nous n'évoquerons dans ce qui suit<br />

que les plus importantes pour le présent travail.<br />

• Transformation de Karhunen-Loeve<br />

La transformation de Karhunen-Loeve (KLT 1 ) est optimale en terme de compactage<br />

d’énergie. Si on décidait de ne garder qu’un nombre limité de coefficients transformés, les<br />

coefficients KLT sont ceux qui contiendraient la plus grande fraction de l’énergie totale par<br />

rapport à toutes les autres transformations possibles. Malheureusement la matrice de<br />

transformation de la KLT est une fonction de l’image et il faut calculer la matrice de<br />

covariance de l’image pour obtenir la matrice de transformation T. De plus il n’existe pas<br />

d’algorithme de calcul rapide de la KLT. Pour ces raisons, la KLT est très peu utilisée<br />

malgré sa supériorité théorique.<br />

1 KLT: de l'anglais "Karhunen-Loeve Transform"<br />

- 42 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

• Transformation Cosinus<br />

La transformation cosinus discrète (DCT 1 ) 1D d’un vecteur x de longueur N donne un<br />

autre vecteur y de N coefficients, selon la définition:<br />

Avec k = 1, 2, ..., N-1<br />

y(k) =<br />

N −1<br />

2 2 1<br />

N ck xm ( m+<br />

) k<br />

( ) ∑ ( )cos[ π ]<br />

2N<br />

m=<br />

0<br />

(I-1.7)<br />

c(0)=1/ 2<br />

c(k)=1 k ≠ 0<br />

La transformation cosinus discrète (DCT) d’un bloc x de NxN pixels donne un autre bloc X c<br />

de NxN coefficients, selon la définition:<br />

X c (k,l) =<br />

N −1<br />

N −1<br />

4 2 1 2 1<br />

2<br />

N ckl xmn ( m+ ) k ( n+<br />

) l<br />

( , ) ∑∑ ( , )cos[ π ]cos[ π ]<br />

(I-1.8)<br />

2N<br />

2N<br />

m=<br />

0<br />

n=<br />

0<br />

Avec k, l = 1, 2, ..., N-1<br />

c(0,0)=1/2<br />

c(0,l)=c(k,0)=1/ 2 pour k ≠ 0 et l ≠ 0<br />

c(k,l)=1 ailleurs<br />

Par convention pour toutes les transformations, on appelle composante continue DC 2 le<br />

coefficient X c (0,0). Ce coefficient est proportionnel au niveau de gris moyen de l’image ou<br />

du bloc avant transformation. On appelle composantes AC 3 toutes les autres valeurs.<br />

La transformation cosinus a été introduite par [AHME-74] et a fait l’objet de beaucoup<br />

d’études et d’applications de la <strong>compression</strong> dans tous les domaines d’imagerie, y<br />

compris le médical. Contrairement à la transformation KLT, la matrice de transformation<br />

DCT est complètement indépendante de l’image.<br />

L’efficacité de la DCT en terme de compactage d’énergie a été comparée à celle de la<br />

KLT par [CLAR-85] et [AKAN-92]. En pratique, pour les images montrant une forte<br />

corrélation inter-pixels, l’efficacité de la DCT est quasi-semblable à celle de la KLT. [RAO-<br />

90] a démontré l’équivalence asymptotique des deux transformations.<br />

Il existe de nombreux algorithmes rapides de calculs de la DCT, qui diminuent le nombre<br />

d’opérations nécessaires par rapport à une application brute de l’équation (I-1.7), souvent<br />

en passant par la FFT [MADI-78].<br />

La DCT peut être calculée sur des blocs de l’image (transformation par bloc), ou sur<br />

l’image tout entière (transformation Full-Frame).<br />

• Transformation LOT<br />

La transformation Lapped Orthogonal Transform (LOT) a été introduite pour pallier les<br />

effets de blocs qui apparaissent à faibles débits avec les méthodes à base de<br />

transformation par bloc. Les coefficients spectr<strong>aux</strong> sont calculés en utilisant une fenêtre<br />

de pixels qui déborde du bloc à calculer. Il ne s’agit pas de blocs qui se chevauchent,<br />

mais d’un mode de calcul qui utilise l’information contenue dans les pixels voisins du bloc<br />

1 DCT: de l'anglais "Discrete Cosine Transform"<br />

2 DC: de l'anglais "Direct Componant", composant continu<br />

3 AC: de l'anglais "Alternative Componant", composants alternatifs<br />

- 43 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

en cours. Ce sont les vecteurs de base de la transformation qui chevauchent les blocs<br />

voisins. Souvent, ce chevauchement est de 50%, c’est à dire que pour transformer un<br />

bloc de NxN pixels, les vecteurs de base utilisés ont une taille de (N+N/2)x(N+N/2). En<br />

choisissant les vecteurs de base pour qu’ils s’annulent à leurs extrémités, la quantification<br />

des coefficients LOT ne peut pas générer de discontinuité au niveau des bords des blocs.<br />

Ceci est illustré par la Figure I-1.8.<br />

La transformation LOT a été introduite par [CASS-89]. [MALV-89] a proposé une structure<br />

LOT qui peut se calculer à partir de la DCT, ce qui a permis la mise au point d'un<br />

algorithme rapide.<br />

2.3.5. Codage sous-bandes<br />

Le codage sous-bandes (SBC 1 ) utilise également une représentation assimilable à une<br />

représentation par transformation de l’image. Celle-ci est filtrée de façon à générer un<br />

ensemble de sous-images ou sous-bandes, qui contiennent chacune une gamme limitée<br />

des fréquences de l’image de départ. Les sous-images étant de bande de fréquence<br />

limitée, il est possible de les sous-échantillonner. La Figure I-1.4 montre la décomposition<br />

d’une image en quatre sous-bandes, la première correspondant <strong>aux</strong> basses fréquences<br />

(approximation de l'image), la deuxième <strong>aux</strong> hautes fréquences colonnes (détails<br />

horizont<strong>aux</strong>), la troisième <strong>aux</strong> hautes fréquences lignes (détails vertic<strong>aux</strong>), la quatrième<br />

<strong>aux</strong> hautes fréquences lignes et colonnes (détails diagon<strong>aux</strong>). Après décomposition en<br />

sous-bandes et sous-échantillonnage, les sous-images résultantes sont codées avec des<br />

stratégies adaptées à leur contenu énergétique. Tout comme les méthodes par<br />

transformation, on tend à privilégier les basses fréquences qui sont riches en énergie, et à<br />

coder plus grossièrement les hautes fréquences en prenant en compte la sensibilité de<br />

l’oeil humain. Les méthodes de codage couramment employées sur les sous-bandes sont<br />

la DPCM pour la sous-bande basse fréquence, et la quantification vectorielle pour les<br />

autres sous-bandes [BARL-94].<br />

Les deux éléments clés d'un schéma de codage sous-bandes sont:<br />

• Le choix des bancs de filtres pour la décomposition sous-bandes<br />

• Le choix de(s) la technique(s) de codage appliquée(s) <strong>aux</strong> sous-bandes.<br />

Un avantage du codage sous-bandes réside dans la possibilité de transmission<br />

progressive, qui permet de reconstruire l’image comprimée en basse résolution (la sousbande<br />

basse fréquence) et d’ajouter progressivement les sous-images de détail si<br />

l’utilisateur désire plus de finesse.<br />

1 SBC: de l’anglais “SubBand Coding”, codage sous-bande<br />

- 44 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

H 0<br />

H 1<br />

H 0<br />

H 1<br />

2<br />

2<br />

2<br />

2<br />

Bande 0<br />

Bande 1<br />

Bande 2<br />

Bande 3<br />

H 0 2<br />

x(n)<br />

H 1 2<br />

Figure I-1.4: Exemple de décomposition sous-bandes. H0: filtre passe bas, H1: filtre<br />

passe haut<br />

2.3.6. Ondelettes<br />

La décomposition en ondelettes est une extension de la décomposition en sous-bandes,<br />

avec une manière particulière de choisir les filtres. La décomposition en ondelettes aboutit<br />

à une image de détails, et une image basse résolution. Cette dernière est à nouveau<br />

décomposée en une image de détail et une image basse résolution, et ainsi de suite. Plus<br />

on avance dans la décomposition, plus l’échelle de “grossissement” est importante, et<br />

plus les fréquences sont basses. Les sous-images ainsi obtenues peuvent être codées<br />

avec des stratégies différentes. La méthode de décomposition en ondelettes présente des<br />

qualités dites de “régularité” des filtres de décomposition qui sont plus avantageuses que<br />

celles des filtres usuels de décomposition sous-bandes. De plus, les filtres générés par<br />

des ondelettes préservent l’avantage de transmission progressive. Ces atouts expliquent<br />

l’engouement que rencontrent actuellement les ondelettes dans la communauté<br />

universitaire de la <strong>compression</strong> des images.<br />

2.4. Autres méthodes<br />

2.4.1. Méthodes par contour<br />

La méthode par contour consiste à séparer l’image en deux images complémentaires: une<br />

image de contours (contenant les hautes fréquences) et une image de fond (contenant les<br />

basses fréquences). Une stratégie de codage appropriée est appliquée sur chacune de<br />

ces deux images.<br />

2.4.2. Méthodes texturales<br />

La méthode texturale consiste à repérer dans l’image des zones ayant des<br />

caractéristiques voisines, c’est à dire des textures semblables. On code le type de texture<br />

et ses paramètres caractéristiques. On reconstruit l’image en régénérant synthétiquement<br />

les textures.<br />

2.4.3. Fractales<br />

Les méthodes fractales reposent sur l’idée que l’ont peut identifier des objets<br />

mathématiques de type fractal dans l’image. Ceux-ci sont composés de façon récursive<br />

de copies d’eux-mêmes. Le codage fractale consiste à repérer des zones de l’image qui<br />

peuvent être déductibles par une transformation géométrique d’une autre zone de taille<br />

- 45 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

différente (dite zone père). Le fichier comprimé comporte les caractéristiques des pères et<br />

des transformations associées <strong>aux</strong> zones qu’il peut engendrer. Les temps de calculs pour<br />

la phase de <strong>compression</strong> sont extrêmement longs, alors que ceux de la phase de<br />

dé<strong>compression</strong> sont très courts [JACQ-93].<br />

2.5. Standard pour les images fixes: JPEG<br />

2.5.1. Principes génér<strong>aux</strong><br />

Dans la fin des années 80, le comité Joint Photographic Experts Group (JPEG) a<br />

sélectionné en tant que standard mondial pour le codage des images fixes en couleurs<br />

une méthode de <strong>compression</strong> basée sur un schéma par transformation DCT. La<br />

recommandation JPEG [PENN-93] comprend trois sections principales. La première<br />

concerne la ligne de base de l’algorithme de <strong>compression</strong> d’image avec perte, la<br />

deuxième est un ensemble de caractéristiques étendues pour élargir le champ<br />

d’application du standard (entrée à 12bpp, transmission progressive, codage<br />

arithmétique), la troisième spécifie de façon indépendante une méthode sans perte<br />

utilisant une méthode prédictive et adaptative de type DPCM en conjonction avec un<br />

codeur de Huffman. La présente section ne traite que de la ligne de base.<br />

2.5.2. Descriptif résumé et illustré de l'algorithme JPEG avec perte<br />

Les étapes de l’algorithme JPEG sont présentées ci-après.<br />

Etape 1. L’image est divisée en blocs de 8x8 pixels, chaque bloc est transformé par DCT.<br />

La formule de transformation DCT utilisée est:<br />

X c (k,l) = ckl 7 7<br />

( , )<br />

( 2m+ 1)<br />

k ( 2n+<br />

1) l<br />

∑∑ xmn ( , ) cos[ π ] cos[ π ]<br />

4 m= 0 n=<br />

0<br />

16<br />

16<br />

Prenons par exemple un bloc extrait de l’image LENA [RABB-91].<br />

Le bloc original est:<br />

xmn ( , ) =<br />

⎡139 144 149 153 155 155 155 155⎤<br />

⎢<br />

144 151 153 156 159 156 156 156<br />

⎥<br />

⎢<br />

⎥<br />

⎢150 155 160 163 158 156 156 156⎥<br />

⎢<br />

⎥<br />

⎢159 161 162 160 160 159 159 159⎥<br />

⎢159 160 161 162 162 155 155 155⎥<br />

⎢<br />

⎥<br />

⎢161 161 161 161 160 157 157 157⎥<br />

⎢162 162 161 163 162 157 157 157⎥<br />

⎢<br />

⎥<br />

⎣⎢<br />

162 162 161 161 163 158 158 158⎦⎥<br />

Sa transformée, après avoir arrondi les coefficients fréquentiels à l’entier le plus proche ,<br />

donne:<br />

- 46 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

⎡1260 −1 −12 −5 2 −2 −3 1 ⎤<br />

⎢<br />

−23 −17 −6 −3 −3 0 0 −1<br />

⎥<br />

⎢<br />

⎥<br />

⎢ −11 −9 −2 2 0 −1 −1 0 ⎥<br />

⎢<br />

⎥<br />

7 2 0 1 1 0 0 0<br />

X c (k,l) = ⎢ − −<br />

⎥<br />

⎢ −1 −1 1 2 0 −1 1 1 ⎥<br />

⎢<br />

⎥<br />

⎢ 2 0 2 0 −1 1 1 −1⎥<br />

⎢ −1 0 0 −1 0 2 1 −1⎥<br />

⎢<br />

⎥<br />

⎣⎢<br />

−3 2 −4 −2 2 1 −1 0 ⎦⎥<br />

On voit que la DCT a pour effet de concentrer l’information en très peu de coefficients<br />

fréquentiels correspondant <strong>aux</strong> basses fréquences, et que les autres coefficients de haute<br />

fréquence ont des valeurs très faibles.<br />

Etape 2. Les coefficients fréquentiels sont normalisés.<br />

Une matrice de normalisation composée d’entiers sur 8 bits est utilisée pour pondérer les<br />

coefficients. Chaque coefficient de la matrice transformée est divisé par la valeur<br />

correspondante de la matrice de normalisation. Les coefficients normalisés sont obtenus<br />

par la formule:<br />

⎡ X( k,<br />

l)<br />

⎤<br />

X( k, l)<br />

= int⎢<br />

⎥<br />

⎣qQk . ( , l)<br />

⎦<br />

<br />

Où X( k l)<br />

, est le coefficient DCT normalisé,<br />

int(x) est la fonction d'arrondi à l'entier le plus proche,<br />

X(k,l) est le coefficient DCT de position (k,l) du bloc,<br />

q est le pas de quantification,<br />

Q(k,l) est la matrice de normalisation.<br />

La normalisation est équivalente à une quantification scalaire.<br />

Le pas de quantification est une valeur entière qui sert à régler le degré de quantification<br />

du bloc. Plus le pas est grand, plus grande sont la <strong>compression</strong>, et aussi la distorsion.<br />

Dans les applications courantes du standard, les valeurs de q utilisées en pratique sont<br />

comprises entre 1 et environ 25. Le pas peut être modifié d'un bloc à l'autre afin d'adapter<br />

localement la <strong>compression</strong>, par exemple pour ajuster le t<strong>aux</strong> final sur l'image entière en<br />

régulant le débit local par un buffer de sortie du codeur.<br />

La matrice de normalisation sert à pondérer les coefficients DCT afin d'adapter le degré<br />

de quantification de chaque coefficient en fonction de la sensibilité du système visuel au<br />

bruit de quantification. Ainsi, l'œil nu est peu sensible au bruit introduit dans les hautes<br />

fréquences et les valeurs de Q(k,l) correspondant <strong>aux</strong> fréquences élevées seront plus<br />

fortes que pour les basses fréquences. Dans le cas d’une image couleur, par exemple<br />

RGB+L, 4 matrices différentes de normalisation différentes peuvent être utilisées pour les<br />

composantes couleur et luminance.<br />

Une des matrices de normalisation de la luminance fournie par le standard est:<br />

- 47 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

Qkl ( , ) =<br />

⎡16 11 10 16 24 40 51 61 ⎤<br />

⎢<br />

12 12 14 19 26 58 60 55<br />

⎥<br />

⎢<br />

⎥<br />

⎢14 13 16 24 40 57 69 56 ⎥<br />

⎢<br />

⎥<br />

⎢<br />

14 17 22 29 51 87 80 62<br />

⎥<br />

⎢18 22 37 56 68 109 103 77 ⎥<br />

⎢<br />

⎥<br />

⎢24 35 55 64 81 104 113 92 ⎥<br />

⎢49 64 78 87 103 121 120 101⎥<br />

⎢<br />

⎥<br />

⎣⎢<br />

72 92 95 98 112 100 103 99 ⎦⎥<br />

Dans notre exemple, les coefficients normalisés sont :<br />

⎡ 79 0 − 1 0 0 0 0 0⎤<br />

⎢<br />

−2 −1 0 0 0 0 0 0<br />

⎥<br />

⎢<br />

⎥<br />

⎢−1 −1 0 0 0 0 0 0⎥<br />

⎢<br />

⎥<br />

<br />

X ( C<br />

k , l )= ⎢<br />

0 0 0 0 0 0 0 0<br />

⎥<br />

⎢ 0 0 0 0 0 0 0 0⎥<br />

⎢<br />

⎥<br />

⎢ 0 0 0 0 0 0 0 0⎥<br />

⎢ 0 0 0 0 0 0 0 0⎥<br />

⎢<br />

⎥<br />

⎣⎢<br />

0 0 0 0 0 0 0 0⎦⎥<br />

La même matrice de normalisation est appliquée à tous les blocs de l’image. Elle est<br />

transmise avec les coefficients comprimés en tant que frais génér<strong>aux</strong> de codage. Le choix<br />

de la matrice de normalisation est laissé libre à l’utilisateur. Le comité JPEG a effectué un<br />

travail considérable en vue de trouver expérimentalement des matrices qui fournissent les<br />

meilleurs résultats possibles visuellement en pondérant les coefficients selon leur<br />

importance perceptuelle.<br />

Etape 3. Le coefficient DC normalisé est codé.<br />

Par un système de DPCM, le coefficient DC est codé en utilisant la valeur DC du bloc<br />

précédant. L’ensemble de coefficients DC de tous les blocs de l’image est ensuite codé<br />

par un codeur de Huffman.<br />

Etape 4. Les coefficients AC sont réarrangés par une méthode zigzag.<br />

L’énergie est concentrée dans les coefficients en haut à gauche de la matrice<br />

transformée. On réordonne les coefficients afin d’obtenir un vecteur 1D qui range<br />

approximativement les coefficients par ordre décroissant d’énergie. Comme de nombreux<br />

coefficients de X^<br />

correspondant <strong>aux</strong> fréquences élevées sont nuls on obtient des grandes<br />

plages de zéros, qui se prêtent bien au codage RLC.<br />

Le réarrangement zigzag se fait comme indiqué<br />

- 48 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

Figure I-1.5: Réarrangement zigzag des blocs normalisés JPEG.<br />

Dans l’exemple utilisé plus haut, le réarrangement zigzag aboutit au vecteur:<br />

[ 79 0 -2 -1 -1 -1 0 0 -1 EOB]<br />

Le symbole EOB 1 est place juste après la dernière valeur non nulle. Comme les blocs ont<br />

toujours 64 coefficients, il n’est pas nécessaire de préciser la longueur de la plage de<br />

zéros finissant le bloc réarrangé.<br />

Etape 5. Les vecteurs zigzags sont codés par RunLength et Huffman.<br />

Seuls les coefficients non nuls sont codés, mais d’une façon qui prend en compte le<br />

nombre de zéros qui les précèdent. Pour chacun de ces coefficients, on obtient un code<br />

composite fait de deux codes: un code de longueur fixe et un code de longueur variable.<br />

Le code de longueur fixe est composé de 8 bits, sa représentation binaire est<br />

‘ZZZZCCCC’. Les quatre bits de poids fort ZZZZ servent à représenter la longueur de la<br />

plage de zéros qui précède le symbole courant, les quatre bits de poids faible CCCC<br />

servent à représenter la catégorie dont fait partie la valeur absolue du coefficient. La<br />

catégorie c est l’intervalle délimité par des puissances de deux dont fait partie le<br />

coefficient. Pour une valeur absolue de coefficient appartenant à l’intervalle [2 c-1 et 2 c -1],<br />

la catégorie est c. Dans la norme JPEG, la valeur maximale de c est 10. Le code de<br />

longueur variable sert à préciser le signe du coefficient et sa position dans l’intervalle. Ce<br />

code a donc une longueur c.<br />

Dans notre exemple, le coefficient -2 est précédé de un zéro: ZZZZ=0001. Il a une valeur<br />

absolue comprise entre 2 2-1 =2 et 2 2 -1=3, donc sa catégorie est c=2, et se représente en<br />

binaire par CCCC=0010. Il a un signe négatif (représenté par un bit ‘0’ par convention) et<br />

il est la première valeur de l’intervalle [2,3]. Donc le code de longueur variable est 01.<br />

Les codes de longueur fixe sont codés par un codeur de Huffman, afin de gagner encore<br />

en <strong>compression</strong>.<br />

Pour coder une plage de zéros dont la longueur est supérieure ou égale à seize<br />

(ZZZZ=1111), on utilise un code ZZZZCCCC=11110000, et un ou plusieurs autres codes<br />

composites.<br />

L’ensemble de bits produits en mettant bout à bout tous les codes d’un bloc suit la<br />

syntaxe:<br />

1 EOB: symbole de fin de bloc, ‘End Of Bloc’ en anglais.<br />

- 49 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

code Huffman de la différence DC / code Huffman pour représenter ZZZZCCCC et code<br />

de longueur variable / ... / code Huffman pour représenter ZZZZCCCC et code de<br />

longueur variable / code Huffman pour EOB.<br />

Etape 6. Décodage.<br />

Le décodage se fait en appliquant les opérations inverses: décodage Huffman et RLC,<br />

réarrangement inverse du zigzag, dénormalisation par multiplication avec la matrice Q,<br />

DCT inverse.<br />

2.6. Standard pour séquences d’images: MPEG<br />

2.6.1. Principes génér<strong>aux</strong>.<br />

Le groupe de travail Moving Pictures Experts Group (MPEG) a publié au début des<br />

années 90 un standard pour la vidéo qui comprend le codage des séquences d’images<br />

couleur et du son associe. La présente section ne s’intéresse qu’au codage d’images noir<br />

et blanc.<br />

Le schéma général de l’algorithme MPEG est le suivant:<br />

image<br />

originale<br />

compensation<br />

de mouvement<br />

transformation<br />

par bloc<br />

quantification<br />

et codage<br />

séquence<br />

de bits<br />

Figure I-1.6 : Principe simplifié du codage MPEG<br />

La méthode MPEG tire profit de la ressemblance des images successives dans une<br />

séquence d'image. La première hypothèse de base est que chaque image contient des<br />

objets en mouvement, dont la position peut être prédite par leur position dans l'image<br />

précédente par simple translation des pixels. Dans la méthode MPEG, l'image est<br />

découpée en zone de 16x16 pixels, les objets, dont on estime le mouvement. La<br />

deuxième hypothèse est que l'intensité lumineuse d'un objet en mouvement reste la<br />

même d'une image à l'autre.<br />

Dans chaque image, on distingue trois types de zones :<br />

• Les zones fixes, ne contenant aucune information à transmettre par rapport à l'image<br />

précédente,<br />

• Les zones compensables, qui se déduisent de l'image précédente par un vecteur de<br />

déplacement, et éventuellement une erreur de compensation grossièrement quantifiée<br />

(dans ce cas, il y a eu prédiction de la zone),<br />

• Les zones non compensables, pour lesquelles on transmet la différence pixel à pixel<br />

par rapport à l'image précédente.<br />

Il y a plusieurs façons de prédire une zone de l'image par estimation de mouvement :<br />

• La prédiction peut se faire à partir d'une image précédente (prédiction avant),<br />

• La prédiction peut se faire par interpolation (moyenne) entre l'image précédente et<br />

l'image suivante (prédiction bidirectionnelle).<br />

Le codage MPEG permet pour une même séquence d'image de choisir un<br />

ordonnancement des images spécifiant lesquelles feront l'objet d'une prédiction avant ou<br />

bidirectionnelle. Le standard définit trois types <strong>d'images</strong> :<br />

- 50 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

• Les images I ou Intra-codées : elles sont codées indépendamment des autres à un<br />

faible t<strong>aux</strong>. Elles fournissent la référence pour les compensations de mouvement et<br />

prédiction.<br />

• Les images P ou Prédites : elles sont codées avec compensation de mouvement et<br />

prédiction à partir d'une image antérieure de type I ou P. Leur t<strong>aux</strong> de <strong>compression</strong> est<br />

supérieur à celui des images I.<br />

• Les images B ou Bidirectionnelles : elles sont codées avec compensation de<br />

mouvement et interpolation par rapport à une image précédente et une image suivante.<br />

Leur t<strong>aux</strong> de <strong>compression</strong> est le plus important. Elles ne sont jamais utilisées comme<br />

référence à une prédiction.<br />

L'utilisateur est libre de choisir l'ordonnancement des trois types d'image selon son<br />

application. La présence <strong>d'images</strong> B augmente le t<strong>aux</strong> de <strong>compression</strong> mais implique lors<br />

du décodage de reconstruire des images postérieures à l'image courante.<br />

1<br />

2<br />

I<br />

B<br />

B<br />

P<br />

B<br />

B<br />

Prédictions bidirectionnelles<br />

3<br />

P<br />

4<br />

I<br />

Prédictions avant<br />

5<br />

6<br />

7<br />

8<br />

Figure I-1.7 : Exemple d'ordonnancement <strong>d'images</strong> dans une séquence MPEG. I :<br />

image Intra-codée, P: image Prédite, B : image interpolée Bidirectionnelle<br />

2.6.2. Descriptif résumé de l'algorithme MPEG.<br />

Etape 1. Choix de l'ordonnancement des images dans la séquence.<br />

Etape 2. Quantification des images P.<br />

L'image P (notée xt ( + τ )) à coder (par exemple l'image numéro 4 de la Figure I-1.7) est<br />

divisée en zones de 16x16 pixels appelées macroblocs. On se fixe une étendue maximale<br />

( me, ne) par rapport au centre du macrobloc autour de laquelle on recherchera un<br />

macrobloc similaire mais translaté dans l'image précédente (notée x(t)) utilisée pour la<br />

prédiction. Cela revient à trouver le vecteur translation ( mm, nn) qui minimise l'erreur<br />

quadratique :<br />

15<br />

15<br />

[ ]<br />

2<br />

D = ∑∑ xmnt ( 0 0<br />

+ τ ) − xm ( + mm0n+<br />

nm0t)<br />

, avec m m


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

pixels correspondants. Ce macrobloc erreur est quantifié par une méthode similaire à<br />

JPEG, par transformation DCT de blocs de 8x8 pixels, puis quantification. Le standard<br />

MPEG propose plusieurs matrices de normalisation qui ont fait l'objet de tests<br />

psychovisuels moins extensifs que pour les matrices JPEG elles-mêmes. L'une des<br />

matrices de normalisation proposée est donnée ci-après. Elle fait apparaître que les<br />

coefficients de normalisations sont plus faibles que pour JPEG car ils sont destinés à des<br />

blocs d'erreurs dont les valeurs sont faibles.<br />

Qkl ( , ) =<br />

⎡ 8 16 19 22 26 27 29 34⎤<br />

⎢<br />

16 16 22 24 27 29 34 37<br />

⎥<br />

⎢<br />

⎥<br />

⎢19 22 26 27 29 34 34 38⎥<br />

⎢<br />

⎥<br />

⎢22 22 26 27 29 34 37 40⎥<br />

⎢22 26 27 29 32 35 40 48⎥<br />

⎢<br />

⎥<br />

⎢26 27 29 32 35 40 48 58⎥<br />

⎢26 27 29 34 38 46 56 69⎥<br />

⎢<br />

⎥<br />

⎣⎢<br />

27 29 35 38 46 56 69 83⎦⎥<br />

Après quantification, le macrobloc compensé est reconstruit lors de l'opération de codage<br />

elle-même. On cherche à savoir si la compensation de mouvement est réellement plus<br />

utile que de coder directement le macrobloc. Pour cela on compare la variance du<br />

macrobloc avec la variance du macrobloc compensé quantifié. La variance la plus faible<br />

indique la méthode de codage à choisir. Par conséquent, l'image P une fois codée sera<br />

composée de macroblocs compensés quantifiés, et de macroblocs directement<br />

quantifiés.<br />

Etape 3. Quantification des images B.<br />

On cherche le macrobloc le plus proche du macrobloc courant de l'image B à la fois dans<br />

l'image de référence précédente et l'image de référence suivante. Le macrobloc<br />

compensé est composé des valeurs de pixel moyennes entre les deux macroblocs de<br />

référence trouvés. Le reste de la compensation est identique à ce qui a été<br />

précédemment décrit pour les images P.<br />

Etape 4. Quantification des images I.<br />

Les images I sont quantifiées selon un principe similaire à la norme JPEG.<br />

Etape 5. Codage.<br />

Le codage des images quantifiées est très proche de celui de JPEG :réarrangement<br />

zigzag, DPCM sur les coefficients continus, RLC et Huffman sur les coefficients AC. La<br />

syntaxe du flot de bits final dépend du type de l'image. Elle comprend un indicateur du<br />

type d'image, un indicateur du type de macrobloc (compensé ou non), un codage<br />

différentiel du vecteur mouvement (si applicable), le code de l'erreur de compensation ou<br />

du bloc.<br />

2.6.3. Princip<strong>aux</strong> artefacts.<br />

Les images comprimées par la méthode MPEG présentent des artefacts de blocs à des<br />

t<strong>aux</strong> de <strong>compression</strong> élevés, tout comme la méthode JPEG. En effet, la quantification des<br />

erreurs après compensation de mouvement est également basée sur la quantification de<br />

bloc DCT 8x8.<br />

- 52 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

Visualisées individuellement, les images d'une séquence MPEG peuvent apparaître<br />

irrégulières dans leur qualité visuelle de part le fait que toutes ne sont pas codées de la<br />

même façon. (I, P, B)<br />

2.7. Méthode développée par Philips: MLOT<br />

En vue du travail d'évaluation <strong>d'images</strong> d'<strong>angiographies</strong> <strong>cardiaques</strong> comprimées qui fait<br />

l'objet de la partie II de la présente thèse, un algorithme spécifique a été mis au point par<br />

les laboratoires de la société Philips. Les contraintes et objectifs préalables à la mise au<br />

point de l'algorithme sont donnés dans le cahier des charges décrit l’introduction générale<br />

de ce mémoire. La raison majeure qui a motivé le développement d'une méthode<br />

spécifique, plutôt que l'utilisation des standards JPEG ou MPEG a été le problème des<br />

artefacts de blocs. L'algorithme mis au point par Philips sera dénoté MLOT dans la suite<br />

de cette thèse. Il s'agit d'une méthode intra-image.<br />

^<br />

Y 1,1<br />

^<br />

+<br />

Y 1,2<br />

+<br />

x<br />

x<br />

n<br />

n<br />

^<br />

Y 2,1<br />

^<br />

+<br />

Y 2,2<br />

+<br />

x<br />

x<br />

n<br />

n<br />

Y<br />

^<br />

+<br />

1,8 x<br />

Y<br />

^ +<br />

2,8<br />

n<br />

= =<br />

x<br />

n<br />

n<br />

+<br />

n<br />

échantillons reconstruits<br />

n<br />

Figure I-1.8: Absence d'effet de bloc par la transformation Lapped Orthogonal<br />

Transform<br />

- 53 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

Les étapes de l'algorithme sont données ci-après. Le schéma général est le même que<br />

celui d'une méthode par transformation donnée en Figure I-1.2.<br />

Etape 1. Transformation par une fonction dérivée de la LOT : la MLT.<br />

Afin d'éviter les artefacts de blocs, il est nécessaire que les vecteurs de base de la<br />

transformation convergent progressivement vers zéro à leurs extrémités (Figure I-1.8).<br />

Cela n'est pas possible avec une transformation par blocs adjacents si la contrainte de<br />

réversibilité doit être conservée. Une classe de transformation qui permet d'éliminer les<br />

artefacts de blocs est la classe des Overlap Transforms. Un recouvrement de 50% des<br />

vecteurs de base est un bon choix en pratique. Au-delà, il se produit un artefact appelé<br />

'ringing effect' lorsque la quantification est importante. La représentation matricielle d'une<br />

telle 50%-Overlap Transform en 1D est :<br />

⎡.<br />

⎤<br />

⎢<br />

.<br />

⎥<br />

⎢<br />

⎥<br />

⎢ AA<br />

1 2<br />

⎥<br />

⎢<br />

⎥<br />

y = Tx = ⎢<br />

AA<br />

1 2<br />

⎥x<br />

(I-1.9)<br />

⎢<br />

AA ⎥<br />

1 2<br />

⎢<br />

⎥<br />

⎢<br />

. ⎥<br />

⎢<br />

⎥<br />

⎣<br />

. ⎦<br />

En appliquant les contraintes imposées sur T par la propriété de réversibilité, et en<br />

appliquant une deuxième propriété avantageuse appelée linéarité de phase (pour obtenir<br />

des vecteurs de base symétrique en vue de respecter la réponse symétrique du HVS), on<br />

obtient une transformation dérivée des vecteurs de base de la DCT et de la DST 1 [MALV-<br />

90]. Mais les vecteurs de base de cette LOT, bien que nettement améliorés par rapport à<br />

la DCT, ne convergent pas parfaitement vers zéro à leurs extrémités. [YOUN-92] propose<br />

de modifier les facteurs d'échelle c(k,l) de certains vecteurs de base de la DCT employée<br />

pour calculer ceux de la transformation LOT. Il en résulte une nouvelle transformation<br />

appelée Modified Lot Transform (MLT). La MLT est parfaitement réversible, ses vecteurs<br />

de base convergent progressivement vers zéro, mais elle n'est pas orthogonale.<br />

Cependant, elle possède les caractéristiques de décorrélation nécessaires à la<br />

<strong>compression</strong> et s'avère très appropriée. Bien que pour coder un bloc de b pixels des<br />

vecteurs de base de longueur 2b soient nécessaires, le nombre d'opérations pour calculer<br />

une MLT n'est pas de 50% supérieur à celui d'une DCT mais seulement de 25% [MALV-<br />

90], [BREE-95]. Le calcul de la MLT utilisé dans l'algorithme MLOT est conduit de façon à<br />

donner des coefficients spectr<strong>aux</strong> entiers.<br />

Le choix de la taille b de blocs se fait en fonction des propriétés de stationnarité des<br />

images à coder.<br />

Etape 2. Quantification et codage.<br />

La méthode MLOT fait appel à un quantificateur à zone morte 'dead-zone' dont les<br />

caractéristiques sont données dans [BREE-94]. Ce quantificateur est très proche du<br />

quantificateur uniforme à transition centrée 'midtread' (voir chapitre I-6). Il quantifie à zéro<br />

toutes les valeurs dans une zone morte autour de l’origine. En pratique, il s'agit de<br />

coefficients faibles et l'erreur de quantification introduite n'est pas perceptible. En<br />

revanche le gain en entropie est intéressant.<br />

1 DST : transformation sinus discrète, de l'anglais Discrete sine Transform. Cette transformation est de la<br />

même famille que la DCT.<br />

- 54 -


Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />

Les coefficients quantifiés sont pondérés en fonction du HVS par multiplication avec une<br />

matrice dérivée des trav<strong>aux</strong> de [SAKR-77]. La méthode MLOT utilise en option une<br />

deuxième pondération adaptée <strong>aux</strong> post-traitements des <strong>angiographies</strong> coronaires.<br />

Les coefficients quantifiés et pondérés sont réarrangés par un balayage zigzag, puis<br />

codés. Les coefficients continus sont codés séparément par un nombre de bits fixe. Les<br />

coefficients AC sont codés par une combinaison de RLC et VLE similaire à l'algorithme<br />

MPEG-2.<br />

Etape 3. Variante pour la transmission progressive.<br />

Pour pouvoir reconstruire une image basse résolution (basse qualité) à partir d'une partie<br />

seulement du flot de bits de l'image comprimée, un codage hiérarchique a été employé.<br />

Lors de l'opération de balayage zigzag d'un bloc quantifié, les coefficients réordonnés sont<br />

divisés en segments. Dans la méthode MLOT, quatre segments ont été définis, le premier<br />

correspondant <strong>aux</strong> basses fréquences, et les autres <strong>aux</strong> fréquences moyennes et neutres.<br />

En ne reconstruisant pour chaque bloc que le premier segment, on obtient une image<br />

basse résolution, que l'on peut progressivement affiner en reconstruisant les segments<br />

suivants.<br />

Etape 4. Contrôle du t<strong>aux</strong> de <strong>compression</strong>.<br />

Afin d'obtenir avec précision la taille finale souhaitée pour l'image comprimée, une courbe<br />

d'évolution du nombre de bits engendré par le codage successif des segments et des<br />

blocs est déterminée à priori. La quantification du premier segment du premier bloc est<br />

réalisée avec un pas de quantification prédéfini. Le nombre de bits produits est comparé<br />

avec un nombre cible correspondant à la courbe d'évolution attendue. Le pas de<br />

quantification du segment suivant est ajusté en fonction de l'adéquation constatée entre<br />

les nombres de bits réel et attendu.<br />

Etape 5. Variante pour la régénération du bruit de l'image.<br />

Lorsque le t<strong>aux</strong> de <strong>compression</strong> est élevé, la quantification supprime les hautes<br />

fréquences des blocs de l'image. Dans le cas des <strong>angiographies</strong> <strong>cardiaques</strong>, les images<br />

ont au départ un contenu en bruit important, dû à la nature quantique des rayons X.<br />

L'observateur est habitué à des images bruitées, et la <strong>compression</strong> a un effet de lissage<br />

de l'image qui peut dérouter, bien que l'information clinique ait été correctement<br />

préservée. Un système de régénération de bruit a été développé, et a fait l'objet d'un<br />

dépôt de brevet. Il s'agit de mesurer l'écart entre le spectre de puissance du bloc quantifié<br />

et du bloc original. Le bruit supprimé par la quantification est modélisé, et les paramètres<br />

de modélisation sont transmis avec le bloc codé. Lors de la reconstruction, le spectre du<br />

bruit modélisé est ajouté <strong>aux</strong> coefficients spectr<strong>aux</strong> avant la transmission inverse MLT.<br />

- 55 -


CHAPITRE I-2<br />

GENERALITES SUR LES<br />

IMAGES MEDICALES ET<br />

ANGIOGRAPHIQUES:<br />

ACQUISITION, COMPRESSION<br />

ET STANDARDISATION<br />

- 56 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

1. Compression des images médicales<br />

1.1. Tendance en radiologie<br />

L’imagerie médicale numérique ([NEWE-90]) concerne environ 30% des examens<br />

radiologiques. Elle recouvre une grande diversité dans les principes physiques mis en jeu<br />

(rayons-X, ultrasons, résonance magnétique nucléaire, émission de positron, médecine<br />

nucléaire) et dans les différentes applications médicales (radiographie d’urgence,<br />

procédures interventionnelles...). Une méthode de <strong>compression</strong> bien adaptée à l’une des<br />

modalités d’imagerie médicale ne l’est pas forcément pour une autre. Ou, tout au moins,<br />

une méthode peut demander des adaptations différentes selon les modalités.<br />

Une motivation majeure des recherches en <strong>compression</strong> d’images médicales vient de la<br />

proportion croissante d’examens acquis numériquement. Il faut les stocker, les<br />

communiquer et les visualiser malgré la masses de donnée requise. Les examens<br />

directement acquis numériquement sont par exemple le scanner, l’IRM, l’angiographie. La<br />

présence dans un même établissement de films conventionnels et d’images numériques<br />

pose des problèmes pratiques. La tendance est de numériser aussi les examens non<br />

digit<strong>aux</strong> à l’origine, en numérisant les films argentiques ou en utilisant des plaques de<br />

phosphore (systèmes CR 1 ) à la place des cassettes pour films traditionnels. Toutes les<br />

images numériques peuvent être archivées, communiquées et visualisées à l’aide de<br />

rése<strong>aux</strong> numériques tels que les PACS 2 . La viabilité économique des PACS a été difficile<br />

à prouver lors de leur introduction à la fin des années 80. Mais leur émergence et la<br />

tendance irréverssible vers les solutions numériques ont fortement motivé l’étude de la<br />

<strong>compression</strong> d’image.<br />

[RABB-91] explique de façon didactique quelques-unes des méthodes de <strong>compression</strong><br />

applicables à l’imagerie médicale. [WONG-95] passe en revue de façon exhaustive les<br />

motivations, contraintes, applications et trav<strong>aux</strong> de <strong>compression</strong> sur des images<br />

médicales.<br />

Il est frappant de constater le faible nombre d’études consacrées <strong>aux</strong> algorithmes<br />

standards tels que JPEG avant 1995. Au delà d’un t<strong>aux</strong> de 10:1, la communauté médicale<br />

et scientifique a eu tendance a considérer que les artefacts de blocs étaient rédhibitoires.<br />

Les méthodes de <strong>compression</strong> qui ont fait l’objet des princip<strong>aux</strong> développements et<br />

d’évaluation dans le médical sont énumérés ci-après.<br />

• La Full-Frame DCT<br />

Les trav<strong>aux</strong> de l’UCLA [LO-85], [CHAN-89], montrent que des images numériques de<br />

main et de poumon comprimées jusqu’à un t<strong>aux</strong> de 20:1 ne font pas l’objet de<br />

dégradation de performance diagnostique [SAYR-92].<br />

• La décomposition sous-bandes<br />

[ROMP-91], [AKRO-92], [MOLL-92], [AKRO-93].<br />

• Les ondelettes<br />

1 CR: Computed Radiography<br />

2 PACS: Picture Archiving and Communication System<br />

- 57 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

Cette technique fait actuellement l’objet d’un nombre important de publications. [MAND-<br />

92], [MAND-93] fait part de bons résultats visuels sur des images de résonance<br />

magnétiques. Parmi les trav<strong>aux</strong> récents, on peut citer [BRAD-97] sur des images de<br />

thorax.<br />

[BENO-97] applique une <strong>compression</strong> à base d’ondelette dans le cadre du projet Cardio-<br />

Média, qui a pour objectif la création d'un prototype de dossier coronarien sur carte<br />

optique afin de faciliter le suivi clinique des patients traités par angioplastie. L’algorithme<br />

présenté utilise une transformation en ondelettes et une quantification vectorielle adaptée<br />

des coefficients d'ondelettes. Son originalité repose sur la phase d'apprentissage qui<br />

permet de disposer d'un algorithme de <strong>compression</strong>/dé<strong>compression</strong> rapide adapté à la<br />

modalité médicale "angiographie". Une évaluation subjective par consensus de la qualité<br />

diagnostique des images comprimées a permis de retenir un t<strong>aux</strong> de <strong>compression</strong> de 12<br />

qui répond <strong>aux</strong> contraintes matérielles et médicales du projet.<br />

• La quantification vectorielle<br />

Stanford est un haut lieu de cette technique. Les trav<strong>aux</strong> publiés dans [RISK-89], [RISK-<br />

90], [COSM-93], [COSM-94], font état de bons résultats diagnostiques en scanner et en<br />

IRM jusqu’à des t<strong>aux</strong> de 30:1.<br />

[AKRO-92], [AKRO-93] a utilisé des blocs de formes variables pour s’adapter au<br />

propriétés d’images radiologiques.<br />

Actuellement, on cherche à évaluer les limites d’utilisation des méthodes standards. Bien<br />

que donnant des résultats moins bons que les méthodes citées précédemment, elles<br />

présentent l’avantage de disposer de logiciel et matériels commercialisés peu onéreux,<br />

disponibles sur des ordinateurs standards.<br />

Des trav<strong>aux</strong> récents visent à rendre JPEG plus adapté <strong>aux</strong> images médicales, [DING-95]<br />

[DING-96].<br />

Un certain effort commence à être perçu pour évaluer jusqu’à quel t<strong>aux</strong> JPEG fournit des<br />

résultats acceptables.<br />

1.2. Tendance en cardiologie<br />

L’intérêt porté par la communauté cardiologique à la <strong>compression</strong> d’image est plus récent<br />

qu’en radiologie. Cela provient peut-être du fait que l’archivage et l’utilisation de supports<br />

d’échanges tels que le Compact Disc n’est envisageable que depuis deux ou trois ans. Un<br />

examen volumineux en radiologie occupe environ 30 MO 3 , tandis qu’en cardiologie, un<br />

examen courant occupe plus de 500 Mo.<br />

Considérant d’emblé le problème de l’échange des images et de la compatibilité des<br />

media en cardiologie, les chercheurs, médecins et industriels portent une grande attention<br />

<strong>aux</strong> avantages des standards.<br />

Les princip<strong>aux</strong> trav<strong>aux</strong> de <strong>compression</strong> en cardiologies sont ceux sur les méthodes<br />

MLOT, JPEG et MPEG évalués dans cette thèse ([BREEU-94], [KONI-97], [KIRK-97]),<br />

ceux de [EPST-94] portant sur des simulations de thrombus, et ceux de [RIGO-96] portant<br />

sur les mesures quantitatives avec JPEG.<br />

3 Mo: Mega octet<br />

- 58 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

2. Standards d’images médicales<br />

2.1. Pourquoi un standard<br />

Le besoin d’un standard pour les images médicales est apparu avec l’essor des media<br />

numériques et des rése<strong>aux</strong> d’images. Les différents constructeurs d’imagers numériques<br />

avaient tous dans les années 80 des mises en oeuvre propriétaires. La communauté<br />

médicale a activement oeuvré à l’établissement d’un standard pour pouvoir échanger des<br />

examens numériques au sein d’un établissement, ou entre institutions. Même si un long<br />

chemin a été parcouru, l’inter-opérabilité entre machines n’est pas encore aujourd’hui une<br />

question complètement évidente en pratique.<br />

2.2. Historique des standards ACR-NEMA et DICOM<br />

En 1985, un comité composé de radiologues et d’ingénieurs, l’ACR-NEMA 4 , a crée le<br />

premier standard d’images médicales. Celui-ci était essentiellement basé sur un protocole<br />

pour échanger les images avec les informations qui lui sont associées (identification du<br />

patient et de l’examen, paramètres liés à l’acquisition ou à la visualisation de l’image).<br />

Malgré des mises à jour progressives, ce standard présentait quelques faiblesses et ne<br />

permettait pas toujours l’échange dans de bonnes conditions.<br />

En 1992-93, le standard ACR-NEMA a été modifié en profondeur pour déboucher sur le<br />

standard DICOM 3 5 [NEMA-96], [HIND-94]. L’apport capital de ce standard est lié à trois<br />

de ces caractéristiques fondamentales:<br />

• il repose sur un modèle de données, ce qui permet de lier les paramètres cliniques, les<br />

paramètres techniques et l’image avec une sémantique,<br />

• il est orienté objet, à chaque modalité d’imagerie correspond une IOD 6 qui spécifie<br />

l’objet-image et ses propriétés,<br />

• il intègre des services, ce qui permet de définir des règles pour communiquer, stocker,<br />

rechercher, imprimer un objet.<br />

Le format DICOM a maintenant deux volets: l’un axé sur les rése<strong>aux</strong>, l’autre axé sur les<br />

media. Pour le stockage sur un medium digital, chaque spécialité dispose d’un profile<br />

d’application 7 , qui associe un medium particulier avec une IOD. Par exemple en<br />

angiographie, le support standardisé pour l’échange est le Compact Disc.<br />

DICOM est donc un standard dont le champ d’application est plus vaste que la simple<br />

définition d’une syntaxe pour écrire un fichier, et dont la vocation est d’offrir une fondation<br />

<strong>aux</strong> fonctionnalités liées à l’échange des images entre systèmes hétérogènes (scanners,<br />

IRM, consoles de travail...).<br />

2.3. DICOM et la <strong>compression</strong><br />

La notion de <strong>compression</strong> a fait son apparition dès 1989, avec l’intégration de quelques<br />

champs de données dédiés à une <strong>compression</strong> éventuelle de l’image.<br />

Depuis, de nombreuses possibilité de coder les images ont été intégrées dans le<br />

standard, incluant <strong>compression</strong> avec et sans perte.<br />

4 ACR: American Colledge of Radiology, NEMA: National Electrical Manufacturers Association<br />

5 DICOM: Digital Imaging and COmmunication in Medicine<br />

6 IOD: Image Object Definition<br />

7 profile d’application, an anglais: application profile<br />

- 59 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

Mais introduire la <strong>compression</strong> dans un standard médical n’a d’intérêt que pour des<br />

applications le justifiant.<br />

Deux applications de la <strong>compression</strong> dans DICOM concernent à l’heure actuelle le<br />

stockage sur medium en échographie et en angiographie. Depuis quelques temps déjà,<br />

les constructeurs d’échographes proposent un archivage sur disque optique magnétique<br />

ou sur cassette numérique, et utilise un <strong>compression</strong> MPEG. Cette approche est<br />

conforme au standard. En 1995, le CD a été introduite comme le support standard<br />

d’échange en angiographie. Le CD cardiologique est basé sur une <strong>compression</strong> sans<br />

perte de type JPEG, et peut être étendu par du JPEG avec perte. Deux constructeurs<br />

(Philips et Siemens) ont opté pour cette extension. En sus des images codées sans perte,<br />

leurs disques contiennent les images codées avec perte, afin de pouvoir visualiser les<br />

images dynamiquement directement depuis le disque.<br />

Dans ces deux applications qui font appel à la <strong>compression</strong>, les examens sont constitués<br />

de séquences d’images: la quantité de donnée est importante, et la visualisation<br />

dynamique est nécessaire.<br />

3. Standards médic<strong>aux</strong> et standards industriels<br />

Il est vraisemblable que l’intégration de la <strong>compression</strong> dans le standard DICOM va<br />

s’intensifier dans les années à venir. La problématique d’un algorithme dédié au médical<br />

ou d’un standard de l’industrie informatique et grand public (tel que JPEG ou MPEG)<br />

devra être résolue.<br />

Là encore, l’approche des radiologues et des cardiologues diffèrent.<br />

L’ACR étudie actuellement la définition d’un nouvel algorithme de <strong>compression</strong>, le mieux<br />

adapté possible <strong>aux</strong> images médicales. Au moment de la rédaction de ce mémoire, un<br />

algorithme à base d’ondelettes est envisagé. Quant à l’ACC, évalue le champ<br />

d’application de JPEG sur l’interprétation visuelle et sur les mesures QCA.<br />

Pour des applications autres que les systèmes d’acquisition (angiographie, scanners,<br />

IRM), il est très peu probable que les constructeurs médic<strong>aux</strong> mettent en œuvre des<br />

algorithmes spécifiques. En particulier, pour les cartes électroniques qui sont nécessaires<br />

à certaines applications (dé<strong>compression</strong> temps réel), les coûts de développements sont<br />

trop élevés. Les investissements d’une réalisation matérielle ne sont pas en proportion<br />

avec la diffusion en petite série des systèmes médic<strong>aux</strong>. De plus, un matériel dédié est<br />

moins pratique pour l’utilisateur, qui doit mettre en place un configuration spécifique sur<br />

son ordinateur. Enfin, les technologies informatiques évoluent beaucoup plus vite que les<br />

cycles de vie des produits médic<strong>aux</strong>. L‘utilisation croissante de systèmes informatiques<br />

standards par les constructeurs d’imagerie laisse un champ plus important à l’utilisateur<br />

pour faire évoluer sa configuration.<br />

La paradigme de la méthode de <strong>compression</strong> médicale basée sur un algorithme<br />

spécifique ou un standard industriel a été au coeur de toutes les réflexions sous-jacentes<br />

à cette thèse. L’évolution des performances informatiques entre la conception de notre<br />

projet et la fin de sa réalisation a complètement bouleversé nos attentes vis à vis de la<br />

<strong>compression</strong> en angiographie cardiaque. Le projet était axé au départ sur la réalisation<br />

d’un matériel pour l’acquisition temps-réel des images au cours de l’examen. En effet, les<br />

disques durs suffisamment rapides pour un acquisition à 25 im/sec étaient alors<br />

extrêmement onéreux et l’évolution des prix et performances encore lente. Un simple<br />

ordinateur permettant une visualisation dynamique des <strong>angiographies</strong> valait alors environ<br />

un million de francs, à cause du disque dur temps réel. Un investissement lourd pour un<br />

système d’angiographie pouvait se justifier. Deux ans après le début du projet, la<br />

- 60 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

tendance était différente, le prix des disques temps réel commençait à chuter. En<br />

parallèle, l’accent était mis par les cliniciens sur les supports d’échange et sur les rése<strong>aux</strong>.<br />

L’application de la <strong>compression</strong> se déplaçait donc de l’acquisition vers la communication<br />

des images et leur visualisation dynamique. Les résultats des développements et des<br />

évaluations restaient donc encore un sujet d’intérêt primordial. Mais l’application s’était<br />

déplacée du système d’acquisition des images vers le support d’échange et la console de<br />

visualisation.<br />

4. Principe et particularités de l’angiographie cardiaque<br />

L’angiographie cardiaque est une modalité d’imagerie médicale à base de rayons X. Elle<br />

requiert un équipement sophistiqué à cause notamment de la cadence élevée nécessaire<br />

pour photographier le coeur en mouvement, et des positions de caméra complexes<br />

indispensables à l’appréciation sous plusieurs angles de vue de ces artères et cavités<br />

(Figure I-2. 1).<br />

Figure I-2. 1: Equipement d’angiographie cardiaque<br />

Un synoptique des éléments constituant la chaîne d’imagerie est donné à la Figure I-2. 2.<br />

Nous n’aborderons pas leurs caractéristiques en détail, mais traiterons de façon<br />

simplifiée, qualitative et non exhaustive de ceux qui ont un impact majeur sur les<br />

propriétés des images et éventuellement sur la <strong>compression</strong>.<br />

Tous les éléments de la chaîne jouent un rôle sur la propriété des images générées. Les<br />

phénomènes qui interviennent sont complexes. Les éléments ayant une influence<br />

significative dans le cadre de nos trav<strong>aux</strong> sont principalement le tube à rayons X , et le<br />

patient.<br />

Le tube à rayons X émet un faisceau de rayons X polychromatique par bombardement<br />

d’une anode par des électrons. La dose radiogène par image est faible en angiographie<br />

cardiaque. D’une part le tube radiogène est soumis à des charges thermiques énormes<br />

pour tenir des cadences de 25 à 50 im/sec., et d’autre part il y a des limites vis à vis de<br />

l’exposition du patient et du personnel. La dose est d’environ 8µR par image, ce qui est de<br />

loin inférieur à toutes les autres modalités par rayons-X. Les images d’<strong>angiographies</strong><br />

<strong>cardiaques</strong> sont très bruitées car peu de photons X participent à leur génération. Le<br />

rayonnement X a une nature quantique qui explique l’effet de “moutonnement quantique”<br />

observé sur les images.<br />

- 61 -


N A<br />

Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

Les rayons X sont transmis à travers le corps du patient. Selon les tissus traversés, les<br />

rayons sont plus ou moins absorbés. Les os absorbent fortement les basses énergies et<br />

sont particulièrement visibles sur les radiographies. Les muscles ont une atténuation<br />

voisine de l’eau, et la graisse une atténuation un peu inférieure. Ni le coeur, ni les<br />

vaisse<strong>aux</strong> sanguins n’ont une atténuation suffisante pour être visibles en radiologie. Pour<br />

cette raison, il est indispensable d’injecter sélectivement un produit de contraste opaque<br />

<strong>aux</strong> rayons X au moment de l’acquisition des images. L’”épaisseur” (distance parcourue<br />

par les rayons X dans l’organisme) du patient a un impact majeur sur la qualité des<br />

images produites et la visibilité des vaisse<strong>aux</strong> <strong>cardiaques</strong>. Plus cette épaisseur est<br />

importante, moins il y aura de photons au niveau de l’amplificateur de luminance, et donc<br />

plus l’image sera bruitée. Pour un même patient, il y a des angles de vues obliques qui<br />

entraînent une épaisseur particulièrement importante. Il peut donc y avoir une variabilité<br />

assez importante dans le bruit des images selon la taille du patient, et selon les angles de<br />

vue sur un même patient.<br />

Tube radiogène<br />

Patient<br />

Amplificateur<br />

de<br />

luminance<br />

Caméra<br />

radio cinéma<br />

Miroir semitransparent<br />

Caméra TV<br />

CA N Processeur C<br />

Ecran de visualisation<br />

Disque<br />

Figure I-2. 2: Synoptique de la chaîne d’acquisition d’image en angiographie<br />

cardiaque numérisée.<br />

[LIEN-95] explique à l’aide d’une modélisation de la chaîne d’imagerie et<br />

d’expérimentation que l’entropie différentielle de l’image diminue si la dose X s’accroît.<br />

L’auteur montre aussi que l’entropie augmente avec le niveau de gris.<br />

Notons que la résolution spatiale engendrée par la matrice de l’image joue un rôle moins<br />

prépondérant qu’on ne pourrait le penser. La résolution la plus employée reste 512x512<br />

(et de plus en plus on évolue vers du 1024x1024). La notion de résolution spatiale<br />

correspond à la taille du plus fin détail que l’on peut distinguer. La résolution d’un système<br />

512x512 avec un champs d’amplificateur de luminance de 16cm est de 300µm environ.<br />

Elle est inférieure à la résolution du film de radio-cinéma qui est de 25 à 200µm selon la<br />

géométrie du système d’acquisition. Mais en pratique, la résolution en contraste est très<br />

- 62 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

importante en angiographie cardiaque. Un petit détail ne peut être perçu que si son niveau<br />

de gris est suffisamment différent de ce qui l’entoure, surtout si l’image est bruitée. En fait,<br />

l’apport de la numérisation en cardiologie tient principalement à l’amélioration du contraste<br />

des vaisse<strong>aux</strong>, et ce malgré une perte en résolution spatiale. Cette amélioration est due à<br />

des traitements numériques, en particulier de renforcement de contours.<br />

En <strong>compression</strong>, on constate que les images 1024x1024 n’ont pas une entropie de<br />

beaucoup plus faible que les images 512x512. Elles sont donc plus faciles à comprimer<br />

car elles contiennent plus de redondance.<br />

5. Quelques propriétés des images d’<strong>angiographies</strong><br />

<strong>cardiaques</strong><br />

[BREE-92] a observé les propriétés de quelques <strong>angiographies</strong> <strong>cardiaques</strong> en<br />

comparaison d’images vidéo typiques. Toutes les images testées étaient codées au<br />

départ avec 8bpp. Nous avons extrait quelques éléments de ce rapport.<br />

• Spectre de fréquences<br />

Le spectre de fréquences horizontales a été mesuré selon la formule:<br />

S h (k) = 10. log 10 [ 1 M<br />

∑ | Fl<br />

( i, k)| dB<br />

M i=<br />

1<br />

où F l (i,k) est le k ième élément de la FFT de la i ème ligne de l’image, et où k=1, ..., N/2<br />

Le spectre de fréquences verticales est défini de façon analogue.<br />

- 63 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

télévision<br />

angiographie<br />

angiographie<br />

télévision<br />

(a)<br />

(b)<br />

(c)<br />

(d)<br />

Figure I-2.3: Spectres de fréquences de deux images de télévision et trois<br />

<strong>angiographies</strong>. (a) et (b): <strong>angiographies</strong> non renforcées. (c) et (d): <strong>angiographies</strong><br />

renforcées. - d’après [BREEU-92]<br />

Les <strong>angiographies</strong> ont des spectres de caractéristique “passe-bas”, et leur énergie à<br />

presque toutes les fréquences est inférieure à celle des images TV. Le renforcement de<br />

contour rehausse les fréquences basses et moyennes, dont l’énergie reste inférieure à<br />

celle des images TV.<br />

Une <strong>compression</strong> qui supprime les basses et moyennes fréquences des <strong>angiographies</strong><br />

s’avérera peu appropriée car ces fréquences ont un contenu énergétique important pour<br />

de telles images, notamment avec le renforcement de contour.<br />

• Distance de corrélation<br />

La distance de corrélation entre deux sign<strong>aux</strong> x(n) et y(n) est définie par<br />

E[( x−<br />

E( x)).( y−<br />

E( y))]<br />

ρ =<br />

2 2<br />

E[( x−<br />

E( x)) ]. E( y−<br />

E( y)) ]<br />

où E est l’opérateur de l’espérance mathématique.<br />

- 64 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

(a)<br />

(b)<br />

(c)<br />

Figure I-2. 4: Corrélation entre pixels en fonction de leur distance horizontale et<br />

verticale. (a) Image de télévision. (b) Angiographie non renforcée. (c) Angiographie<br />

renforcée. - D’après [BREEU-92]<br />

La corrélation des <strong>angiographies</strong> est très élevée. A des distances de 20 pixels, elle est<br />

encore supérieure à 0.9, alors qu’elle est d’environ 0.5 sur une image de télévision. Le<br />

renforcement de contour diminue la corrélation, mais elle reste forte en comparaison<br />

d’une image TV (0.85 à 20 pixels).<br />

La <strong>compression</strong> par blocs de 8x8 semble peu appropriée <strong>aux</strong> <strong>angiographies</strong>. Une<br />

méthode avec des blocs plus large, ou en pleine image semble préférable.<br />

• Entropie<br />

L’entropie donne une indication du niveau maximal de <strong>compression</strong> sans perte.<br />

L’entropie spatiale (formule I-2.2) des <strong>angiographies</strong> est de l’ordre de 2.6 à 3.2 bpp. Les<br />

images de télévision ont une entropie bien supérieure, de l’ordre de 6 à 7 bpp. Après<br />

renforcement, les <strong>angiographies</strong> ont une entropie plus forte, de l’ordre de 4.7 à 5.7 bpp.<br />

On peut s’attendre à des t<strong>aux</strong> de <strong>compression</strong> sans perte de l’ordre de 2.5 à 3 sur les<br />

image non renforcées, et d'environ 1.5 sur les images renforcées.<br />

L’entropie temporelle peut être déterminée de façon analogue à l’entropie spatiale. On<br />

commence par déterminer l’histogramme des différences entre les pixels de même<br />

position sur des images successives dans une séquence, et on applique la formule I-2.2.<br />

Pour une image angiographique non renforcée, l’entropie temporelle est de 4.2, avec<br />

renforcement cette entropie devient 5.6, en comparaison l’entropie temporelle d’une<br />

image TV est de 6.1.<br />

- 65 -


Chapitre I-2: Généralités sur les images médicales et angiographiques<br />

• Conclusions<br />

Ces mesures sur les images donnent plusieurs indications:<br />

- Les <strong>angiographies</strong> contiennent peu d’information. Elles devraient pouvoir être<br />

comprimées à des t<strong>aux</strong> d’environ 8:1 avec une bonne qualité perceptuelle, compte tenu<br />

que les images TV peuvent l’être à un t<strong>aux</strong> de 4:1 environ.<br />

- Les <strong>angiographies</strong> non renforcées doivent pouvoir être comprimées à un t<strong>aux</strong> plus<br />

important que les <strong>angiographies</strong> renforcées.<br />

- La corrélation intra-images est plus importante que la corrélation inter-image. Compte<br />

tenu de cette remarque, des résultats d’entropie temporelle, et du fait que le déplacement<br />

des vaisse<strong>aux</strong> est très important d’une image à l’autre, il est peu probable que les<br />

méthodes inter-<strong>compression</strong> donnent de meilleurs résultats que les méthodes intraimages.<br />

Cette remarque a été validée par la suite avec l’emploi des standards MPEG et<br />

JPEG. Aucun bénéfice n’a été constaté avec MPEG.<br />

- La corrélation spatiale des <strong>angiographies</strong> est très élevée, suggérant qu’un découpage en<br />

blocs de 8x8 pixels est probablement inapproprié et que des blocs beaucoup plus larges<br />

ou une approche pleine image est préférable.<br />

Ces observations font partie des éléments importants pour sélectionner les méthodes<br />

FFDCT et MLOT comme candidates pour ce projet.<br />

- 66 -


CHAPITRE I-3<br />

ALLOCATION DES BITS DANS LA<br />

TECHNIQUE FULL FRAME DCT<br />

- 67 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

Présentation<br />

L’étape clé de toute méthode de <strong>compression</strong> avec perte contrôlée d’information est la<br />

quantification. Dans le cadre d’une méthode par transformation, les choix déterminants<br />

sont celui du quantificateur et celui de la stratégie d’allocation des bits. Le quantificateur<br />

scalaire est un bon candidat de par son efficacité et sa simplicité. Nous avons essayé<br />

d’améliorer l’allocation de bits proposée par [CHAN-89b] en développant une méthode<br />

plus adaptée <strong>aux</strong> <strong>angiographies</strong>. Nous avons découpé le plan de la DCT de l’image en<br />

zones circulaires. Ce type de découpage suit au mieux la répartition énergétique des<br />

coefficients DCT, et permet d’allouer un nombre fixe de bits à des zones d’énergie<br />

voisine. Nous nous sommes appuyés sur un modèle statistique de la distribution des<br />

coefficients dans ces régions pour prédire l’erreur de quantification dans un algorithme<br />

itératif d’allocation des bits. Ce modèle nous a de plus permis d’optimiser le pas de<br />

quantification.<br />

Ces trav<strong>aux</strong> ont fait l’objet de l’article [BERE-94], présenté à SPIE Medical Imaging, dont<br />

le texte est reproduit ci-dessous.<br />

Optimal Bit Allocation for Full Frame DCT coding schemes<br />

Application to Cardiac Angiography.<br />

ABSTRACT<br />

This paper reports on a lossy <strong>compression</strong> method applicable to cardiac angiography. Full<br />

Frame DCT coding has been investigated, using an optimized bit allocation and<br />

quantization scheme. We compared it to the standard JPEG method in the environment of<br />

a cardiac angiography system with dedicated visualization devices and post-processing.<br />

At a <strong>compression</strong> ratio 12:1, the image quality appeared to be better than the JPEG baseline<br />

<strong>compression</strong>. Owing to the principle of our method, no blocking effect is induced,<br />

whereas this is a critical drawback of the JPEG algorithm. Furthermore, the sharpness of<br />

fine details is better preserved.<br />

1 - INTRODUCTION<br />

Cine-film is still the most commonly used medium for recording and transmitting X-ray<br />

cardiac angiograms, despite the fact that digital systems are now widely spread. Indeed,<br />

the improvement of diagnosis and the development of interventional procedures - such as<br />

Percutaneous Transluminal Coronary Angioplasty - has been facilitated by digital<br />

enhanced displays and immediate reviewing. However in practice, except for some still<br />

image cases, full patient data cannot be digitally archived: the amount of digital data per<br />

patient is much too high: 1000 to 3000 images at a resolution of 512x512 pixels coded on<br />

8 bits per pixel (and up to 1024x1024x10 bits). Thus, image data <strong>compression</strong> is critical in<br />

the perspective of a fully digitized data handling scheme.<br />

The objective of this work is to reach a <strong>compression</strong> ratio (CR) of about 12:1. The method<br />

we propose here is a lossy <strong>compression</strong> scheme, seeing that for theoretical reasons<br />

lossless <strong>compression</strong> schemes can only achieve low <strong>compression</strong> ratios which do not<br />

- 68 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

fulfill our objective. Given the required CR, the whole problem is to find the best<br />

compromise between the information we accept to lose and the perceptual image quality<br />

as well as the accuracy of the diagnosis.<br />

Among lossy data <strong>compression</strong> techniques, block-based transform coding have become<br />

popular. The Joint Photographic Experts Group (JPEG) [1] of the International<br />

Standardization Organization (ISO) has standardized a <strong>compression</strong> scheme based on<br />

the Discrete Cosine Transform (DCT). It yields good image quality at high <strong>compression</strong><br />

ratios. Unfortunately, in the viewing conditions of a digital angiography system, artifacts<br />

induced by the block decomposition of the image become visible at <strong>compression</strong> ratios of<br />

8 to 12:1. Full Frame Discrete Cosine Transform (FF-DCT) is a good candidate to<br />

overcome the blocking effect.<br />

Section 2 describes the optimal bit allocation algorithm, quantization and coding schemes<br />

that we have considered for FF-DCT coding. Results are presented in Section 3. We<br />

compressed images from a digital cardiac angiography system and we compared the<br />

performance of our algorithm with the JPEG one.<br />

2-1 Full Frame DCT coding scheme<br />

2- CODING OF THE DCT COEFFICIENTS<br />

Some Full Frame DCT schemes have been reported for the coding of radiological images<br />

[2-4]. In our work, we have looked for an algorithm adapted to the statistical properties of<br />

the DCT of cardiac angiograms. Figure 1 shows the block diagram of a Full Frame DCT<br />

coding system.<br />

image<br />

Ö (pixels)<br />

Full Frame<br />

DCT<br />

coding<br />

quantization<br />

Ö Ö RLC/VLC Ö<br />

Ï<br />

compressed file<br />

(bits)<br />

number of bits<br />

step size<br />

lossless<br />

lossy<br />

lossless<br />

Figure 1 :Block diagram of a Full Frame DCT coding scheme<br />

In this kind of <strong>compression</strong> methods the pixel grey levels are first reversibly transformed to<br />

a frequency domain representation by FF-DCT. The quantization of the DCT coefficients<br />

is the key issue for achieving high <strong>compression</strong> ratios yet maintaining an acceptable<br />

image quality. Chan & al. [3] proposed to divide the DCT transformed image in a large<br />

number of rectangular zones. Their number of bits assigned to the coefficients of each<br />

zone was lowered from the DC to the high frequencies, with a decrease of one bit per<br />

zone.<br />

In our method, we have developed an optimal bit allocation and quantization method that<br />

minimizes the quantization error. We have proven that dividing the FF-DCT plane in<br />

circular zones leads towards an optimal approach for the <strong>compression</strong> of cardiac<br />

- 69 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

angiograms. A truncated Laplacian analytical model is used to design an optimal uniform<br />

quantizer. For an a priori number of bits per coefficient and with the observed dynamics<br />

and variance of a zone, the optimal quantization step is computed, together with the<br />

minimum quantization error. This evaluation is used in an integer bit allocation algorithm.<br />

We have chosen a bit allocation based on the theory of marginal analysis. After the<br />

quantization procedure, the remaining redundancy of the quantized DCT coefficients is<br />

reduced by Run Length Coding (RLC) and Variable Length Coding (VLC). In the next<br />

subsections, we will discribe in detail the steps of this <strong>compression</strong> scheme.<br />

2-2 Normalized DCT coefficients<br />

In the DCT-II transform formula [5] the dynamic range of the transformed coefficients is<br />

larger than that of the image pixel grey levels. Let "a" be the maximum pixel grey level in<br />

the image. If the image is properly scaled and coded with 8 bits per pixel, then a = 255.<br />

For an NxN image, it can be shown that the DCT coefficients X(k, l) are bounded as<br />

follows :<br />

X(0, 0) ≤ N . a<br />

- 2 N 2N .a ≤ X(0, l) and X(k, 0) ≤ . a k ≠ 0 and l ≠ 0<br />

2<br />

2<br />

- 2N . a ≤ X(k, l) ≤ 2N . a k ≠ 0 and l ≠ 0<br />

We divide each coefficient by the normalization matrix given thereafter in order to have the<br />

same dynamic range for all of the DCT coefficients :<br />

Q(k, l) = N k = 0 and l = 0<br />

= 4 N<br />

2<br />

k = 0 and l ≠ 0, or k ≠ 0 and l = 0<br />

= 4N k ≠ 0 and l ≠ 0<br />

This normalization is done just after the transform and is completely reversible. Clearly,<br />

the decoded DCT coefficients will be de-normalized in the de<strong>compression</strong> scheme.<br />

In practice, this operation is not necessary if we incorporate it in the FF-DCT and inverse<br />

FF-DCT algorithm. It can be noted that the maximum values of the normalized DCT<br />

coefficients are much smaller than their theoretical bound. Then, a small number of bits<br />

(less than 8 in our situation) can be allocated to the normalized DCT coefficients.<br />

- 70 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

2-3 Zonal splitting of the DCT plane<br />

In general, high values of the DCT coefficients are concentrated in low "frequency bands"<br />

of the DCT domain. We have observed the repartition in the DCT plane in the case of<br />

cardiac angiograms. The variance of each normalized DCT coefficient has been computed<br />

for an image series. The contour plot of these variances is given in Figure 2. It shows that<br />

the DCT coefficients are distributed in circular zones and dicrease from the DC to high<br />

frequencies. This dicrease is logarithmic.<br />

Figure 2 : Contour plot of the logarithm of the normalized variances σ 2 (k, l) / σ 2 (0, 0) of<br />

the DCT coefficients of a cardiac angiogram series. Plot levels are -10 dB, -20 dB, -30 dB,<br />

-40 dB.<br />

After dividing the previously shown variance map in circular zones, we observed how the<br />

variances themselves were distributed in the zones. The variance of the variances on a<br />

series of normalized DCT coefficients is very low in each circular zone. Only small peaks<br />

can be observed for some high frequencies. We concluded that a constant bit allocation<br />

and a constant quantization step can be applied to all the coefficients of a zone.<br />

Furthermore, it is interesting to preserve the directionality in the DCT plane. For this sake,<br />

the DCT plane has also been split in upper diagonal and lower diagonal sub-zones. They<br />

contain respectively the vertical and the horizontal frequency features. It can be noted that<br />

preserving directionality is the basic idea of subband coding and directional codeword in<br />

subband vector quantization [6].<br />

By allocating a small number of bits to sub-zones with a low variance, the <strong>compression</strong><br />

ratio can be increased. In practice, with zones positioned logarithmicly (511-256), (256-<br />

128), (128-64), (64-32)... the number of zones is small and some of them have a very<br />

large number of coefficients. It follows that the <strong>compression</strong> ratio is very difficult to control.<br />

For this reason we chose to divide the DCT plane in a linear way, as shown in Figure 3.<br />

- 71 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

012 4 8 16 32 64 ... 448 480 511<br />

Figure 3 : Circular and directional splitting of the DCT domain<br />

2-4 Uniform optimal quantizer<br />

The quantizer is a staircase function that maps many input values into a small number of<br />

output levels. We applied a uniform optimal quantizer to each zone. Let [m i - Ai, m i + Ai]<br />

be the range of the DCT coefficients of a zone "i", where m i is the mean value of that zone<br />

and A i is half the dynamic range. We denote the dynamic range D i = 2 A i and we have D i<br />

≤ a (see section 2-2). A value X(k, l) that lies in [m i + δ ij , m i + δ ij+1 ] is mapped into the<br />

reconstruction levels r ij, where δ ij is the set of increasing decision levels, j = -L i /2, ..., 1, ...,<br />

L i /2 - 1 and L i = 2 bi ; b i is the number of bits allocated to the quantizer of zone i . Given a<br />

fixed number of bits b i , the uniform quantizer is determined completely by the size of the<br />

quantizer step q i . This step size is constant for all values of j : q i = δ ij - δ ij-1 = r ij - r ij-1 .<br />

Thus a uniform quantizer can easily be implemented and a small amount of overhead<br />

data is needed for the coder: only the values b i , q i and m i of each zone have to be<br />

incorporated to the compressed file. Figure 4 shows the characteristic of our optimal<br />

uniform quantizer.<br />

OUTPUT<br />

X*<br />

(L/2 -1)qi + qi/2<br />

quantization<br />

step qi<br />

- L/2 qi + qi/2<br />

mean m i<br />

INPUT<br />

DCT coef. X<br />

of zone "i"<br />

Figure 4 : Characteristic of the optimum uniform quantizer<br />

- 72 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

In order to build an optimal quantizer we minimize the mean square distortion error. This<br />

error is given by :<br />

Ai<br />

ε 2,i = (X - X*) 2 p i (X) dX (1)<br />

∫<br />

− Ai<br />

where p i (X) is the probability distribution of the DCT coefficients in the zone "i" and<br />

X* the quantized value of X.<br />

The quantization error depends on the probability density of the normalized coefficients.<br />

The AC ones are usually modeled by a Laplacian density. This model is realistic for the<br />

high frequency zones where the variance of the DCT coefficients is small. However this<br />

approach is quite coarse for low frequencies where the variances reach high values. A<br />

better matched model is the truncated Laplacian density defined by :<br />

p i (X) = c i e -αi|X| (2)<br />

where<br />

c i = Erreur! [1- e -αiAi ] -1 (3)<br />

and the variance of the distribution is related to A i and αi by:<br />

σ 2,i = Erreur! [1 - A i . c i e -αiAi ( A i αi + 2 ) ]<br />

(4)<br />

We evaluate αi by solving equation (4). Then equation (2) is incorporated into (1). The<br />

distortion error is minimized by solving the following non-linear equation :<br />

Erreur! = 0<br />

The result is the optimal quantization step q i . Thus the quantization error of a zone i of n i<br />

coefficients can be evaluated by incorporating q i into (1), which results in the minimal<br />

error. The error of a zone becomes : E i = n i ε 2,i min<br />

Figure 5 shows the relevance of this model: we have plotted the quantization step q i and<br />

the resulting Peak to Peak Signal to Noise Ratio (PPSNR) versus the variance σ 2,i for a<br />

Laplacian (A i = infinite) and for a truncated Laplacian (A i = 2.5) distribution. The variances<br />

of this plot range from Erreur!*0.025 to Erreur!*0.25. The quantity Erreur! is the variance<br />

of a random variable uniformly distributed in the dynamic range. The values we observed<br />

in practice are in the range displayed in Figure 5. The improvement of the PPSNR gained<br />

by a truncated Laplacian model versus a non-truncated one is of about 1 dB in our<br />

situation.<br />

- 73 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

Figure 5 : Quantization step and PPSNR versus the variance of DCT coefficients for a<br />

Laplacian model (A i = infinite) and a truncated Laplacian model (A i = 2.5), with L i = 2 3 = 8<br />

quantization steps. The truncated Laplacian model is an improvement for cardiac<br />

angiograms.<br />

2-5 Integer bit allocation<br />

We have allocated the bits b i to each zone using the theory of marginal analysis [7]. The<br />

total number of bits allocated to the DCT plane is<br />

B = Erreur! x cr , where N is the size of the image, b is the number of bits per pixel, cr is<br />

the lossless <strong>compression</strong> ratio introduced by RLC/VLC. This <strong>compression</strong> ratio is<br />

evaluated experimentally. The allocation algorithm is the following :<br />

Start the allocation with b i = 0 for all the zones, i = 1 to Z (Z is the total number of<br />

zones).<br />

Compute q i , E (0),i = ε 2 (0),i min * n i i = 1 to Z<br />

Set k = 0<br />

loop : Allocate temporarily one supplementary bit to each zone<br />

Compute q i , E (k),i , i = 1 to Z<br />

Compute the marginal return ∆E i = E (k-1),i - E (k),i i = 1 to Z<br />

Allocate definitively the bit in the zone j where the marginal return is maximum :<br />

∆E j = max (∆E i ) , b j = b j + 1<br />

k = k + 1<br />

Continue to loop untill B bits have been allocated.<br />

In the final loop, the allocation of one supplementary bit to a zone with a large number of<br />

coefficients may exceed the total number of bits B. The resulting CR is less than<br />

expected. If it is needed to control precisely the CR, one must reduce B and start again<br />

the final allocation loop after splitting the zone that yielded an excess of bits. This process<br />

can be automated.<br />

2-6 Coding of the quantized DCT coefficients<br />

After quantization of the Full Frame DCT zones, the remaining redundancy is removed by<br />

Run Length Coding (RLC) and Variable Length Coding (VLC). We have used a coder<br />

- 74 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

derived from the JPEG baseline [1]. The coefficients of each zone are first formatted into a<br />

1D-vector using a zig-zag ordering suited to circular blocks as shown in Figure 6.<br />

6<br />

5<br />

Figure 6 : Example of zig-zag scanning of the Full Frame DCT circular and directional<br />

zones number 5 and 6<br />

Non-zero coefficients are described by two elements: firstly a composite 8-bits value and<br />

secondly a variable length value. We have chosen a composite value of the form<br />

"ZZZZZCCC" in binary notation. The three least significant bits define the category of the<br />

quantized coefficient. Three bits are sufficient for our AC coefficients. A quantized number<br />

of which the absolute value is in the range [2 k-1 , 2 k - 1[ belongs to the category k, with 0<br />

≤ k ≤ 7 . The five most significant bits are used for coding the number of zeros preceding<br />

the encoded coefficient. These 8-bits run length values are then the input of a modified<br />

Huffman coder. The second element of variable size specifies the sign of the value (1 bit)<br />

and its magnitude in its own category k (k-1 bits). Each coded value is a Huffman code<br />

followed by a k-bits second element. We have coded separately the DCT zones with this<br />

technique.<br />

3-1 Experiments<br />

3 EXPERIMENTAL RESULTS AND DISCUSSION<br />

We have applied our Full Frame DCT based coding scheme to 512x512x8bits images<br />

from a clinical cardiac angiography system. We focused on a test sequence of 24 images<br />

of a left coronary artery.<br />

The quantization and allocation procedure described in Sections 2-4 and 2-5 can be used<br />

in two different ways : either the optimal quantization step and the number of bits per zone<br />

are evaluated for each individual image, according the statistics of its DCT circular zones.<br />

Or an average statistic is evaluated from a set of images, and the same bit allocation and<br />

quantization steps are used for several images.<br />

The first approach (noted hereafter FF-DCT1) yields the best image quality but takes<br />

some computational time. The second approach (noted FF-DCT2) runs faster and<br />

requires less overhead data because the bit allocation and quantization steps are fixed for<br />

all angiograms.<br />

We have compressed images from our test series at a <strong>compression</strong> ratio close to 12:1<br />

with scheme FF-DCT1 and scheme FF-DCT2. An example of bit allocation and<br />

quantization steps is given in Table 1 for FF-DCT1. We compared the result with the<br />

JPEG coded images at the same <strong>compression</strong> ratio. The Root Mean Square Error<br />

- 75 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

(RMSE) and the PPSNR have been computed. Results are given in Table 2. We also<br />

compared the visual image quality on a black and white monitor. In order to stick to the<br />

clinical environment, an enhancement filter was applied to the images before the data<br />

<strong>compression</strong>. Indeed, angiographic images are always presented in an enhanced mode.<br />

The filter is an unsharp masking. This pre-enhancement is less favourable than<br />

compressing the raw images in terms of CR versus image quality. Indeed, enhancement<br />

increases medium frequencies.<br />

Zone<br />

"i"<br />

Position<br />

Number of coef. Nber of<br />

n i bits b i<br />

- 76 -<br />

Quant. step q i<br />

0 0-0 1 16 1.97e-3<br />

1 1-1 (vertical) 1 16 1.77e-4<br />

2 1-1 (horizontal) 1 16 8.94e-5<br />

3 2-3 (vertical) 5 5 1.33e-1<br />

4 2-3 (horizontal) 3 2 2.34e-1<br />

5 4-7 .. 18 4 1.18e-1<br />

6 4-7 .. 16 5 8.39e-2<br />

7 to 14 8-15/ 16-31/ 32-63/ 64-<br />

95<br />

77/ 71/ 300/ 289/ 1209/<br />

1186/ 2014/ 1991<br />

4 5.01e-2/ 5.51e-2/ 2.23e-2/ 2.49e-2/<br />

1.18e-2/ 1.38e-2/ 6.52e-3/ 6.82e-3<br />

15 to 18 96-127/128-159 2811/ 2789/ 3623/ 3600 3 7.45e-3/ 8.00e-3/ 5.33e-3/ 5.77e-3<br />

19 to 25 160-191/192-223/224-<br />

255/256-287<br />

4424/ 4401/ 5234/ 5212/<br />

6035/ 6012/ 6832<br />

2 6.05e-3/ 6.59e-3/ 5.29e-3/ 5.08e-3/<br />

4.31e-3/ 3.80e-3/ 3.67e-3<br />

26 to 30 256-287/ ... / 320-351 6810/ ... / 8419 1 4.17e-3/ 3.91e-3/ 3.64e-3/ 3.43e-3/<br />

3.17e-3<br />

31 to 38 352-383/ ... / 448-479 9253/ ... / 11639 0 -<br />

39, 40 480-511 40825/ 40652 2 1.96e-3/ 2.02e-3<br />

Table 1 : Example of allocated bits and optimal quantization steps with FF-DCT1 for a<br />

compressed coronary arteriogram (CR=12:1).<br />

Compressio<br />

n Ratio<br />

RMSE<br />

PPSNR (dB) VISUAL<br />

blocking<br />

effect<br />

QUALITY<br />

blur of small<br />

vessels<br />

JPEG 12 4.78 34 yes quite visible<br />

FF-DCT1 12 4.42 34.5 no just<br />

noticable<br />

FF-DCT2 11.5 11.9 26.0 no just<br />

noticable<br />

Table 2 : Measurements and observations from an image coded with JPEG, FF-DCT1,<br />

and FF-DCT2 (CR=12:1)<br />

3-2 Discussion<br />

At a <strong>compression</strong> ratio of about 12:1, the quality of Full Frame DCT coded images is very<br />

close to the originals. The perceived image quality is better than for the JPEG coded<br />

frames. The best PPSNR and visual quality results from FF-DCT1 scheme where the<br />

statistical data of individual images is incorporated in the quantization process.<br />

With FF-DCT2 scheme, where an average statistic from several images is used, the<br />

PPSNR is lower than that of JPEG coded images. However, there is almost no visual<br />

difference between the two types of DCT coded frames. Some unsharpness compared to<br />

the original is just noticable on small vessels. With JPEG however, the unsharpness is<br />

more visible and blocking effect is prominent. These conclusions are shown in Table 2.<br />

They confirm that PPSNR is not a sufficient measurement in order to compare<br />

compressed images and originals. Figure 7a displays an enlarged part of an original


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

image. The same part is shown in Figure 7b after JPEG. Figure 7c shows the FF-DCT1<br />

result. Figure 8a and 8b are the error images multiplied by 30 of JPEG and FF-DCT1<br />

respectively.<br />

(a)<br />

(b)<br />

(c)<br />

Figure 7: (a) Enlarged part of an original enhanced image - (b) enlarged part of a JPEG<br />

coded image (CR=12) - (c) enlarged part of a FF-DCT1 coded image (CR=12)<br />

(a)<br />

(b)<br />

Figure 8 : (a) error image x 30 of the JPEG coded image - (b) error image x 30 of the FF-<br />

DCT1 coded image<br />

- 77 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

3-3 Perspectives<br />

Promising results have emerged from our Full Frame DCT coding method and its optimal<br />

quantization.<br />

In the FF-DCT1 scheme, quantization step and number of bits are computed for each<br />

image. This yields a very satisfactory image for the target CR 12:1. Improvements will be<br />

implemented:<br />

- weighting of the Full Frame DCT coefficients regarding the Human Visual System<br />

sensitivity,<br />

- deeper study of the effect of the clinically used post-processing and especially edge<br />

enhancement.<br />

In FF-DCT2 scheme, an average statistics is used to build a fixed quantizer valid for all<br />

images. More experiments will be carried out in order to find the best possible one.<br />

Finally, we will chose between scheme 1 and 2 and perform a clinical evaluation of the<br />

perceptual and diagnostic image quality with a team of cardiologists.<br />

4- CONCLUSION<br />

For the coding of cardiac angiograms, conventional and standard <strong>compression</strong> methods<br />

do not fulfill our targets :<br />

- lossfree techniques do not yield sufficient <strong>compression</strong> ratios,<br />

- lossy standards, and especially JPEG, are block based and the image quality at<br />

<strong>compression</strong> ratios 12:1 suffers from two defects. Blocking artifacts are visible both in the<br />

background and on the edge of large vessels. Moreover, the sharpness of small vessels<br />

is not well preserved.<br />

In order to overcome these difficulties, we have optimized the bit allocation and<br />

quantization in the Full Frame DCT coding scheme. As indicated in the results, the<br />

proposed schemes out-performs the JPEG technique regarding perceptual quality at<br />

<strong>compression</strong> ratio 12:1. There is no blocking effect and the sharpness of fine details is<br />

better represented.<br />

AKNOWLEDGEMENTS<br />

We would like to thank Philips Medical Systems, Best, the Netherlands for its support and<br />

for its contribution to this work, especially Dr H. Haas, Dr P. Zwart, and Dr M. Breeuwer<br />

from Philips Research, Eindhoven, the Netherlands.<br />

REFERENCES<br />

- 78 -


Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />

[1] W.B. Pennebaker and J.L. Mitchell, JPEG Still Image Data Compression Standard,<br />

Van Nostrand Reinhold, 1993.<br />

[2] S.C. Lo and H.K. Huang, "Radiological Image Compression: Full-frame Bit Allocation<br />

Technique", Radiology, Vol. 155, pp 811-817, 1985.<br />

[3] K.K. Chan, S.L. Lou and H.K. Huang, "Radiological Image Compression Using Full-<br />

Frame Cosine Transform with Adaptive Bit-Allocation", Computerized Medical Imaging<br />

and Graphics, Vol. 13, N°2, pp153-159, 1989.<br />

[4] S.C. Lo & al., "Full-Frame Entropy Coding for Radiological Image Compression", SPIE<br />

Image Capture, Formatting, and Display 1991, Vol. 1444, pp 265-271, 1991.<br />

[5] K.R. Rao and P. Yip, Discrete Cosine Transform: Algorithms, Advantages, and<br />

Applications, Academic Press, 1990.<br />

[6] N. Akrout, C. Diab, R. Prost, R. Goutte, M. Amiel, "Subband Directional Vector<br />

Quantization in Radiological Image Compression", Proc SPIE Medical Imaging 1992,<br />

Vol.1653 (6), pp 203-212.<br />

[7] A. Segall, "Bit Allocation and Encoding for Vector Sources", IEEE Trans. Inform.<br />

Theory IT-22, n°2 pp 162-169, 1976.<br />

- 79 -


CHAPITRE I-4<br />

COMPRESSION FULL-FRAME DCT ET<br />

RENFORCEMENT DE CONTOUR<br />

- 80 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

Présentation<br />

Dans ce chapitre nous abordons la problématique du renforcement de contour et de la<br />

<strong>compression</strong>. Dans la pratique, il est nécessaire de pouvoir disposer à la fois de la version<br />

non renforcée et de la version renforcée de l’image. La version renforcée est celle<br />

préférée par les experts médic<strong>aux</strong> pour la visualisation. La version non renforcée sert<br />

principalement <strong>aux</strong> mesures quantitatives. Alors, faut-il comprimer l’image avant ou après<br />

le renforcement?<br />

Nous avons montré que l’on obtient de meilleurs résultats en comprimant l’image déjà<br />

renforcée, nous avons étudiés plusieurs stratégies basées sur le schéma renforcement<br />

puis <strong>compression</strong>. Tout d’abord, nous avons développé un renforcement directement<br />

dans le domaine DCT, afin de réaliser les deux opérations en même temps. Ensuite nous<br />

avons mis en place un filtre inverse de dé-renforcement de contour (également dans le<br />

domaine DCT), afin de pouvoir revenir à l’image non renforcée après la <strong>compression</strong>.<br />

Nous avons cherché à améliorer la qualité de l’image comprimée et dé-renforcée avec<br />

une méthode de restauration régularisée.<br />

Nous montrons qu’il existe un large éventail de possibilité d’adapter <strong>compression</strong> et posttraitements<br />

en vue d’optimiser la qualité des images pour une application donnée.<br />

Ces trav<strong>aux</strong> ont fait l’objet de l’article [BERE-95], présenté à SPIE Medical Imaging, dont<br />

le texte est reproduit ci-dessous.<br />

Unsharp Masking and its Inverse Processing Integrated<br />

in a Compression/De<strong>compression</strong> Scheme.<br />

Application to Cardiac Angiograms.<br />

ABSTRACT<br />

Image data <strong>compression</strong> can be useful for storage or transmission of cardiac<br />

angiograms. In clinical systems, images are recorded in a "raw" format, and are<br />

usually processed with an edge enhancement filter to improve the visibility of medical<br />

information. The raw images are needed for other processing including quantitative<br />

measurements, and their enhanced version is used for display. We report on a<br />

<strong>compression</strong> scheme based on Full-Frame DCT which allows the integration of<br />

enhancement in the codec. We investigated whether the raw or the enhanced image<br />

should be compressed. We studied an inverse filter and integrated it in the<br />

de<strong>compression</strong> process, so that a non-enhanced image can be derived after<br />

enhancement and <strong>compression</strong>. The de-enhancement filter acts as a low pass filter<br />

for the quantization noise. We proposed to improve the inverse filter using a<br />

regularized signal restoration technique.<br />

Keywords: Image <strong>compression</strong> and filtering, inverse filtering, optimal bit allocation,<br />

X-Ray medical images.<br />

1- INTRODUCTION<br />

- 81 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

Images of the heart and of the coronary arteries are usually assessed on cine-film<br />

recordings. Even in digital catheterization laboratories, images are still not stored in a<br />

digital format due to technological and financial constraints: a standard cardiac angiogram<br />

comprises at least 1000 to 3000 images, representing 250 to 750 Mega Bytes for 512x512<br />

pixel images coded in 8 bits. Lossy image data <strong>compression</strong> is necessary to achieve fully<br />

digitized archiving of cardiac angiography, to enable images transmission via networks, or<br />

to allow dynamic viewing from a storage medium at the required frame rate: 15 to 30<br />

frames per second.<br />

On Digital Cardiac Imaging Systems, images are enhanced in order to outline the contours<br />

of vessels and ventricles. Edge enhancement filters improve the visibility of the diagnostic<br />

information. Unsharp masking is a usual filtering technique for this purpose. In general,<br />

the cardiologist reviews enhanced images, while the raw images are stored on disk and<br />

used for quantitative analysis (measurement of vessel narrowing, left ventricle function).<br />

The objective of this work was to reach <strong>compression</strong> factors of about 12:1, with<br />

reconstructed images of good visual and diagnostic quality. We developed a <strong>compression</strong><br />

scheme conveniently allowing the incorporation of unsharp masking and its inverse filter.<br />

The <strong>compression</strong> algorithm is based on Full-Frame DCT [1]. Unsharp masking is usually<br />

processed in the pixel domain. We implemented it in the DCT domain. In the pixel domain,<br />

an inverse filtering for unsharp masking can be processed iteratively [2]. We propose a<br />

non iterative process in the DCT domain. The quality of the inverse filtered compressed<br />

image can be improved with incorporation of prior knowledge: both the quantization noise<br />

and the image regularity are measured and used in a regularized signal restoration<br />

technique [3].<br />

2- SHOULD THE RAW IMAGE OR THE PROCESSED IMAGE BE COMPRESSED?<br />

A major issue is the choice of the image to be compressed: the raw image or the filtered<br />

one. Section 2-1 will describe the edge enhancement filter as it is implemented in digital<br />

cardiac angiography systems. We worked with images from a clinical Philips Medical<br />

Systems catheterization laboratory equipped with a Digital Cardiac Imaging (DCI) system.<br />

A primary scheme for compressing the digital angiograms stored on disk, i.e. the raw<br />

images, will be discussed in section 2-2. In this scheme, the raw-compressed images<br />

have to be enhanced for reviewing. Instead, we propose in section 2-3 to compress the<br />

already enhanced images. It follows that a de-enhancement filter should be available for<br />

computing a de-enhanced image from the enhanced-compressed one. Both the<br />

enhancement and the de-enhancement filters can be integrated in the<br />

<strong>compression</strong>/de<strong>compression</strong> scheme, as discussed in section 2-4 and 2-5 respectively.<br />

Finally, a regularization method for improving the performance of the de-enhancement<br />

filter is described in section 2-6.<br />

2-1 Edge enhancement filtering of digital cardiac angiograms<br />

In digital cardiac angiography systems, the images are processed in real time for<br />

enhanced viewing, in order to display anatomical features with an improved sharpness.<br />

The filter is an unsharp masking, using pixel convolution as follow:<br />

iuns = iraw + α x [ iraw - f * iraw ] (1)<br />

where iuns is the enhanced image; i raw is the original image; α is the<br />

enhancement factor, it can be adjusted by the cardiologists and has generally a<br />

- 82 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

default value of 5; * denotes the convolution operator; f is a low pass convolution<br />

mask, generally a 5x5 kernel with 1/25 values only. In formula (1),<br />

iraw - f * iraw is an image of the contours present in i raw , which added to i raw with<br />

a gain, results in a sharper image. Values of iuns above 255 and below 0 are<br />

clipped. Apart from clipping which seldom occurs, the enhancement is reversible.<br />

Formula (1) can be expressed as:<br />

iuns = h * iraw (2)<br />

where h is the equivalent enhancement filter.<br />

We studied a default filter of clinical systems,<br />

1 1 1 1 1<br />

with α=5 and f = 1 1 1 1 1 1<br />

25 x 1 1 1 1 1<br />

1 1 1 1 1<br />

1 1 1 1 1<br />

It follows that in our application, h =<br />

−1/ 5 −1/ 5 −1/ 5 −1/ 5 −1/<br />

5<br />

−1/ 5 −1/ 5 −1/ 5 −1/ 5 −1/<br />

5<br />

−1/ 5 −1/ 5 29/ 5 −1/ 5 −1/<br />

5<br />

−1/ 5 −1/ 5 −1/ 5 −1/ 5 −1/<br />

5<br />

−1/ 5 −1/ 5 −1/ 5 −1/ 5 −1/<br />

5<br />

(3)<br />

The transfer function of h, given in figure 1(a), shows that this filter magnifies medium and<br />

high spatial frequencies. The transfer function is real and positive, this result will later be<br />

useful for implementing the inverse filter (section 2-5).<br />

(a) (b)<br />

Figure 1: (a) Transfer function of the periodized edge-enhancement mask<br />

(represented here on 32x32 samples).<br />

(b) Inverse of the transfer function of the enhancement mask<br />

- 83 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

2-2 Edge enhancement after data <strong>compression</strong><br />

On clinical systems, a real time data <strong>compression</strong> is implemented to allow fast acquisition<br />

of the raw images and increase the storage capacity. The <strong>compression</strong> is reversible and<br />

can only achieve reduction factors of about 2:1 for this type of images [4]. We studied a<br />

similar scheme with lossy image <strong>compression</strong>, where images are first compressed and<br />

then enhanced (figure 2).<br />

Figure 2: Primary scheme for coding cardiac angiograms: first <strong>compression</strong>, then<br />

enhancement.<br />

In usual <strong>compression</strong> schemes (JPEG, Full-Frame DCT, Subband Coding), high<br />

frequencies are coarsely quantized since they contain few information. If the raw image is<br />

compressed, high frequencies are not well preserved, and unsharp masking of the<br />

decompressed image enhances the quantization noise. The compressed-enhanced image<br />

should not suffer from severe artifacts and should have a good perceptual quality.<br />

2-3 Edge enhancement before data <strong>compression</strong><br />

Though the most straight-forward scheme is to compress raw images, we propose to<br />

compress images that are already enhanced, as shown in figure 3. The enhancement filter<br />

enhances medium and high frequencies. These frequencies will be preserved by any<br />

optimal bit allocation system. In the scheme of figure 3, achieving a high <strong>compression</strong><br />

ratio may be difficult because of the higher energy of medium and high frequencies. If the<br />

enhanced image is compressed, a raw image should be derived from the decompressed<br />

image via inverse processing. Fortunately, an inverse filter can be implemented in order<br />

to compute the raw image from the enhanced one. As shown by its transfer function in<br />

figure 1(b), this inverse filter is low-pass and will reduce the quantization noise.<br />

- 84 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

Figure 3: An alternative scheme for coding cardiac angiograms: first enhancement, then<br />

<strong>compression</strong>.<br />

2-4 Integration of the edge enhancement in the <strong>compression</strong>/de<strong>compression</strong><br />

process<br />

We studied whether the edge enhancement filtering could be implemented in the DCT<br />

domain, allowing the integration of either post- or pre- enhancement in the <strong>compression</strong><br />

process, according to the scheme of figure 2 or 3 respectively. Spatial convolution and<br />

point-by-point multiplication in the Discrete Fourier Transform (DFT) domain are strictly<br />

equivalent. We looked for a similar equivalence in the DCT domain. Filtering in the DCT<br />

domain has been investigated by Chen et al. [5] and Chitprasert and Rao [6]. Their<br />

approaches are helpful for filtering in the DCT domain but do not give the equivalence we<br />

are looking for. We checked that linear pixel-convolution can be implemented in the DCT<br />

domain under two conditions: the convolution filter must be real and even, and the image<br />

must be extended by a few zeros on its boarders. The result is given here for a onedimensional<br />

signal. As the DCT is separable - formula (13) -, the result can easily be<br />

deducted in two dimensions.<br />

Let {h(n); n = -L, -L+1, ..., 0, ..., L} be the impulse response of the even filter. The length of<br />

h is 2L+1.<br />

h is even, hence h(n) = h(-n) n=1, 2, ..., L.<br />

Let {x N (n); n=0, 1, ..., N-1} be a data sequence beginning and ending with zeros. We<br />

assume that x N (n)=0 for n=0, ..., P and for n=N-Q, ..., N-1, with P≥L and Q≥L.<br />

We are looking for a DCT implementation of the following linear convolution: y(n) = x N (n) *<br />

h(n). As the values of the extremities of x N (n) are zeros, the effective length of y(n) is N<br />

and not N+2L. We will not detail the demonstration here, it is easy to prove the following<br />

result:<br />

YC N(k) = HF 2N(k) x XC N(k) k = 0, 1, ..., N-1 (4)<br />

where YC N(k) is the N-points DCT of y(n); HF 2N(k) is the 2N-points DFT of the<br />

periodized impulse response of the filter h,<br />

HF 2N(k)∈R; and XC N(k) is the N-points DCT of x(n).<br />

The implementation of a DCT-convolution is advantageous for integrating edge<br />

enhancement in the DCT coding scheme. In practice short filters are used, L is very small<br />

compared to N. It is not necessary to pad the image boarders with zeros before<br />

processing because the resulting error is negligible.<br />

- 85 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

2-5 Integration of de-enhancement in the de<strong>compression</strong> scheme by inverse<br />

filtering<br />

We investigated how to compute a non-enhanced image from an enhanced one,<br />

especially if a raw image has to be derived from the enhanced-compressed one in the<br />

coding scheme of figure 3. The transfer function of the inverse enhancement filter exists<br />

and is shown in figure 1(b). Unfortunately, the size of the impulse response of the inverse<br />

filter is infinite. We have computed finite size approximations of the inverse filter on a 5x5<br />

pixel convolution mask. None was satisfactory. An alternative solution is to use an iterative<br />

process based on the fixed point theory, as proposed in [2]. This type of pixel<br />

implementation is also an approximation of the inverse filter.<br />

More effectively, we implemented the de-enhancement filter in the DCT domain. The DCT<br />

of a de-enhanced 1-D data sequence is simply:<br />

YC N(k) = XC N(k) / HF 2N(k) k = 0, 1, ..., N-1 (5)<br />

2-6 Improvement of the de-enhancement of compressed images by regularization<br />

De-enhancing a compressed image by inverse filtering results in an non smooth image<br />

because of the quantization noise in the data (see section 4). The unsmoothness of the<br />

image can reduce the accuracy of the vessel narrowing measurement. To overcome this<br />

difficulty, we studied this inverse problem with a least square filtering approach.<br />

In the pixel domain, the inverse problem can be formulated as follow:<br />

iuns_comp = h * iraw + υ (6)<br />

where iuns_comp is the pre-enhanced compressed image, h denotes the impulse<br />

response of the enhancement filter (3), and υ the random quantization noise.<br />

The noise is not correlated to the raw image but is not statistically independent of it.<br />

The de-enhancement is a restoration problem. It can be expressed as recovering iraw<br />

from its degraded observation iuns_comp , given the Point Spread Function (PSF) h of the<br />

degradation system and some a priori knowledge about the noise υ and the image iraw .<br />

An interesting derivation for solving equation (6) by constrained least square filtering is the<br />

Miller regularization approach. It provides a trade-off between fidelity to the data and<br />

smoothness [3]. The Miller regularization method can be considered in the more general<br />

context of estimation of unknown but bounded signals [7]:<br />

• iraw lies in the set Ωi of regular images with bounded roughness:<br />

d* i ² ≤ r²<br />

(7)<br />

where x ² denotes the energy of x, the operator d is a differential operator i.e. a<br />

high pass filter, and r² denotes a bound of the roughness of the image.<br />

The set Ωi is an ellipsoid, its center is the null vector (see [7])<br />

.• υ lies in the set Ωv of bounded energy noise.<br />

v ² ≤ n²<br />

(8)<br />

The set Ωv is a sphere, its center is the null vector (see [7]).<br />

• The observed image iuns_comp specifies a set Ωi / which must contain i iuns _ comp<br />

raw<br />

iraw ∈ Ωi / iuns _ comp and Ωi / = {i: (i iuns _ comp<br />

uns_comp - h*i) ∈ Ωv}<br />

The set Ωi / iuns _ comp is an ellipsoid (see [7])<br />

- 86 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

Let us consider both the sets Ωi and Ωi / iuns _ comp. Each set contains iraw , and i raw must lie in<br />

their intersection which is :<br />

Ωest = Ωi ∩Ωi / iuns _ comp<br />

This intersection is the smallest set which must contain iraw and which can be calculated<br />

from the available data. It is the best estimate set. In contrast with the usual estimation<br />

theory, the estimate is a set and not a single vector. In absence of a unique solution, a<br />

reasonable choice for a vector estimate iest is to define it as the center of Ωest.<br />

Unfortunately, Ωest is not an ellipsoid and the center cannot be easily computed. But a<br />

bounding ellipsoid containing Ωest can be found. The center of this ellipsoid is the estimate<br />

of iraw .<br />

Originally, this method was proposed with a matrix formulation. When the matrix<br />

associated to the PSF is a circulant block Toeplitz matrix, the problem can be formulated<br />

in the DFT domain [8]. In the DFT domain, equation (6) becomes:<br />

Iuns_comp (k,l) = H(k,l) x Iraw(k,l) + V(k,l) (9)<br />

where capital letters hold for the DFT of the corresponding minuscule in (6).<br />

The Miller estimate, the center of the ellipsoid Ωest is:<br />

H*( k, l)<br />

Iest(k,l) = Iuns_comp (k,l)<br />

(10)<br />

H*( k, l) H( k, l) + λD*( k, l) D( k, l)<br />

where λ = n ²<br />

and X* is the complex conjugate of X. (11)<br />

r² In our problem, both the energy of the noise n² and the bound of the roughness r² can be<br />

exactly computed. The regularization parameter λ can be transmitted with the overhead<br />

data of the compressed image file. For a given class of images, as angiograms, λ is<br />

approximately constant at a fixed <strong>compression</strong> ratio. Therefore, it is not necessary to<br />

compute the regularization parameter for each image. Implementing this regularization<br />

technique in the DCT domain is as easy as for the non-regularized de-enhancement<br />

(section 2-5) and can be derived from (10) and (4). One fourth of the 2Nx2N DFT of the<br />

filter transfer function and the NxN DCT of the image iuns are needed.<br />

In the DCT domain, equation (10) becomes:<br />

H* 2Nx<br />

2N( k, l)<br />

ICN est (k,l) = ICN uns_comp (k,l)<br />

H* 2Nx 2N( k, l) H2Nx 2N( k, l) + λD* 2Nx 2N( k, l) D2Nx 2N( k, l)<br />

(12)<br />

k = 0, 1, ..., N-1 and l = 0, 1, ..., N-1<br />

The differential operator d should be chosen such that the ellipsoids Ω i and Ωi / iuns _ comp<br />

intersect. A simple test for this intersection was proposed in [9].<br />

In our implementation for compressed angiograms,<br />

we used: d = 1 − 2 1<br />

−2 4 −2<br />

1 −2<br />

1<br />

- 87 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

3-1 Block diagram<br />

3- FULL-FRAME DCT CODING AND DIRECTIONAL QUANTIZATION<br />

Figure 4 shows the conventional block diagram of transform coding systems. Block based<br />

transform is a widespread and efficient technique. It has been standardized by the Joint<br />

Photographic Experts Group (JPEG) [10] of the International Standardization Organization<br />

(ISO) for the coding of still pictures, and by the Moving Picture Expert Group (MPEG) [11]<br />

for the coding of video series. Block-based coding schemes gave disappointing results on<br />

cardiac angiograms because they introduce block artifacts. These artifacts are made more<br />

visible on cardiac angiography systems: the edge enhancement filter outlines the block<br />

boundaries.<br />

Figure 4: Block diagram of DCT coding.<br />

To overcome the problem of blocking artifact, we have chosen a Full-Frame DCT (FFDCT)<br />

coding scheme. Such schemes have been reported for coding radiological images [12]-<br />

[14]. We focused on the adaptation of our algorithm to the statistical properties of the Full-<br />

Frame DCT of cardiac angiograms, and we studied the interaction of the <strong>compression</strong> and<br />

the edge enhancement processes.<br />

3-2 Full-Frame DCT and zonal splitting<br />

In the first block of figure 4 diagram, the image is transformed. We have used a Full-<br />

Frame DCT transform from formula DCT-II of [15], with different normalization coefficients:<br />

Let x(m,n) be the image and XC (k,l) its Full-Frame DCT.<br />

N −1<br />

N −1<br />

XC (k,l) = 4 ( 2 1 ) 2n<br />

1 l<br />

( , ) ∑∑ ( , ) cos( π + ) cos( π ( + ) ) (13)<br />

N ckl xmn m k<br />

²<br />

2N<br />

m=<br />

0 n=<br />

0<br />

In DCT-II, c(0, 0) = 1 2 ; c(0, l) = c(k, 0) = 1 for k≠ 0 and l≠ 0; and c(k, l) = 1 for k, l =1, 2,<br />

2<br />

..., N-1.<br />

We have used c(0, 0) = 1<br />

1<br />

1<br />

; c(0, l) = c(k, 0) = for k≠ 0 and l≠ 0; and c(k, l) = for k,<br />

2N<br />

l =1, 2, ..., N-1. This normalization, computed in floating point, does not change the<br />

accuracy of the coefficients at all. It was meant to bring the dynamic of all DCT coefficients<br />

to the dynamic of the original image (256 levels per pixel), allowing easier interpretation of<br />

the DCT coefficients behavior.<br />

We observed the distribution of frequency components of cardiac angiograms in the DCT<br />

plane [1]. The DCT coefficients are distributed in circular zones and decrease from the<br />

DC to high frequencies, with a logarithmic decrease. Within circular zones, the DCT<br />

4N<br />

2N<br />

4N<br />

- 88 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

coefficients have in general low variances. Thus the same number of bits can be<br />

allocated to all coefficients of a circular zone, and the same quantization step can be<br />

applied. We observed the DCT of enhanced images. Since the transfer function of the<br />

enhancement filter is not symmetric (figure 1), and enhances horizontal and vertical<br />

frequencies more than diagonal frequencies, we chose to split the circular zones of the<br />

DCT plane in four directions, as shown in figure 7. Such a splitting is in agreement with<br />

the DCT coefficients statistics, with the effect of the enhancement filter, and the number of<br />

coefficient per zone is small enough for a good control of the <strong>compression</strong> ratio.<br />

3-3 Bit allocation, quantization and coding<br />

In usual transform schemes, a frequency dependent quantization is realized by multiplying<br />

the transformed coefficients by a matrix of weighing factors, and then rounding the<br />

weighed coefficients to the nearest integer. It results in a uniform midtread quantization of<br />

each coefficient. The underlying principle is to quantize accurately the high frequencies<br />

and to quantize more coarsely the medium and high frequencies because the human<br />

visual system is less sensitive to higher frequencies than to lower ones. All weighed<br />

transform coefficients are quantized with the same quantization characteristic, with a zonal<br />

or a fixed bit allocation per set of coefficients. We have built a quantizer for the circular<br />

and directional zones of the Full Frame DCT without any a priori on the importance of<br />

different frequency bands. The two characteristics of the quantizer of each zone are<br />

optimized: the number of bits and the quantization steps. The mean square distortion error<br />

of a zone is minimized, under the assumption of a density probability. The experimental<br />

distributions of the coefficients in the different zones can be approximated by a truncated<br />

Laplacian distribution for mid and high frequencies. We use this model for the AC<br />

coefficients, except for the first zones. Because they contain very few coefficients, we use<br />

a uniform distribution model for them. In addition, the DC and the 44 first AC coefficients<br />

were not quantized at all because of their importance for the quality of the reconstructed<br />

image. The last 4 high frequency zones were arbitrarily allocated zero bit and not<br />

incorporated in the optimized bit allocation process. The principle of our quantizer<br />

optimization is explained in [1]. We can evaluate the quantization step that minimizes the<br />

quantization error of a zone. Clearly, we have developed an optimal bit allocation and<br />

quantization method that minimizes the quantization error. A truncated Laplacian<br />

analytical model is used to design an optimal midtread uniform quantizer. For an a priori<br />

number of bits per coefficient and with the observed dynamics and variance of a zone, the<br />

optimal quantization step is computed, with the minimum quantization error. This<br />

evaluation is used in an integer bit allocation algorithm. We have chosen a bit allocation<br />

based on the theory of marginal analysis. After the quantization procedure, the quantized<br />

coefficients are formatted in a 1D-vector with a zigzag scanning adapted to the circularity<br />

of our blocks. The remaining redundancy of the quantized DCT coefficients is reduced by<br />

entropy coding. At present, we have not implemented a bit rate control, the optimization of<br />

the quantizer is re-adjusted manually with a different target <strong>compression</strong> ratio if needed.<br />

4- EXPERIMENTAL RESULTS AND DISCUSSION<br />

- 89 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

4-1 Results from simulations of the <strong>compression</strong><br />

Firstly, to prove the soundness of our proposal - enhancement before <strong>compression</strong> -, we<br />

simulated the <strong>compression</strong>/de<strong>compression</strong> process by adding white noise in the DCT<br />

domain, as a simulation of the quantization noise. This simulation was applied on a<br />

128x128 part of a real image. White noise was added to the DCT of the raw image, and to<br />

the DCT of the enhanced image, so that the PPSNR becomes 20dB in both cases. The<br />

level of the added noise was a little exaggerated for the purpose of the demonstration.<br />

Figure 5 shows the PPSNR of the simulated <strong>compression</strong> before and after enhancement,<br />

figure 6 shows the resulting images. The enhancement after a simulated <strong>compression</strong><br />

degrades strongly the image, the PPSNR drops down to 4.6dB. The post-enhanced image<br />

exhibits almost only noise. In the pre-enhancement scheme, the de-enhancement filter is<br />

used to compute an non-enhanced image. The non-optimized inverse filter improves<br />

significantly the PPSNR, from 20 to 33.8dB, because the noise is low-pass filtered.<br />

Visually, some sharpness remains (image 6). The regularized de-enhancement (image 7)<br />

is 2.1dB better than the non-regularized de-enhancement. The visual improvement,<br />

however, is interesting to notice: the regularized de-enhanced image is less blurred than<br />

the non regularized one. The error-image 7 of figure 6 shows less differences with the raw<br />

image than the error-image 6. Here, the error images are the absolute values of the<br />

differences between the raw image and the de-enhanced one, multiplied by a factor 20.<br />

This simulation shows that regularization improves the regularity of the restored image.<br />

Figure 5: PPSNR results of simulated <strong>compression</strong> in the post- and pre-enhancement<br />

schemes.<br />

- 90 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

Figure 6: Part of an image with simulated <strong>compression</strong> noise in the post- and preenhancement<br />

scheme.<br />

Image numbers refer to figure 5.<br />

4-2 Results on coded images<br />

We have tested the principles presented in section 2 and 3 on 512x512 images with 8 bits<br />

per pixel, recorded from clinical digital cardiac angiography systems. The results<br />

presented here were obtained on a left coronary image from the Cardiac Hospital, Lyon,<br />

France. The coronary image was compressed with our optimal bit allocation and<br />

quantization method, according to the post- and pre-enhancement schemes. The optimal<br />

bit allocations of the raw and the enhanced images are shown in figure 7. The<br />

quantization step of each DCT zone is also optimum. Even if the numbers of bits are<br />

identical in several zones, the quantization steps are all different.<br />

For a <strong>compression</strong> ratio of about 13:1, PPSNR results are given in figure 8. We fixed a<br />

similar CR for the post- and pre- enhancement coding, expecting the amount of the<br />

degradation to be different. The PPSNR2 of the raw compressed image (without<br />

enhancement) is rather high (47.5dB). The PPSNR3 of the compressed-enhanced image<br />

is 34.9dB; in contrast with the simulation, the PPSNR5 of the enhanced compressed<br />

image is only 34.7. The enhanced image is more difficult to compress but at a fixed bit<br />

rate, the optimization of the quantizer allows good results in term of PPSNR. Visually, the<br />

compressed-enhanced image is slightly better. The allocation of the enhanced image<br />

shows that more bits are allocated to medium and high frequencies, fewer to the low<br />

frequencies. In fact, many of the available bits are used to code the image noise. After deenhancement,<br />

the PPSNR is increased from 34.7 to 40.7dB. The improvement is real, but<br />

not as spectacular as in our simulation.<br />

- 91 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

(a)<br />

(b)<br />

Figure 7: (a) Bit allocation of the post-enhanced coronary image at CR=12.6. (b) Bit<br />

allocation of the pre-enhanced image at CR=12.8. (nq: no quantization).<br />

Figure 8: PPSNR results with FF-DCT post- and pre-enhancement schemes.<br />

To estimate the performance of our optimal Full-Frame DCT coding, we compared the<br />

FFDCT coded images with JPEG coded ones. At a <strong>compression</strong> ratio of 12.8, the PPSNR<br />

of the raw JPEG-compressed image is 46.1dB; the PPSNR of the compressed-enhanced<br />

image is 32.8dB; the PPSNR of the enhanced-compressed image is 33.5dB. These<br />

results are 1 to 2 dB less than with Full-Frame DCT coding. Visually, however, the JPEG<br />

- 92 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

coded image shows severe blocking artifacts, especially in the post-enhancement<br />

scheme. A pre-enhanced image with FFDCT and JPEG coding are shown in figure 9.<br />

Finally, the de-enhancement gives a very similar result without or with regularization on<br />

the Full-Frame coded images: 40.6 and 40.7dB respectively. The PPSNRs of this<br />

experiment are high and make the regularization improvement little visible. Using the<br />

simulated <strong>compression</strong> of a raw image at 47.5dB, like in section 4-1, the improvement of<br />

the PPSNR by regularization is 0.2dB. The technique of regularization, which involves no<br />

additional complexity, is more useful at higher CR. The regularized de-enhancement we<br />

implemented can be improved by finding experimentally a more appropriate operator d, or<br />

by mean of a Wiener optimal inverse filter.<br />

5- CONCLUSION<br />

In this paper, we proposed a new method for integrating post-processing in a lossy<br />

<strong>compression</strong>/de<strong>compression</strong> scheme. We studied the edge enhancement filter of clinical<br />

cardiac angiography systems and its incorporation it in a Full-Frame DCT codec.<br />

Choosing if the image should be enhanced before or after the <strong>compression</strong> is a important<br />

issue. Simulations of the quantization noise by adding white noise to the DCT show<br />

clearly that it is preferable to apply the enhancement before the <strong>compression</strong> (preenhancement<br />

scheme). In this scheme, a non-enhanced image must also be available<br />

after data <strong>compression</strong>: it is necessary for clinical applications to have both the enhanced<br />

and the non-enhanced image. We also incorporated the enhancement inverse filter in the<br />

DCT coding scheme and proposed an improvement by a signal restoration technique with<br />

regularization. The regularization is more effective when the <strong>compression</strong> distortion is very<br />

high, and can easily be implemented without additional complexity. Regularization should<br />

be effective in the quantitative analysis of the decompressed de-enhanced image because<br />

the estimation of vessel narrowing requires a regular image. This point has not been<br />

assessed yet.<br />

The results of the pre-enhancement scheme with Full-Frame DCT <strong>compression</strong> are<br />

promising, but not as demonstrative as on the simulations. Compressing the enhanced<br />

image is more difficult than compressing the raw ones because many bits are allocated to<br />

the high frequencies, which contents is magnified by the edge enhancement filter. We<br />

designed an optimal strategy for the bit allocation of pre-defined zones in the DCT plane.<br />

An optimal method for defining the zones is still under investigation.<br />

As a conclusion, with an optimal bit allocation, the enhanced image compressed at a<br />

<strong>compression</strong> ratio of 12 with FFDCT have a good PPSNR and visual quality, whereas the<br />

JPEG coded image shows blocking effect.<br />

ACKNOWLEDGMENT<br />

The authors wish to thank Hein Haas and Paul Zwart from Philips Medical Systems, and<br />

Marcel Breeuwer from Philips Research for their useful comments.<br />

- 93 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

REFERENCES<br />

[1] P. Béretta, R. Prost, M. Amiel, "Optimal Bit Allocation for Full-Frame DCT Coding<br />

Scheme - Application to Cardiac Angiography", SPIE Vol. 2164 Image Capture<br />

Formatting and Display, pp 291-311, 1994.<br />

[2] H. van Eeuwick, "The Influence of Edge Enhancement on Analytical Programs",<br />

Internal Report, Philips Medical Systems, XDB-048-816, 1990.<br />

[3] K. Miller, "Least Square Methods for Ill-posed Problems with a Prescribed Bound",<br />

SIAM J. Math. Anal., Vol. 1, n°2, pp 52-74, 1970.<br />

[4] P. Roos et al., "Reversible Intraframe Compression of Medical Images", IEEE<br />

Trans. on Med. Imaging, Vol. 7 n°4, pp 328-336, 1988.<br />

[5] W.H. Chen, S.C. Fralick, "Image Enhancement Using Cosine Transform Filtering",<br />

Proc. Symp. on Current Math. Problems in Image Science, Monterey, Ca USA, pp 186-<br />

192, 1976.<br />

[6] B. Chitprasert and K.R. Rao, "Discrete Cosine Transform Filtering", Signal<br />

Processing, Vol. 19, pp 233-245, 1990.<br />

[7] B.C. Schweppe, Uncertain Dynamic Systems, Englewoods Cliffs, N.J. USA,<br />

Prentice-Hall, 1986.<br />

[8] A.K. Kastaggelos, J. Biemond, R.W. Shafer and R.M. Mersereau, "A Regularized<br />

Iterative Image Restoration Algorithm", IEEE Trans. on Signal Processing, Vol. 39,<br />

n°4, pp 914-929, 1991.<br />

[9] R. Prost, J.L. Burdeau, S. Guilloteau and R. Goutte, "Regularized Myopic Image<br />

Deconvolution. Application to Aperture Synthesis in Radioastronomy". EUSIPCO-94,<br />

Edinburg, Scotland UK, 13-16 September 1994, Proc. Vol. 1 Theory and Applications,<br />

pp 307-310, 1994.<br />

[10] W.B. Pennebaker and J.L. Mitchel, JPEG Still Image Data Compression Standard,<br />

van Nostrand Reinhold, 1993.<br />

[11] Legal - "MPEG: a Video Compression Standard for Multimedia Applications",<br />

Communications of the ACR, Vol. 34 n°4, pp 47-58, 1991.<br />

[12] S.C. Lo and H.K. Huang , "Radiological Image Compression: Full-Frame Bit<br />

Allocation Technique", Radiology, Vol. 155, pp 811-817, 1985.<br />

[13] K.K. Chan, S.L. Lou and H.K. Huang, " Radiological Image Compression Using<br />

Full-Frame Cosine Transform with Adaptive Bit-Allocation", Computerized Medical<br />

Imaging and Graphics, Vol. 13 n° 2, pp 153-159, 1989.<br />

[14] S.C. Lo et al., "Full-Frame Entropy Coding for Radiological Image Compression",<br />

SPIE Vol. 1144 Image Capture Formatting and Display, pp 265-271, 1991.<br />

[15] K.R. Rao and P. Yip, Discrete Cosine Transform: Algorithms, Advantages and<br />

Applications, Academic Press, 1990<br />

- 94 -


Chapitre I-4: Compression FF DCT et renforcement de contour<br />

(a)<br />

(b)<br />

(c)<br />

Figure 9: (a) Enlarged part of the original enhanced image; (b) Enlarged part of preenhanced<br />

FFDCT coded image (CR=12.8); (c) Enlarged part of pre-enhanced JPEG<br />

coded image (CR=12.8).<br />

- 95 -


CHAPITRE I-5<br />

ETUDE THEORIQUE DE LA ROBUSTESSE<br />

DU QUANTIFICATEUR UNIFORME<br />

OPTIMUM<br />

- 96 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

Présentation<br />

Après avoir mis au point et validé une méthode d’allocation de bits avec un découpage de<br />

la DCT en bandes circulaires, nous avons cherché à améliorer l’optimisation du<br />

quantificateur sur lequel repose cette allocation. Jusqu’alors, nos expériences étaient<br />

basées sur l’hypothèse que les bandes circulaires suivaient une distribution Laplacienne.<br />

Nous avons voulu développer une approche valide pour toute distribution de type<br />

Gaussienne généralisée. Nous avons aussi cherché à réaliser une quantification non pas<br />

adaptée à chaque image, mais fixe pour une classe d’images. Pour ce faire, il faut<br />

connaître l’impact d’un choix de quantificateur inapproprié à la distribution du signal afin<br />

de choisir au mieux les paramètres de distribution Gaussienne généralisée que l’on doit<br />

appliquer avec toutes les images.<br />

Une étude du quantificateur uniforme optimum était donc nécessaire, ainsi qu’une<br />

exploration des conséquences de la non adaptation du quantifieur. Le présent chapitre<br />

donne nos développements théoriques sur l’optimisation et la robustesse du quantifieur<br />

scalaire uniforme.<br />

Ces trav<strong>aux</strong> ont fait l’objet de l’article [BERE-97], qui va être soumi à la revue Signal<br />

Processing, et dont le texte est reproduit ci-dessous.<br />

Robustness of Optimum Uniform Quantizers to a Mismatched Statistical<br />

Model.<br />

1. Introduction<br />

This paper gives a theoretical study of quantizer mismatch with scalar uniform quantizers.<br />

The current work was carried out in view of practical applications to transform image<br />

coding. The results are however applicable to the quantization of any waveform by a<br />

scalar uniform quantizer.<br />

The coding or <strong>compression</strong> of a digital signal facilitates its transmission and archive.<br />

Compression is often the only viable solution for transmitting large images over limited<br />

bandwidth channels, or for long term storage of large amount of data. A typical lossy<br />

<strong>compression</strong> system includes a signal transformation, commonly by discrete cosine<br />

transform or by filter banks, in order to decorrelate the signal and to compact its energy<br />

into a small number of coefficients. In such systems, called transform coding, the signal<br />

transformation is followed by quantization, a conversion of the transformed signal into a<br />

small number of levels. The quantization is non-invertible, and yields a lossy <strong>compression</strong>.<br />

The last operation of a transform coding system is an entropy coding that reduces the<br />

remaining redundancy of the quantized transformed coefficients.<br />

Quantization is the key operation of <strong>compression</strong> schemes because it must both preserve<br />

the features that are relevant to the end-user after signal reconstruction, and reduce the<br />

data rate (i.e. number of bits per signal sample). There are two main categories of<br />

quantizers: the scalar quantizer (SQ), and the vector quantizer (VQ). The SQ quantifies<br />

individual samples by mapping them into a limited set of values. In contrast, the VQ<br />

quantifies blocks of samples by mapping them into a limited set of blocks (called<br />

codewords). Vector quantization is an extension of scalar quantization to dimensional<br />

spaces higher than 1. In his fundamental work on rate-distortion theory, Shannon proved<br />

- 97 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

that a VQ can always achieve better coding performances than a SQ [SHAN-59]. In<br />

practice, VQ is complex to implement. It requires a training phase in order to determine<br />

the dictionary of output codewords based on a number of test images. The coding phase<br />

consists of matching the encountered waveform blocks with the closest codeword. Both<br />

operations are complex. Only the decoding phase is very simple. Because of VQ’s<br />

complexity and long coding times, SQ has been extensively studied [MAX-60], [GISH-68],<br />

[WOOD-69], [BERG-72], [GERS-78], [BERG-82], and utilized for image coding in the<br />

seventies and eighties. With the advance of computer technology, VQ was given more<br />

attention in the eighties and nineties [GERS-82], [GRAY-84]. However, scalar quantization<br />

recently regained attention with the contributions of [SHAP-93], [SAID-96], and remains<br />

widely used in transform coding because of its simplicity. Image coding standards<br />

extensively use scalar uniform quantizer, e.g. JPEG [PENN-93] and MPEG [LEGA-92].<br />

With a scalar quantizer, the individual input samples are divided in threshold intervals,<br />

which boundaries are the threshold levels. All the values lying within a threshold interval<br />

are mapped into a single quantization level. The mapping of the input values into a limited<br />

number of quantization levels results in a distortion. Four types of scalar quantizers are<br />

principally considered in the literature. Their definition is given in the following.<br />

Definition 1: An N-level pdf-optimized quantizer is a quantizer that minimizes the average<br />

distortion for a fixed number of levels N. This is the Max-Lloyd quantizer [MAX-60]. The<br />

threshold and quantization levels are not uniformly spread over the input and the output<br />

range.<br />

Definition 2: An N-level minimum-distortion uniform-threshold quantizer is a quantizer that<br />

minimizes the average distortion for a fixed number of levels N, with uniform threshold<br />

levels and non-uniform quantization levels.<br />

Definition 3: An N-level minimum-distortion uniform quantizer is a quantizer that minimizes<br />

the average distortion for a fixed number of levels N, with both uniform threshold and<br />

uniform quantization levels.<br />

With the quantizers of definition 1, 2, and 3 the bit rate is not controlled.<br />

Definition 4: An N-level entropy-constrained optimum quantizer is a quantizer that<br />

minimizes the average distortion at a given bit rate.<br />

A minimum-distortion uniform quantizer followed by entropy coding gives better<br />

performance than the Max-Lloyd quantizer (without entropy coding) in terms of ratedistortion<br />

[JAIN-89 pp115-117]. Other advantages of the uniform quantizer are both the<br />

small amount of overhead data, and the simplicity of its implementation. For these<br />

reasons, we limited the scope of this work to the uniform quantizer.<br />

Two approaches are possible: either the quantizer is adapted to the properties of each<br />

input signal, or it is fixed for a class of signals. In the first approach, the quantization is<br />

adaptive, and the computational cost is high. The second approach, non-adaptive<br />

quantization, is the one addressed in this paper. A non-adaptive quantizer is designed for<br />

a class of signals which are assumed to have similar properties, and in particular the same<br />

probability density function (pdf). A major concern in practical applications of coding is the<br />

robustness of the quantizer regarding possible variation of the input-signals pdf. Our<br />

objective is to address this robustness with the uniform quantizer by studying the effect of<br />

a possible mismatch of the input pdf compared with the pdf expected in the quantizer<br />

design. We consider both minimum-distortion uniform quantizers (definition 3) and<br />

entropy-constrained optimum uniform quantizers (definition 4). We assume that the input<br />

signal follows a generalized Gaussian (GG) distribution, which covers a wide range of<br />

signals found in practical applications. Signal modeling by the GG pdf includes the<br />

Laplacian and the Gaussian pdf. GG pdfs are encountered in DPCM [CUTL-52], [JAIN-<br />

- 98 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

89], cosine transform [REIN-83], [MULL-93], [JOSH-95], [MOSH-96], wavelet transform<br />

[MALL-89], [BARL-94] or subband coding [WOOD-86], [WEST-88].<br />

Although scalar quantizers have been widely studied in the years 1970-80, to our<br />

knowledge the robustness of the uniform quantizer has not yet been addressed. A<br />

detailed study of the robustness of the Max-Lloyd quantizer (definition 1) was reported in<br />

[MAUE-79], and used in [JAYA-84]. We found no study about the mismatch of uniform<br />

quantizers from definition 3 and 4.<br />

In this paper, we use the Mean Square Error (MSE) and the Signal to Noise Ratio (SNR)<br />

as measures of distortion. We present the deviation of the MSE and the SNR due to a<br />

quantizer designed with a pdf model that differs from the actual pdf of the input-signal.<br />

Section 2 gives the mathematical expression of the MSE and the entropy with a<br />

generalized Gaussian pdf, then the analysis of the uniform quantizer properties, and finally<br />

the analytical formulation of the rate-distortion optimization of entropy constrained uniform<br />

quantizers. In section 3, mismatch of the quantizer relative to the shape parameter of the<br />

input pdf, and mismatch relative to the variance are addressed. Finally, section 4<br />

summarizes our findings and discuss them in comparison to related works.<br />

2. Matched uniform quantizers with generalized Gaussian distributions<br />

2.1 Notation<br />

A scalar quantizer is a staircase function that maps the input values into a smaller range<br />

of output levels. The quantizer maps a continuous random variable X into a discrete<br />

random variable X ~<br />

. The range of the input values is divided into N=L+1 adjacent<br />

intervals, which boundaries are the threshold levels t 0 , t 1 , ..., t N . The output belongs to a<br />

finite set of quantization levels {l 0 , l 1 , ..., l L}. If the i th input value x(i) lies between the<br />

threshold levels t j and t j+1 , then it is mapped into an output value x ~ (i)= l j. A uniform<br />

quantizer is defined by the number of threshold intervals N and the quantization step size<br />

q. The number of quantization levels is also equal to N. The threshold and the<br />

quantization intervals are all constant and equal to q. Midtread quantizers are symmetrical<br />

with a central quantization level l L/2 =0, their number of quantization levels is always odd.<br />

Midrise quantizers have an even number of quantization levels; they cannot reconstruct a<br />

zero-value because zero is a threshold level. We limited this study to scalar uniform<br />

midtread quantizers, an example of which is shown in figure 1. Extension to midrise<br />

quantizers would follow similar derivations.<br />

- 99 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

t 0=- ∞<br />

l L=L.q<br />

t 1=<br />

-L/2.q+q/2<br />

t 2 l 2<br />

l<br />

..<br />

l 3=<br />

l 0 =-L.q/2<br />

l 6=<br />

t 6=t L<br />

L/2q-q/2<br />

N=L+1=7<br />

t N=+ ∞<br />

Figure 1: Characteristic of a midtread quantizer.<br />

x<br />

2.2 Mean Square Error of uniform quantizers with GG pdf<br />

The mean square error (MSE) of a quantizer is defined by:<br />

~<br />

D(q) = ∫ ( x−<br />

x)² p( x)<br />

dx<br />

(1)<br />

where p(x) is the pdf of the input random variable X.<br />

Without lack of generality, we assume that X is a zero-mean random variable, with<br />

variance σ 2 . For a uniform midtread quantizer with N=L+1 quantization levels, with a<br />

quantization step q, the MSE is:<br />

D(q)= D g (q) + D o (q) (2)<br />

where<br />

D g (q) = 2 {<br />

L<br />

2<br />

∑<br />

j=<br />

1<br />

( j−12<br />

/ ) q<br />

∫ [ x−( j−1) q]² p( x)<br />

dx+<br />

( j−1)<br />

q<br />

and<br />

∞ L<br />

D o (q)= 2 ∫L ( x − q )² p ( x ) dx<br />

q 2<br />

2<br />

L<br />

2<br />

∑<br />

j=<br />

1<br />

jq<br />

∫ ( x−<br />

jq)² p( x)<br />

dx}<br />

12<br />

( j−<br />

/ ) q<br />

The terms D g (q) and D o (q) refer to two different kinds of errors. D o (q) becomes important<br />

when extreme values of the input are saturated by the quantizer, i.e. the range of the input<br />

values exceeds the range of the quantizer threshold levels. This is commonly referred to<br />

as the overload distortion. This distortion is high if some input values that have a rather<br />

high probability are saturated. Conversely, D g (q) becomes high when the full range of the<br />

input values is quantized, but in a coarse manner. This is called the granular noise.<br />

Granular noise and overload distortion have a different impact on the perceptual<br />

annoyance in image coding.<br />

- 100 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

The input-signal may follow a great variety of distributions, and for a broad investigation of<br />

the quantization error we used the generalized Gaussian distribution<br />

p X (x) = K e −( x<br />

) β<br />

α<br />

(3)<br />

where<br />

β<br />

K = , α and β >0, and where Γ (x) is the gamma distribution.<br />

2αΓ( 1 β) Γ( 3 β)<br />

The variance of this pdf is σ² = α²<br />

.<br />

Γ( 1 β)<br />

Particular cases of the generalized Gaussian distribution are the Laplacian pdf: β=1, and<br />

the Gaussian pdf: β =2. When β → 0 , the distribution tends towards an impulse. When<br />

1<br />

β →∞, the distribution is uniform, it can easily be demonstrated that its height is<br />

2σ<br />

3<br />

and its width 2σ<br />

3. Similarly, when σ²→ 0 the distribution tends towards an impulse.<br />

When σ²→ ∞, the distribution becomes wider and wider, its amplitude tends towards zero.<br />

σ 2 =1 β=1<br />

(a)<br />

(b)<br />

Figure 2: Pdf of Generalized Gaussian distributions.<br />

Figure 2 gives plots of generalized Gaussian distributions for various values of β and σ².<br />

As shown in figure 2, the shape of the distribution can be modified by varying the<br />

parameter β without changing the variance. The parameter β is referred to as the shape<br />

parameter. In image transform coding based on Discrete Cosine Transform (DCT) or<br />

Subband Band Coding (SBC), the values of β encountered in practice are often in the<br />

range of 0.5 to 1.<br />

- 101 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

The quantization error D(q) can be derived by incorporating (3) into (2). The result is<br />

D(q)= D g (q) + D o (q) (4)<br />

where<br />

L<br />

D g (q) =2K α 2<br />

β j<br />

and<br />

∑<br />

{α ² Γ( C)[ γ ( b , C) − γ ( b , C)]<br />

3 1<br />

= 1<br />

−2 α γ<br />

3<br />

−γ<br />

1<br />

jq Γ( D)[ ( b , D) ( b , D)]<br />

+ jq ² ² Γ( E)[ γ ( b3, E) −γ<br />

( b1, E)]<br />

+ 2qαΓ( D)[ γ ( b2, D) −γ<br />

( b1, D)]<br />

−( 2j −1) q² Γ( E)[ γ ( b2, E) −γ ( b1, E)]<br />

}<br />

D o (q) = 2K α β { α ² Γ ( C )[ − γ ( b , C )]<br />

1 4<br />

−LqαΓ( D)[ 1 −γ<br />

( b4<br />

, D)]<br />

Lq ²²<br />

+ Γ ( E )[ 1 −γ ( b4<br />

, E )] }<br />

4<br />

with<br />

Γ( 1 β)<br />

β<br />

α² = σ²<br />

, K =<br />

Γ( 3 β)<br />

2αΓ( 1 β) ,<br />

C = 3/β, D = 2/β, E = 1/β,<br />

⎛<br />

b 1 = ( j − 1<br />

⎜<br />

) q ⎞<br />

⎟<br />

⎝ α ⎠<br />

β<br />

; b 2 =<br />

⎛ ( j − 1 / 2<br />

⎜<br />

) q ⎞<br />

⎟<br />

⎝ α ⎠<br />

β<br />

⎛<br />

; b 3 = jq<br />

β<br />

⎛ ⎞<br />

⎜<br />

⎜ ⎟ ; b<br />

⎝ α ⎠ 4 = ⎜<br />

⎜<br />

⎝<br />

and where γ denotes the incomplete gamma function.<br />

Figure 3 illustrates the quantization error (4) as a function of the quantization step q, for a<br />

fixed number of levels N=15, with β =1, and σ ²=1.<br />

N=15<br />

β=1<br />

σ 2 =1<br />

L q<br />

2<br />

α<br />

β<br />

⎞<br />

⎟<br />

⎟<br />

⎟<br />

⎠<br />

D<br />

Figure 3: Quantization error D as a function of the quantization step q.<br />

The quantization error reaches a minimum for a value of q denoted here q opt/D . The MSE<br />

is also a function of the number of steps N, of the shape parameter β, and of the variance<br />

σ².<br />

- 102 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

2.3 Minimum-MSE uniform quantizer<br />

The quantization step that minimizes the MSE is obtained by differentiating D(q) with<br />

respect to q and equating the result to zero.<br />

The differentiate of D(q) is:<br />

dD (q)<br />

dq<br />

where<br />

dD (q)<br />

g<br />

dq<br />

and<br />

dDo( q )<br />

dq<br />

=<br />

dD (q)<br />

g<br />

dq<br />

L<br />

= 2 K α 2<br />

β j<br />

∑<br />

= 1<br />

= 2 KL<br />

α<br />

β { L 2<br />

+ dD o( q)<br />

dq<br />

{ -2j αΓ( D)[ γ ( b , D) − γ ( b , D)]<br />

3 1<br />

+ j 2 2q Γ( E)[ γ ( b , E) − γ ( b , E)]<br />

3 1<br />

+ 2 α Γ( D)[ γ ( b2, D) − γ ( b1, D)]<br />

- (2j-1) 2q Γ( E)[ γ ( b , E) − γ ( b , E)]<br />

2 1<br />

q Γ( E )[ − γ ( b , E )] - αΓ( D)[ − γ ( b , D)]<br />

}<br />

1 4<br />

1<br />

4<br />

(5)<br />

Our equation allows the calculation of q opt/D for GG pdf with any value of the parameters.<br />

Usually books give tables of q opt/D for a set of values of N, and only for a few distributions<br />

like the Laplacian and the Gaussian ones [JAIN-89]. Formula (5) allows to determine the<br />

quantization step of the minimum-MSE uniform quantizer by solving the non-linear<br />

equation dD ( q ) =0. We used toolboxes of the MatLab ® package from MatWorks, which<br />

dq<br />

resolves non-linear equations by the Gauss-Newton method.<br />

Figure 3 shows that the penalty for choosing q too small compared with q opt/D is much<br />

more important than the penalty for choosing q too high. The overload and granularity<br />

error curves provide an insight to the penalties observed when q departs from q opt/D . The<br />

optimum quantization step is reached when the sum of the overload and granularity noise<br />

is minimal. Below q opt/D the overload error is dominant, and above q opt/D , the granularity<br />

error is dominant. The MSE increases more rapidely with increasing overload than with<br />

increasing granularity.<br />

If the quantization step q is not the minimum-distorsion value, overload distortion<br />

should be carefully avoided because it is more penalizing than granularity. In<br />

practical situations, it is preferable to over-estimate q as compared with q opt/D rather<br />

than under-estimate it.<br />

- 103 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

β=1<br />

σ 2 =1<br />

β=1<br />

σ 2 =1<br />

D<br />

(a)<br />

(b)<br />

N=15<br />

σ 2 =1<br />

N=15<br />

σ 2 =1<br />

D<br />

N=15<br />

β=1<br />

(c)<br />

(d)<br />

N=15<br />

β=1<br />

D<br />

(e)<br />

Figure 4: MSE and SNR as a function of the quantization steps, for different values<br />

of N, β, and σ².<br />

Figure 4 shows the MSE as a function of q, given various numbers of quantization levels N<br />

(figure 4-a), shape parameters β (figure 4-c), and variances σ 2 (figure 4-e).<br />

A plot of the Signal to Noise Ratio (SNR),<br />

with SNR = 10 log 10 (σ ²/MSE), is added as a companion of the MSE (figure 4-b, 4-d, and<br />

4-f).<br />

Figure 4-a & b show, as expected, that large values of N result in a low distortion. In<br />

addition, as q →∞, all the MSE curves for various values of N converge towards the<br />

same asymptotic curve.<br />

In spite of what a prime interpretation of the influence of β on q opt/D could suggest, figure 4-<br />

c & d show that the values of the optimal quantization step decrease as the shape<br />

parameter increases. One could have expected q opt/D to increase with β, in order to limit<br />

- 104 -<br />

(f)


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

the overload. However, when the shape parameter β increases, the pdf tends toward the<br />

uniform distribution, as seen on figure 2-a. For uniform quantizers with a uniform pdf, the<br />

whole input range is used, the saturation distortion tends toward zero. Thus, when β<br />

increases, the pdf-optimization procedure yields small values of q opt/D in order to limit the<br />

granularity distortion. When properly optimized, quantizers with large β pdf will perform<br />

better than quantizers with small β pdf. However, a quantization step different from q opt/D is<br />

more penalizing for large β than for small β.<br />

In practical situations, minimum-MSE uniform quantizers with input pdf of large<br />

shape parameters will perform better than with input pdf of small shape parameters.<br />

But the penalty for having a poor optimization of the quantization step is more<br />

important with large shape parameter pdfs.<br />

Concerning the influence of σ² on q opt/D , figure 4-e & f show that the values of the optimal<br />

quantization step increase as the variance increases. Pdfs with a large variance are widely<br />

spread but they do not tend towards a uniform pdf, their shape remains that of a<br />

generalized Gaussian distribution. The saturation has to be limited during the quantizer<br />

optimization process by having a large quantization step. Figure 4-f shows that uniform<br />

quantizers with various input pdf variance have all the same maximum SNR value.<br />

However, the penalty for poorly optimized quantizers is higher with small variances.<br />

In practical situations, minimum-MSE uniform quantizers having different variances<br />

perform identically in terms of SNR. But the penalty for having a poor optimization<br />

of the quantization step is more important with small variance pdfs.<br />

2.4 Entropy of uniform quantizers with GG pdf<br />

The entropy of the output of a quantizer is the minimum amount of information to be<br />

transmitted in order to be able to reconstruct the quantizer output with an arbitrarily small<br />

error. It is also referred to as the lower bound data rate, or bit rate for a given distortion. It<br />

is expressed in bits per sample (bps). It is given by:<br />

p<br />

p<br />

H Q = -∑ log ( ) bits/sample (6)<br />

i<br />

i<br />

2<br />

i<br />

Application of formula (6) to uniform midtread quantizers yields:<br />

H Q = -2 {<br />

where<br />

p j =<br />

p 0 =<br />

p ∞<br />

=<br />

( j+<br />

12 / ) q<br />

∫( j−<br />

12 / ) q<br />

q / 2<br />

∫<br />

0<br />

∞<br />

∫L−<br />

1 q<br />

2<br />

L<br />

−<br />

2 1 ∑ p p<br />

j 2 j<br />

j = 1<br />

pxdx ( )<br />

pxdx ( )<br />

pxdx ( )<br />

log ( ) + p 0 log 2 (p 0 ) + p ∞<br />

log 2 (p ∞<br />

) } (7)<br />

- 105 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

Incorporating the pdf definition (3) into (7) results in:<br />

p j = K α Γ( )[ ( , ) ( , )]<br />

β E γ b E γ b E<br />

5 − 2<br />

p 0 = K α β Γ( E) γ ( b , E)<br />

6<br />

p ∞<br />

= K α Γ( )[ ( , )]<br />

β E 1 − γ b E 7<br />

(8)<br />

with<br />

( j − / ) q<br />

b 2 =<br />

⎛ 1 2<br />

⎜<br />

⎞<br />

⎟<br />

⎝ α ⎠<br />

β<br />

( j + / ) q<br />

b 5 =<br />

⎛ 1 2<br />

⎜<br />

⎞<br />

⎟<br />

⎝ α ⎠<br />

β<br />

b 6 =<br />

⎛<br />

⎜<br />

⎝<br />

q /2<br />

α<br />

⎛ L − 1<br />

β<br />

q<br />

⎞<br />

⎞<br />

⎜<br />

⎟ b<br />

⎠ 7 =<br />

2<br />

⎟<br />

⎜ ⎟<br />

⎜ α ⎟<br />

⎝ ⎠<br />

β<br />

β=1<br />

σ 2 =1<br />

(a)<br />

N=15<br />

σ 2 =1<br />

Ν=15<br />

β=1<br />

(b)<br />

Figure 5: Entropy as a function of the quantization steps for different values of N, β,<br />

and σ².<br />

Figure 5 plots the entropy of formula (7) as a function of q, for different values of N, β, and<br />

σ². There is a value of q that maximizes the entropy, denoted q opt/R .<br />

As expected, the entropy of quantizers with a large number of levels N is greater than the<br />

entropy of quantizers with small N, and q opt/R decreases with increasing N.<br />

q opt/R increases with increasing β (on the contrary, q opt/D decreases with increasing β). The<br />

entropy of minimum-MSE quantizers increases with increasing β.<br />

q opt/R increases with increasing σ² (similarly, q opt/D increases with increasing σ²). The<br />

entropy of minimum-MSE quantizers is independant of σ².<br />

- 106 -<br />

(c)


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

2.5 Entropy-constrained uniform quantizer with GG pdf<br />

The quantization step of an entropy-constrained quantizer should minimize the distortion<br />

subject to a fixed entropy constraint H 0 . Using to the Lagrangian multiplier method, the<br />

solution of this problem minimizes the following functional:<br />

J(q) = D(q) + λ [H Q (q)- H 0 ] (9)<br />

By differentiating J(q) with respect to q and λ, equating the result to zero, and choosing λ<br />

so that H(q) = H 0 , the problem is to solve the system of non-linear equations:<br />

⎧dJ<br />

dD( q) dH( q)<br />

= 0⇒ + λ = 0<br />

⎪dq<br />

dq dq<br />

⎨<br />

⎪dJ<br />

= 0⇒ Hq ( ) − H = 0<br />

⎩⎪<br />

0<br />

dλ<br />

(10)<br />

After incorporating formulas (5) and (A1), from the appendix, into (10), we are able to<br />

resolve (10) for any a priori number of levels N, any fixed entropy H 0 , and any GG input<br />

pdf. We used MatLab ® toolboxes that resolve sets of non-linear equations with the Gauss-<br />

Newton method.<br />

Our approach results in a practical method for designing N-level entropy-constrained<br />

uniform quantizers (definition 4). Note that minimum-MSE uniform quantizers (definition 3)<br />

are designed simply by taking λ=0 and relaxing the constraint H(q)- H 0 .=0.<br />

The performance of an entropy-constrained optimum quantizer is assessed by its ratedistortion<br />

curve R(D).<br />

It is well known that for each pdf there exists a bound, called the rate-distortion bound<br />

R B (D), such that:<br />

R(D) ≥ R B (D) (11)<br />

The minimum bit rate needed to transmit a quantized signal is determined by the entropy<br />

of the quantizer output. This entropy H Q is given by:<br />

H Q ≈ H s - log 2 (q) (12)<br />

Where H s is the differential entropy of the source:<br />

+∞<br />

H s = - ∫ px ( )log pxdx ( )<br />

(13)<br />

−∞<br />

2<br />

For minimum-MSE uniform quantizers, the uniform pdf yields the lowest possible<br />

distortion. According to the well-known formula of the distortion for uniform quantizers with<br />

a uniform pdf, we have:<br />

2<br />

D β =∞<br />

≈ q β =∞<br />

(15)<br />

12<br />

The entropy of the quantizer output can be bounded by H Q for q β =∞<br />

. Incorporating (14)<br />

into (12) results in the Gish-Pierce asymptote of the rate-distortion performance.<br />

Figure 6 shows an example of R(D) curve for a 15-levels uniform quantizer with a<br />

Laplacian unity variance pdf (β=1 and σ²=1). The relation between the entropy R, the<br />

quantization step q, and the distortion D is shown on the figure. The R(D) curve (figure 6-<br />

b) has an optimum that is reached when the best compromise between the highest rate<br />

and the lowest distortion is achieved. This point corresponds to the optimum entropy-<br />

- 107 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

constrained uniform quantizer. Its quantization step is denoted q opt/R-D . Below or above this<br />

optimum quantization step, the distortion is higher (figure 6-b and c). For q> q opt/R-D the<br />

entropy is lower, and for q< q opt/R-D the entropy is higher which is less favorable to<br />

<strong>compression</strong> (figure 6-a).<br />

Similarly to minimum-MSE quantizers, for entropy-constrained quantizers it is<br />

preferable to over-estimate q as compared to q opt/R-D rather than to under-estimate it.<br />

4<br />

4<br />

3.5<br />

3.5<br />

3<br />

3<br />

2.5<br />

2.5<br />

2<br />

2<br />

1.5<br />

1<br />

1.5<br />

1<br />

Gish-Pierce<br />

lower bound<br />

0.5<br />

0 0.5 1 1.5 2 2.5<br />

(a)<br />

N=15<br />

β=1<br />

σ²=1<br />

0.5<br />

-40 -35 -30 -25 -20 -15 -10 -5<br />

2.5<br />

(b)<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

-40 -35 -30 -25 -20 -15 -10 -5<br />

Figure 6: Rate-distortion performance R(D) of matched uniform quantizers (6-b),<br />

correspondence with the curves R(q) (6-a), and q(D) ( 6-c).<br />

(c)<br />

- 108 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

N=63<br />

GP: Gish-Pierce<br />

lower bound<br />

N=31<br />

N=15<br />

N=7<br />

β=1<br />

σ²=1<br />

N=3<br />

-1<br />

-60 -50 -40 -30 -20 -10 0<br />

(a)<br />

6<br />

6<br />

5<br />

4<br />

3<br />

β=3.0<br />

N=15<br />

σ²=1<br />

β=2.0<br />

β=1.0<br />

β=0.5<br />

GP β=3.0<br />

GP σ2=0.5, 1.0, 2.0, & 3.0<br />

5<br />

4<br />

3<br />

N=15<br />

σ²=1<br />

σ 2 =0.5, 1.0, 2.0, & 3.0<br />

2<br />

1<br />

GP β=2.0<br />

GP β=1.0<br />

2<br />

1<br />

0<br />

GP β=0.5<br />

0<br />

-1<br />

-60 -50 -40 -30 -20 -10 0<br />

-1<br />

-60 -50 -40 -30 -20 -10 0<br />

(b) (c)<br />

Figure 7: Rate-distortion performance R(D) of matched uniform quantizers.<br />

Figure 7 shows the rate-distortion performance of entropy-constrained uniform quantizers,<br />

given various values of N (figure 7-a), β (figure 7-b), and σ² (figure 7-c).<br />

As expected, large values of N result in entropy-constrained quantizers with a high entropy<br />

and a low distortion (figure 7-a). The R(D) performance is closer to the Gish-Pierce lower<br />

bound for large N. The difference between the lower bound is less than 0.5 bit with 63<br />

levels and more than 1 bit with 7 levels and less (β=1 and σ²=1).<br />

The performance of optimum entropy-constrained uniform quantizers increases with<br />

increasing β (figure 7-b). But the distortion increase, when one departs from the optimum,<br />

also increases with β.<br />

The performance of entropy-constrained uniform quantizers is independant of the<br />

variance, whether they are optimum or not.<br />

These observations are similar to the findings of section 2.3 for minimum-MSE quantizers.<br />

3. Mismatched uniform quantizers<br />

3.1 Mismatch relative to the shape<br />

Quantizer mismatch refers to practical situation of non-adaptive quantization when the<br />

input pdf is different from the pdf expected for the design of the quantizer. Shape<br />

mismatch occurs when the shape parameter β X of the input signal pdf differs from the<br />

- 109 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

shape parameter β Q used for the quantizer design (i.e. for determining the optimum<br />

quantization step<br />

q<br />

opt<br />

β Q<br />

). Various generalized Gaussian pdf shapes were given in figure 2-a<br />

with a fixed variance σ ²=1. Without lack of generality, unit variance pdfs will be<br />

considered throughout of the current section.<br />

3.1.1 Minimum-MSE uniform quantizers<br />

As a first insight regarding the effect of the shape parameter on the quantizer, figure 8<br />

gives the distortion as a function of β for MSE-optimized quantizers, i.e. when q opt/D is<br />

evaluated and used for each point of the curve. Figure 8 shows that the distortion of<br />

minimum-MSE uniform quantizers decreases with increasing β.<br />

D<br />

0.5<br />

0.45<br />

0.4<br />

0.35<br />

0.3<br />

0.25<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

N=3<br />

N=7<br />

N=15<br />

N=31<br />

N=63<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

N=63<br />

N=31<br />

N=15<br />

N=7<br />

N=3<br />

Figure 8: Distortion of matched minimum-MSE uniform quantizers as a function of<br />

the shape parameter β .<br />

Figure 9 illustrates the relative performance of uniform quantizers when the quantization<br />

step departs from the optimum, i.e. in case of mismatch relative to the shape parameter. It<br />

shows the distortion as a function of β, each curve being computed with only one value of<br />

q opt/D . Figure 9-b shows that when β X β Q , the SNR is slightly higher than expected. For β X much greater<br />

than β Q , the SNR reaches an asymptote. If the input pdf has a shape parameter higher<br />

than the quantizer shape parameter, the quantizer performance for this input pdf will be<br />

slightly better than expected because the input pdf is closer to the uniform pdf than the<br />

quantizer pdf itself.<br />

- 110 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

0.5<br />

0.45<br />

0.4<br />

0.35<br />

q opt/D , β=3<br />

N=15<br />

σ 2 =1<br />

22<br />

20<br />

18<br />

16<br />

q opt/D , β=3<br />

q opt/D , β=2<br />

q opt/D , β=1<br />

D<br />

0.3<br />

0.25<br />

0.2<br />

0.15<br />

q opt/D , β=2<br />

q opt/D , β=1<br />

q opt/D , β=.5<br />

SNR<br />

14<br />

12<br />

10<br />

8<br />

q opt/D , β=.5<br />

0.1<br />

6<br />

0.05<br />

4<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

beta<br />

2<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

beta<br />

Figure 9: MSE and SNR as a function of the shape parameter β for different values<br />

of q opt/D : shape mismatch.<br />

As an example using data from figure 9-b, if the quantizer was optimized for β Q =2, and the<br />

input is β X =0.5, then the expected SNR is 18.5 dB, but the observed SNR is only 8 dB.<br />

Choosing a model pdf with a too high shape parameter compared with the real input<br />

results in a poor quantizer performance compared with expection. If β Q =0.5, and β X =2,<br />

then the expected SNR is 11.5 dB, but the observed SNR is slightly higher: 13 dB.<br />

Choosing a too small shape parameter for the quantizer compared with observed<br />

input pdf parameters does not degrade the quantizer performance. It slightly<br />

increases it compared with expectation, but the global quantizer performance<br />

remains relatively poor.<br />

The study of the quantizer robustness in terms of SNR when the input shape parameter<br />

deviates from its expected is of major interest. Figure 10 shows the deviation ∆β/β about<br />

the MSE-optimum β Q , assuming that a SNR deviation of ± 0.5 dB is acceptable. A<br />

deviation of -0.5 dB is observed when β X β Q . A small deviation of β X is enough to yield a loss of 0.5dB, especially for small input<br />

pdf shape parameters β X . Clearly, the robustness increases with β. This finding is in<br />

accordance with the discussion of figure 4-c&d, and 8.<br />

0.25<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

0<br />

-0.05<br />

-0.1<br />

-0.15<br />

0.5 1.0 2.0 3.0<br />

β<br />

N=15<br />

σ²=1<br />

+0.5dB<br />

-0.5dB<br />

Figure 10: Range of the shape parameter for a deviation of +/-0.5dB<br />

3.1.2 Entropy-constrained uniform quantizers<br />

This section addresses the relative performance of matched and mismatched entropyconstrained<br />

quantizers with respect to the shape parameter.<br />

- 111 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

In figure 11-a, the quantizer is matched for a Laplacian pdf (β=1). When the targeted<br />

entropy is above the optimum point of the matched quantizer, it is favorable to have an<br />

input pdf with β X >β Q because the real entropy is comparable to expectations, and the<br />

distortion is much lower. Here, β X β Q does<br />

not make much difference. Having β X


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

1<br />

0.9<br />

β=1<br />

N=3<br />

60<br />

55<br />

N=63<br />

0.8<br />

0.7<br />

50<br />

45<br />

N=31<br />

D<br />

0.6<br />

0.5<br />

40<br />

35<br />

N=15<br />

0.4<br />

30<br />

0.3<br />

N=7<br />

25<br />

N=7<br />

0.2<br />

0.1<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

N=15<br />

N=31<br />

N=63<br />

20<br />

15<br />

10<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

N=3<br />

Figure 12: Distortion of minimum-MSE quantizers as a function of the variance σ ².<br />

The value of the input pdf variance does not influence the SNR performance of<br />

minimum-MSE uniform quantizers. This can obviously be also deducted from section<br />

2.3 and figure 4-e & f.<br />

This results is known [JAIN-89], but the equation (4) does not shoew an obvious linear<br />

relationship between the distostion and the variance.<br />

Figure 13 illustrates the relative performance of uniform quantizers when the quantization<br />

step departs from the optimum. It shows the distortion as a function of σ ², each curve<br />

being computed with only one value of q. Figure 13-b shows that whenσ ² X ≠σ ² Q , , the<br />

SNR is lower than at the optimal point σ ² X =σ ² Q . The penalty for under-estimating the<br />

variance is slightly higher than the penalty for over-estimating the variance because the<br />

overload distortion rises very rapidely when the variance is greater than expected (see<br />

figure 3 and 4).<br />

0.6<br />

0.5<br />

0.4<br />

q opt/D , σ 2 =.5<br />

16<br />

15<br />

14<br />

13<br />

q opt/D , σ 2 =3<br />

q opt/D , σ 2 =2<br />

D<br />

0.3<br />

0.2<br />

0.1<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

s2<br />

q opt/D , σ 2 =1<br />

q opt/D , σ 2 =2<br />

q opt/D , σ 2 =3<br />

SNR<br />

12<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

s2<br />

q opt/D , σ 2 =1<br />

q opt/D , σ 2 =.5<br />

Figure 13: Distortion as a function of the variance σ² for different values of q opt/D .<br />

As an example using data from figure 13-b, if σ ² Q =2, and σ ² X =0.5, then the expected<br />

SNR is 15.5 dB, but the observed SNR is only 11.3 dB. If σ ² Q =0.5, and σ ² X =2, then the<br />

expected SNR is also 15.5 dB (because the minimum-MSE quantizer performance is<br />

independent of the variance), but the observed SNR is only 10.3 dB.<br />

- 113 -


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

All matched minimum-MSE quantizers perform the same regarding the variance.<br />

Mismatch of the quantizer relatively to the input variance is always penalizing<br />

especially if the input variance is smaller than the variance of the quantizer.<br />

3.2.2 Entropy-constrained uniform quantizer<br />

This section addresses the relative performance of matched and mismatched entropyconstrained<br />

quantizers with respect to the variance.<br />

Figure 14 shows the rate-distortion of the entropy-constrained quantizer with a variance<br />

mismatch, when the quantizer design is matched σ²=1.<br />

Variance mismatch has no effect on the performance of entropy-constrained<br />

quantizers. The only difference lies on the existence of points on the R(D) curve. When<br />

σ ² X


Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />

for determining minimum-MSE and entropy-constrained quantizers. With our quantizer<br />

design method, it is possible to study in detail the properties of minimum-MSE and<br />

entropy-constrained quantizers. Particularly, quantizer mismatch, when the input pdf<br />

differs from the pdf used for the quantizer design has not been extensively studied dispite<br />

its practical interest for memoryless source coding or non-adaptive quantization. [MAUE-<br />

79] reported results for mismatched Max-Lloyd quantizers. He found that the quantizer<br />

shape parameter should be chosen as a lower bound to the input shapes (β Q ≤ β X ) and<br />

that variance mismatch is not very critical. [JAYA-84] gives results of mismatch for nonuniform<br />

and uniform minimum-MSE quantizers, only with 4 levels. He suggests that in<br />

these conditions, the performance of uniform and non-uniform quantizers are very similar,<br />

and that the difference would be more significant at higher bit rates.<br />

Our results are in agreement with the previous findings, and extend them to more pdfs,<br />

more bite-rates, and to entropy-constrained quantizers. They lead to practical conclusions<br />

for the design of uniform midtread quantizers:<br />

• Influence of the shape parameter<br />

Let us assume that the input pdf shape parameters β X lies in an interval [β Xmin , β Xmax ]. If<br />

the quantizer is designed with β Q =β Xmin , i.e. the input shape parameter is always larger<br />

than the quantizer shape parameter, then the quantizer output distortion is lower than<br />

expected. The approach yields better performance than expected, but is conservative<br />

(better performance could be achieved for the highest values of β X ). In this situation, the<br />

quantizer mismatch corresponds to quantization steps always higher than the minimum-<br />

MSE optimum, and granularity error is important. The R(D) performance of an entropyconstrained<br />

quantizer with β Q =β Xmin is globally robust to shape mismatch, or gives better<br />

performance than expected. Conversly, if β Q =β Xmax the distortion will be higher than<br />

expected for small shape parameters. Here, the poor optimization results in a too small<br />

quantization step compared with the minimum-MSE, and the overload distortion is<br />

important. The R(D) performance of an entropy-constrained quantizer with β Q =β Xmin is not<br />

very robust to shape mismatch, yielding higher distortions than expected especially at<br />

higher rates. Under-estimating the shape parameter of the quantizer is penalizing,<br />

over-estimated it is slightly advantageous. The robustness of entropy-constrained<br />

quantizers increases with decreasing bit-rates.<br />

• Influence of the variance<br />

Let us assume that the input pdf variance σ 2 X lies in an interval [σ 2 Xmin , σ 2 Xmax ]. If the<br />

quantizer is designed with σ 2 Q = σ 2 Xmin , i.e. the input variance is always larger than the<br />

quantizer variance, then the quantizer output distortion is higher than expected. The<br />

approach yields worse results than expected, and worse than if σ 2 Q = σ 2 Xmax. In this<br />

situation, the quantizer mismatch corresponds to a quantization step always smaller than<br />

the minimum-MSE optimum, and overload error is important. The R(D) performance of an<br />

entropy-constrained quantizer with σ 2 Q = σ 2 Xmin or σ 2 Q = σ 2 Xmax is robust to variance<br />

mismatch. If σ 2 Q = σ 2 Xmax the distortion will be higher than expected. Here, the poor<br />

optimization results in a too large qiantization step compared with the minimum-MSE, and<br />

granularity distortion is happening. Mismatch of the quantizer relatively to the input<br />

variance is always penalizing. The entropy-constrained quantizers are robust to<br />

variance mismatch.<br />

- 115 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

CHAPITRE I-6<br />

APPLICATION DE L’ETUDE DE LA<br />

ROBUSTESSE DU QUANTIFICATEUR<br />

UNIFORME A LA COMPRESSION<br />

D’IMAGES PAR FF-DCT<br />

- 116 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

1. Introduction<br />

La quantification adaptative de chaque image est une opération coûteuse en temps de<br />

calcul. Il est intéressant de trouver une allocation de bits et des pas de quantification qui<br />

puissent être utilisés avec toute une classe d’images. Ceci nécessite une quantification<br />

robuste à la non-adaptation 1 des images par rapport au modèle statistique qui a été utilisé<br />

pour déterminer les paramètres de quantification. Nous avons expérimenté les résultats et<br />

recommendations déduits de notre étude de la robustesse du quantificateur scalaire<br />

uniforme avec des images d’angiographie dans notre approche de <strong>compression</strong> FF-DCT.<br />

Les point suivants ont été validés expérimentalement:<br />

• Apport du quantificateur uniforme optimisé par rapport au quantificateur uniforme non<br />

optimisé.<br />

• Robustesse de l’optimisation en utilisant les paramètres d’une image voisine de<br />

l’image quantifiée.<br />

• Robustesse du quantificateur modélisé à partir d’un ensemble d’images et effet de la<br />

non-adaptation.<br />

2. Ensemble d’images test<br />

Quatre images représentatives d’artères coronaires gauches ont été utilisées. Elles ont<br />

été choisies parmi les <strong>angiographies</strong> des campagnes d’évaluation. Les quatre images ont<br />

été renforcées avant la <strong>compression</strong>.<br />

Pour des raisons pratiques et de simplicité de mise en oeuvre, nous avons extrait une<br />

sous-image de 256x256 pixels à partir de chacune des images test. Tous les traitements<br />

ont été réalisés avec le logiciel Matlab de MathWorks.<br />

Parmi ces quatre images, deux sont des images successives dans une même séquence,<br />

(images dénommées TO et TT). Les deux autres appartiennent à des patients différents<br />

(images RU et SA). Toutes les quatre sont des artères coronaires gauche avec une lésion<br />

significative.<br />

1 Le terme non-adaptation est notre traduction de l’anglais “mismatch”<br />

- 117 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

image originale TO<br />

image originale TT<br />

image originale RU<br />

image originale SA<br />

Figure I-6.1: Images test (images 256x256 sur 8 bits, extraites d’images 512x512)<br />

3. Méthode de <strong>compression</strong><br />

3.1. FFDCT<br />

La DCT Full-Frame a été effectuée selon la formule (I-1.8), avec la normalisation donnée<br />

au chapitre I-3, section 2-2. Dans la définition de la DCT (I-1.8) (définition de JPEG), le<br />

coefficient de normalisation c(k,l) est tel que le maximum et le minimum possible du<br />

coefficient continu, ainsi que ceux des coefficients de la première ligne et de la deuxième<br />

colonne sont différents des maximum et minimum possibles pour les autres coefficients<br />

AC. La normalisation que nous avons introduite correspond à une modification de la<br />

définition de la DCT et donne des coefficients DCT qui ont tous le même maximum et<br />

minimum possibles. Cette définition est plus pratique pour les calculs d’optimisation basés<br />

sur l’énergie des différentes régions fréquentielles de la DCT, en permettant plus<br />

facilement des comparaisons. Elle donne un DC égal à la moyenne de l’image.<br />

3.2. Découpage circulaire<br />

Nous avons divisé chaque DCT 256x256 en 13 régions circulaires (voir chapitre I-3 et I-4,<br />

et figure I-3.3). La position des cercles et le nombre de coefficients des régions sont<br />

donnés dans la Table I-6. 1. Ces régions circulaires seront aussi dénommées “bandes<br />

circulaires” par la suite, par analogie avec la notion de sous-bandes de fréquences.<br />

- 118 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

n o ° 1 2 3 4 5 6 7 8 9 10 11 12 13<br />

region<br />

début 1 2 3 5 9 17 33 65 97 129 161 193 225<br />

fin 1 2 4 8 16 32 64 96 128 160 192 224 256<br />

nb<br />

coefs<br />

1 2 8 34 148 589 2395 400<br />

5<br />

7600 7223 8825 1044<br />

6<br />

26260<br />

Table I-6. 1: Position des rayons et nombre de coefficients des bandes circulaires<br />

(voir figure I-3.3).<br />

Nous n’avons pas redécoupé chaque région en zones de directionalité horizontale et<br />

verticale. Cela pourrait être fait sans difficulté.<br />

Chacune des bandes circulaires a été traitée comme un signal à quantifier, en utilisant les<br />

résultats de l’étude théorique du chapitre I-6 sur le quantificateur uniforme optimisé pour<br />

une distribution Gaussienne généralisée. Par rapport à nos précédentes expériences de<br />

<strong>compression</strong> FF-DCT (chapitre I-3 et I-4), nous abordons ici une méthode qui prend mieux<br />

en compte la distribution réelle des régions de la DCT.<br />

3.3. Evaluation des paramètres de la distribution des régions<br />

Pour chaque région circulaire, une estimation des paramètres de la distribution observée<br />

a été calculée. Nous avons utilisé une Gaussienne généralisée, selon la définition (I-6.3).<br />

Les paramètres définissant une Gaussienne généralisée sont le paramètre de forme β et<br />

la variance σ 2 . Ces paramètres sont utilisés dans la phase d’allocation des bits,<br />

permettant le calcul du pas de quantification optimal et de l’erreur théorique minimale de<br />

quantification.<br />

• Estimation de la variance.<br />

La variance a été estimée à partir des coefficients (dénotés x i ) de chaque bande<br />

circulaire, selon l’estimateur sans biais<br />

σ 2 1<br />

−<br />

2<br />

= ∑( xi<br />

− x)<br />

N −1<br />

i<br />

• Estimation des paramètres β , α et K de la Gaussienne généralisée.<br />

Ces paramètres peuvent être déduits des moments d’ordre 1 et d’ordre 2 des coefficients<br />

de chaque région, selon l’approche présentée dans [MALL-89].<br />

Les moments d’ordre 1 et d’ordre 2 d’une densité de probabilité p(x) sont définis<br />

respectivement par:<br />

+∞<br />

2<br />

m 1 = ∫ | xpxdx | ( ) et m 2 = ∫ x p( x)<br />

dx<br />

−∞<br />

+∞<br />

−∞<br />

(I-6.1)<br />

En insérant dans (I-9.1) la définition de p(x) donnée par la formule (I-6.3), on trouve:<br />

m 1 = 2K α 2<br />

β<br />

Γ( 2<br />

β<br />

) et m 2 = 2K α 3<br />

3<br />

β Γ( β ) (I-6.2)<br />

On en déduit:<br />

β = F -1 ( m 2<br />

1<br />

) avec F(u) =<br />

mN<br />

2<br />

2 2<br />

Γ( )<br />

u<br />

3 1<br />

Γ( ) Γ( )<br />

u u<br />

(I-6.3)<br />

- 119 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

et α =<br />

1<br />

m2Γ( )<br />

β<br />

3<br />

NΓ( )<br />

β<br />

K peut être calculé à partir de β et α (formule (I-6.3)).<br />

La Figure I-6. 2 montre quelques-uns des histogrammes estimés par cette méthode en<br />

comparaison avec les histogrammes observés.<br />

0.05<br />

0.05<br />

0.04<br />

0.03<br />

0.02<br />

0.01<br />

0<br />

-0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4<br />

0.045<br />

0.04<br />

0.035<br />

0.03<br />

0.025<br />

0.02<br />

0.015<br />

0.01<br />

0.005<br />

0<br />

-0.15 -0.1 -0.05 0 0.05 0.1 0.15<br />

région 5 région 7<br />

0.05<br />

0.045<br />

0.04<br />

0.035<br />

0.03<br />

0.025<br />

0.02<br />

0.015<br />

0.01<br />

0.005<br />

0<br />

-0.04 -0.03 -0.02 -0.01 0 0.01 0.02 0.03<br />

0.04<br />

0.035<br />

0.03<br />

0.025<br />

0.02<br />

0.015<br />

0.01<br />

0.005<br />

0<br />

-0.015 -0.01 -0.005 0 0.005 0.01 0.015 0.02<br />

région 9 région 11<br />

Figure I-6. 2: Histogrammes réels (ligne continue) et estimés (ligne brisée) des<br />

bandes circulaires n o 5, 7, 9, et 11 de l’image TO.<br />

- 120 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

• Distribution des régions des images test<br />

Les paramètres des distributions des régions circulaires des quatre images test sont<br />

donnés dans les Tables I-6.2, (a) à (d).<br />

TO nbcoef moyenne var beta<br />

1 1 1.27E+02 0.00E+00 0.00E+00<br />

2 2 -1.32E+00 1.56E+01 1.00E+00<br />

3 8 3.81E-01 3.28E+00 9.15E-01<br />

4 34 5.99E-02 9.43E-02 1.18E+00<br />

5 148 1.23E-02 2.03E-02 2.27E+00<br />

6 589 -2.11E-03 5.24E-03 1.40E+00<br />

7 2395 -2.90E-04 9.19E-04 1.47E+00<br />

8 4005 2.89E-04 2.32E-04 1.68E+00<br />

9 5600 -5.11E-05 7.83E-05 1.71E+00<br />

10 7223 -1.42E-05 3.43E-05 1.71E+00<br />

11 8825 1.83E-05 1.87E-05 1.93E+00<br />

12 10446 2.77E-05 1.35E-05 1.95E+00<br />

13 26260 3.75E-05 1.30E-05 1.95E+00<br />

(a)<br />

TT nbcoef moyenne var beta<br />

1 1 1.28E+02 0.00E+00 0.00E+00<br />

2 2 -1.33E+00 1.62E+01 1.00E+00<br />

3 8 3.53E-01 3.34E+00 9.36E-01<br />

4 34 6.10E-02 9.23E-02 1.09E+00<br />

5 148 1.64E-02 2.02E-02 2.19E+00<br />

6 589 -2.37E-03 5.62E-03 1.44E+00<br />

7 2395 -1.52E-04 9.56E-04 1.43E+00<br />

8 4005 -1.89E-05 2.38E-04 1.61E+00<br />

9 5600 1.55E-04 7.61E-05 1.64E+00<br />

10 7223 -6.29E-05 3.26E-05 1.79E+00<br />

11 8825 1.98E-05 1.85E-05 1.94E+00<br />

12 10446 2.44E-05 1.35E-05 1.93E+00<br />

13 26260 -2.06E-05 1.28E-05 1.93E+00<br />

(b)<br />

RU nbcoef moyenne var beta<br />

1 1 9.39E+01 0.00E+00 0.00E+00<br />

2 2 2.51E-01 3.00E-01 1.00E+00<br />

3 8 4.72E-01 1.48E+00 1.25E+00<br />

4 34 -2.66E-02 1.27E-01 1.38E+00<br />

5 148 6.21E-03 1.92E-02 1.10E+00<br />

6 589 -1.45E-04 2.06E-03 1.06E+00<br />

7 2395 -7.03E-05 1.26E-04 1.08E+00<br />

8 4005 4.76E-05 1.75E-05 1.71E+00<br />

9 5600 -3.79E-05 6.73E-06 1.94E+00<br />

10 7223 1.30E-06 3.46E-06 1.83E+00<br />

11 8825 -2.50E-05 1.89E-06 1.98E+00<br />

12 10446 2.02E-07 1.23E-06 1.89E+00<br />

13 26260 -1.53E-06 9.06E-07 1.78E+00<br />

(c)<br />

SA nbcoef moyenne var beta<br />

1 1 8.03E+01 0.00E+00 0.00E+00<br />

2 2 -3.22E+00 3.11E+01 1.00E+00<br />

3 8 3.47E-01 1.28E+00 6.72E-01<br />

4 34 1.11E-01 1.72E-01 1.69E+00<br />

5 148 1.79E-02 4.51E-02 1.24E+00<br />

6 589 -1.44E-03 3.54E-03 1.45E+00<br />

7 2395 1.74E-04 8.08E-04 1.65E+00<br />

8 4005 -2.42E-05 3.12E-04 1.92E+00<br />

9 5600 6.97E-05 1.85E-04 1.96E+00<br />

10 7223 1.27E-04 1.18E-04 1.73E+00<br />

11 8825 -1.76E-04 6.68E-05 1.81E+00<br />

12 10446 5.28E-05 3.85E-05 1.94E+00<br />

13 26260 3.70E-07 3.23E-05 1.88E+00<br />

Tables I-6.2: Tables de paramètres des bandes circulaires circulaires des quatre<br />

images test. (a): TO, (b): TT, (c): RU, (d):SA.<br />

(d)<br />

Le coefficient de la région 1 est la composante continue, c’est à dire la moyenne de<br />

l’image (voir notre normalisation de la DCT).<br />

On constate que les moyennes de deux images de la même séquence (TO et TT) sont<br />

supérieures à celles des deux autres images (RU et SA). En effet, on voit sur la Figure I-<br />

6.1 que TO et TT sont globalement plus claires que RU et SA.<br />

Dans ce groupe d’images test, les paramètres de forme β sont voisins de 1 pour les<br />

basses et moyennes fréquences (distribution de type Laplacienne), et sont voisins de 2<br />

pour les hautes fréquences (distribution de type Gaussienne). Nous avons observé sur<br />

d’autres images des β allant de 0.5 à 2.5 et plus.<br />

- 121 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

3.4. Allocation marginale et quantificateur ‘midtread’ uniforme<br />

La quantification a été réalisée comme suit.<br />

• Le coefficient continu n’a pas été quantifié. Il est transmis en virgule flottante sur 32<br />

bits.<br />

• Les régions 2 et 3, dont le nombre de coefficients est trop faible pour évaluer des<br />

statistiques, ont été quantifiées sur 10 bits. La quantification de ces régions s’est faite<br />

sans optimisation, en prenant pour pas de quantification q=2 10 /(max-min), où max et<br />

min représentent les coefficients maximum et minimum de la région.<br />

• Les régions 4 à 13 ont été quantifiées avec un quantificateur uniforme optimal de type<br />

minimum-MSE (voir chapitre I-6). Nous avons procédé à une allocation marginale<br />

selon le principe décrit au chapitre I-4, mais en utilisant la formulation de l’erreur de<br />

quantification avec distribution gaussienne généralisée du chapitre I-6.<br />

3.5. Calcul du t<strong>aux</strong> de <strong>compression</strong><br />

L’étape finale de codage entropique n’a pas été réalisée. Nous avons calculé l’entropie<br />

d’ordre zéro de l’ensemble des coefficients quantifiés et l’avons utilisée dans le calcul du<br />

t<strong>aux</strong> de <strong>compression</strong>.<br />

4. Résultats<br />

4.1. Apport du quantificateur optimisé par rapport au quantificateur non<br />

optimisé<br />

La première image (TO) a fait l’objet d’une allocation de bits en utilisant l’approche<br />

minimum-MSE. Les bits alloués (b) et les valeurs du pas de quantification optimum (q)<br />

pour les différentes régions circulaires sont données dans la Table I-6.3. Ces paramètres<br />

ont été employés dans la quantification.<br />

La même image a été quantifiée avec le même nombre de nive<strong>aux</strong> de quantification que<br />

précédemment, mais en utilisant des valeurs de q non optimales pour les régions 4 à 13.<br />

Ces valeurs correspondent à un quantificateur uniforme sur toute la dynamique du signal:<br />

q=2 b /(max-min).<br />

La Figure I-6.3 donne un comparatif des courbes PPSNR en fonction du t<strong>aux</strong> de<br />

<strong>compression</strong>. La qualité visuelle est illustrée par la Figure I-6.4. Sur un écran, on voit qu’à<br />

partir d’un t<strong>aux</strong> de 12:1, les images comprimées sont moins nettes que l’original. Les<br />

images comprimées avec q non-optimum sont nettement plus floues que les images<br />

comprimées avec q optimum. Au delà d’un t<strong>aux</strong> de 20:1, les images comprimées avec q<br />

non optimum ont une texture modifiée, de type alvéolaire.<br />

TO adaptatif CR 7.4 CR 11.6 CR 15.6 CR 19.6<br />

# region nbcoef nb bits q nb bits q nb bits q nb bits q<br />

- 122 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

1 1 32 - 32 - 32 - 32 -<br />

2 2 10 - 10 - 10 - 10 -<br />

3 8 10 - 10 - 10 - 10 -<br />

4 34 10 0.00439 8 0.01446 8 0.01446 8 0.01446<br />

5 148 7 0.00756 6 0.01404 6 0.01404 6 0.01404<br />

6 589 6 0.00951 6 0.00951 5 0.01689 5 0.01689<br />

7 2395 5 0.00687 4 0.01218 4 0.01218 3 0.02160<br />

8 4005 3 0.01040 3 0.01040 3 0.01040 2 0.01908<br />

9 5600 3 0.00602 1 0.01291 1 0.01291 1 0.01291<br />

10 7223 1 0.00858 1 0.00858 0 - 0 -<br />

11 8825 1 0.00809 0 - 0 - 0 -<br />

12 10446 0 - 0 - 0 - 0 -<br />

13 26260 0 - 0 - 0 - 0 -<br />

Table I-6.3: Résultats de l’allocation de bits et de l’optimisation du quantificateur<br />

pour TO selon une quantification adaptative<br />

33<br />

q OPTIMISE VS q NON OPTIMISE<br />

32<br />

PPSNR en dB<br />

31<br />

30<br />

29<br />

28<br />

27<br />

5 10 15 20 25 30 35<br />

t<strong>aux</strong> de <strong>compression</strong><br />

Figure I-6.3: Courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong>. +: TO avec q<br />

optimum, X: TO avec q non optimum.<br />

Avec un q non optimal utilisant toute la dynamique de chaque région, on obtient des t<strong>aux</strong><br />

de <strong>compression</strong> de 9.6, 15.1, 15.7, 31.4. Ils sont supérieurs à ceux demandés. La<br />

performance en terme de PPSNR est de 1 à 2 dB inférieure, comme le montre la Figure I-<br />

6.3.<br />

- 123 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

(a)<br />

(b)<br />

(c)<br />

Figure I-6.4: (a) Image TO comprimée avec q optimal, t<strong>aux</strong>=15.6, PPSNR=30.8.(c)<br />

Image d’erreur correspondante multipliée par 20. (b) Image TO comprimée avec q<br />

non optimal, t<strong>aux</strong>=15.7, PPSNR=28.8.(d) Image d’erreur correspondante multipliée<br />

par 20.<br />

(d)<br />

On remarque dans la Figure I-6.4 que les images comprimées présentent un artefact<br />

circulaire dans le coin supérieur gauche. Celui-ci provient d’une trop brusque transition<br />

entre valeurs quantifiée/reconstruites des coefficients de deux régions circulaires<br />

adjacentes dans les basses fréquences, et d’un nombre de bits insuffisants dans les très<br />

basses fréquences (10 bits). Ceci est dû au fait que, contrairement <strong>aux</strong> trav<strong>aux</strong> des<br />

chapitres I-3 et I-4, nous n’avons pas incorporé les bandes circulaires de basses<br />

fréquences dans l’allocation. Compte tenu de leur faible nombre de coefficients, une<br />

allocation avec un modèle uniforme au lieu d’une Gaussienne généralisée s’était avéré<br />

efficace, et éviterait la transition brusque entre des zones à 10 bits (choisis arbitrairement<br />

ici) et des zones allouées de façon optimales .<br />

4.2. Vérification de la stabilité des caractéristiques statistiques des images<br />

d’une même séquence associée à la robustesse du quantificateur.<br />

Nous avons utilisé les paramètres statistiques de l’image TT pour effectuer l’allocation des<br />

bits. Les résultats (nombre de bits et valeurs de q) ont été utilisés pour quantifier l’image<br />

TO. Ainsi, nous pouvons vérifier si les caractéristiques des images d’une même séquence<br />

- 124 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

sont stables, et si l’allocation d’une image de la séquence est satisfaisante sur les autres<br />

images de la séquence. Les résultats de l’allocation sur TT sont donnés à la Table I-6.4.<br />

La Figure I-6.5 montre la courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong> pour l’image<br />

TO quantifiée de façon non adaptative, en utilisant les paramètres de l’image TT. Les<br />

performances de la quantification adaptative et non-adaptative sont identiques.<br />

Les t<strong>aux</strong> de <strong>compression</strong> sont comparables, et les images décomprimées sont de qualité<br />

visuelle identique.<br />

TO selon TT CR 7.5 CR 11.7 CR 15.3 CR 19.8<br />

# region nbcoef nb bits q nb bits q nb bits q nb bits q<br />

1 1 32 - 32 - 32 - 32 -<br />

2 2 10 - 10 - 10 - 10 -<br />

3 8 10 - 10 - 10 - 10 -<br />

4 34 9 0.00855 9 0.00855 7 0.01534 8 0.01534<br />

5 148 7 0.00772 6 0.01430 6 0.01430 6 0.01430<br />

6 589 6 0.00962 6 0.00962 6 0.00962 5 0.01714<br />

7 2395 5 0.00710 4 0.01255 4 0.01255 3 0.02220<br />

8 4005 3 0.01068 3 0.01068 3 0.01068 2 0.01947<br />

9 5600 3 0.00600 1 0.01175 1 0.01175 1 0.01175<br />

10 7223 1 0.00919 1 0.00919 0 - 0 -<br />

11 8825 1 0.00812 0 - 0 - 0 -<br />

12 10446 0 - 0 - 0 - 0 -<br />

13 26260 0 - 0 - 0 - 0 -<br />

Table I-6.4: Résultats de l’allocation de bits et de l’optimisation du quantificateur<br />

pour l’image TT, utilisés pour quantifier TO.<br />

- 125 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

ADAPTATIF VS NON ADAPTATIF SELON IMAGE PROCHE<br />

33<br />

32<br />

PPSNR en dB<br />

31<br />

30<br />

R<br />

29<br />

28<br />

27<br />

5 10 15 20 25 30 35<br />

t<strong>aux</strong> de <strong>compression</strong><br />

Figure I-6.5: Courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong>. +: TO avec<br />

quantification adaptative, x: TO avec quantification non-adaptative selon les<br />

paramètres de TT.<br />

4.3. Quantificateur modélisé à partir d’un ensemble d’images: effet de la<br />

non-adaptation<br />

La quantification adaptative d’une image permet d’obtenir la meilleure performance<br />

possible, mais elle est coûteuse en temps de calcul. Dans la pratique, il peut être<br />

souhaitable d’adopter une table fixe de paramètres de quantification et de l’appliquer à<br />

toutes les images. Les résultats théoriques sur l’effet de la non-adaptation du<br />

quantificateur fournissent des indications précieuses sur la façon de choisir les<br />

paramètres de forme et la variance du quantificateur afin de limiter au mieux l’effet de la<br />

non-adaptation. Ces indications sont valides dans le cadre d’un signal unique. Dans la<br />

<strong>compression</strong> FF-DCT, il faut quantifier simultanément un ensemble des sign<strong>aux</strong> (les<br />

bandes circulaires). Nous avons voulu vérifier si les résultats théoriques étaient utilisables<br />

dans ce cadre.<br />

A partir des paramètres de distributions (paramètre de forme β et variance σ 2 ) des quatre<br />

images, nous avons constitué selon deux approches différentes une table de paramètres,<br />

en vue de l’allocation marginale.<br />

• La première approche consiste à prendre pour chaque région le plus petit β rencontré<br />

parmi les quatre images, et le plus grand σ 2 . Ainsi, on aura tendance à toujours surestimer<br />

β et sous-estimer σ 2 . Nous avons vu dans le chapitre I-6 qu’en cas de nonadaptation,<br />

cette situation est la moins défavorable. Il est intéressant d’observer si cela<br />

se vérifie en pratique alors que l’image est quantifiée à partir de nombreuses régions<br />

fréquentielles, donc de plusieurs sign<strong>aux</strong> quantifiés différemment.<br />

• La deuxième approche consiste à prendre les β maximum et les σ 2 minimum. Ainsi,<br />

on aura tendance à toujours sous-estimer β et sur-estimer σ 2 . Nous avons vu dans le<br />

chapitre I-6 qu’en cas de non-adaptation, cette situation est la plus défavorable.<br />

- 126 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

TO avec β min. CR 8.8 CR 12.7 CR 15.3 CR 22.5<br />

et σ 2 max.<br />

# region nbcoef nb q nb q nb q nb q<br />

bits<br />

bits<br />

bits<br />

bits<br />

1 1 32 - 32 - 32 - 32 -<br />

2 2 10 - 10 - 10 - 10 -<br />

3 8 10 - 10 - 10 - 10 -<br />

4 34 9 0.01168 8 0.02096 8 0.02096 8 0.02096<br />

5 148 8 0.01060 7 0.01883 7 0.01883 7 0.01883<br />

6 589 6 0.01202 5 0.02073 5 0.02073 5 0.02073<br />

7 2395 4 0.01442 4 0.01442 3 0.02459 3 0.02459<br />

8 4005 3 0.01224 3 0.01224 2 0.02230 1 0.02284<br />

9 5600 3 0.00936 1 0.01834 1 0.01834 1 0.01834<br />

10 7223 1 0.01593 1 0.01593 1 0.01593 - -<br />

11 8825 1 0.01332 - - - - - -<br />

12 10446 - - - - - - - -<br />

13 26260 - - - - - - - -<br />

(a)<br />

TO avec β min. CR 6.2 CR 8.9 CR 12.3 CR 16.1<br />

et σ 2 max.<br />

# region nbcoef nb q nb q nb q nb q<br />

bits<br />

bits<br />

bits<br />

bits<br />

1 1 32 - 32 - 32 - 32 -<br />

2 2 10 - 10 - 10 - 10 -<br />

3 8 10 - 10 - 10 - 10 -<br />

4 34 8 0.01056 8 0.01056 8 0.01056 8 0.01056<br />

5 148 8 0.00394 8 0.00394 8 0.00394 8 0.00394<br />

6 589 7 0.00324 7 0.00324 6 0.00582 6 0.00582<br />

7 2395 5 0.00238 5 0.00238 4 0.00428 4 0.00428<br />

8 4005 3 0.00275 3 0.00275 3 0.00275 1 0.00771<br />

9 5600 3 0.00170 1 0.00498 1 0.00498 1 0.00498<br />

10 7223 1 0.00312 1 0.00312 - - - -<br />

11 8825 1 0.00269 - - - - - -<br />

12 10446 - - - - - - - -<br />

13 26260 - - - - - - - -<br />

(b)<br />

Table I-6.5: Résultats de l’allocation de bits et de l’optimisation du quantificateur<br />

pour l’image TO, avec paramètres de distribution dérivés de quatre images. (a): β<br />

minimum et σ 2 maximum. (b): β maximum et σ 2 minimum.<br />

Les résultats de l’allocation sur TO selon les deux approches précédemment décrites sont<br />

donnés dans la Table I-6.5 .<br />

La Figure I-6.6 montre la courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong> pour l’image<br />

TO avec quantificateur adaptatif, et en utilisant les paramètres des quatre images selon<br />

les deux façons.<br />

La performance du PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong> est la meilleure pour<br />

l’image quantifiée de façon adaptative, puis pour l’image quantifiée en prenant les valeurs<br />

minimum des β rencontrées sur plusieurs images (perte de 1 dB), puis pour l’image<br />

quantifiée en prenant les β maximum (perte supérieure à 2 dB). On constate que les t<strong>aux</strong><br />

obtenus avec la deuxième approche sont plus faibles que ceux escomptés.<br />

- 127 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

En terme de PPSNR, la différence entre les deux approches non-adaptative est de l’ordre<br />

de 1 dB. En revanche, la qualité visuelle d’une approche qui ne tire pas partie<br />

avantageusement de la théorie est très fortement dégradée. L’approche la plus<br />

“judicieuse” aboutit à un léger flou à partir d’un t<strong>aux</strong> de 12:1 et la qualité est peu différente<br />

de celle obtenue avec l’approche adaptative. L’approche la moins “judicieuse” aboutit à<br />

une image très floue avec perte caractérisée des fins vaisse<strong>aux</strong> et des contours. La<br />

Figure I-6.7 illustre ce résultat.<br />

La mise en application de la non-adaptation dans le cadre d’une quantification de la FF-<br />

DCT, selon notre approche de bandes circulaires, vérifie bien la théorie développée à<br />

partir du quantificateur optimum optimisé sur un signal.<br />

ATIF VS NON ADAPTATIF SELON beta min (x) et max (*) de 4<br />

33<br />

32<br />

PPSNR en dB<br />

31<br />

30<br />

29<br />

28<br />

27<br />

5 10 15 20 25 30 35<br />

t<strong>aux</strong> de <strong>compression</strong><br />

Figure I-6.6: Courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong>. +: TO avec<br />

quantification adaptative, x: TO avec quantification non-adaptative (β min. et σ 2<br />

max), *: TO avec quantification non-adaptative (β max. et σ 2 min).<br />

- 128 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

(a)<br />

(b)<br />

(c)<br />

(d)<br />

Figure I-6.7: (a) TO avec quantification non-adaptative (β min. et σ 2 max), t<strong>aux</strong>=15.3,<br />

PPSNR=29.8; (c) Image d’erreur correspondante multipliée par 20. (b) TO avec<br />

quantification non-adaptative (β max. et σ 2 min (c) t<strong>aux</strong>=16.1, PPSNR=28.6; (d) Image<br />

d’erreur correspondante multipliée par 20.<br />

- 129 -


Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />

5. Discussion<br />

La théorie de la robustesse du quantificateur uniforme minimum-MSE dans le cas d’une<br />

non-adaptation de la distribution du signal d’entrée a été appliquée dans le cadre d’une<br />

<strong>compression</strong> FF-DCT.<br />

Dans les conditions de nos expériences, nous avons pu valider les point suivants:<br />

• Apport du quantificateur uniforme optimisé par rapport au quantificateur uniforme non<br />

optimisé.<br />

L’optimisation du pas de quantification apporte un gain de 1 à 2 dB en terme de PPSNR,<br />

et une amélioration sensible de la qualité visuelle. De cette optimisation résulte un<br />

écrêtage des valeurs les plus extrêmes des bandes circulaires, et une quantification plus<br />

fine des valeurs autour de la moyenne. Théorie et pratique confirment l’intérêt de<br />

l’approche.<br />

• Robustesse de l’optimisation en utilisant les paramètres d’une image voisine de<br />

l’image quantifiée.<br />

La quantification non-adaptative d’une image en prenant pour paramètres de<br />

quantification ceux obtenus de façon adaptative sur une image de la même séquence<br />

donne d’excellents résultats. Pour des images voisines, la quantification non-adaptative<br />

est robuste.<br />

• Robustesse du quantificateur modélisé à partir d’un ensemble d’images et effet de la<br />

non-adapatation.<br />

Pour quantifier une classe d’images de façon non-adaptative, en prenant une table de<br />

paramètres de quantification fixe, la théorie de la robustesse du quantificateur uniforme<br />

fournit les lignes directrices afin de mettre au point le quantificateur. Par rapport à une<br />

image avec quantification adaptative, la quantification non-adaptative peut engendrer des<br />

pertes de plus de 2 dB. En optimisant le quantificateur avec les valeurs de β minumum et<br />

celles de σ 2 maximum, on limite cette perte à 1 dB ou moins. Ce faible écart en terme de<br />

PPSNR est accompagné d’une différence de qualité d’image majeure. Un mauvais choix<br />

des paramètres du quantificateur aboutit clairement à une image fortement dégradé. Par<br />

conséquent, un choix judicieux de paramètres de quantification non-adaptative permet un<br />

gain de qualité substantiel et n’engendre aucun surcoût en terme de calcul.<br />

Ces résultats sont très prometteurs pour la mise au point de tout système de<br />

quantification optimum d’images transformées. Il serait intéressant de mettre en œuvre<br />

nos algorithmes sur une plus grande base d’images de dimension 512x512.<br />

- 130 -


CHAPITRE I-7<br />

CONCLUSION DE LA PARTIE<br />

COMPRESSION<br />

- 131 -


Chapitre I-7: Conclusion de la partie <strong>compression</strong><br />

Introduction<br />

La première partie de ce mémoire a été consacrée <strong>aux</strong> méthodes de <strong>compression</strong> pour<br />

les <strong>angiographies</strong> <strong>cardiaques</strong>.<br />

Nous avons étudié plusieurs éléments algorithmiques propres <strong>aux</strong> méthodes par<br />

transformation. Nous les avons illustrés à l’aide d’une approche Full-Frame DCT, en<br />

utilisant au mieux les caractéristiques des <strong>angiographies</strong> <strong>cardiaques</strong>. Les points d’intérêts<br />

majeurs de nos trav<strong>aux</strong> concernent l’adaptation de la quantification et la prise en compte<br />

du renforcement de contour.<br />

Adaptation de la quantification<br />

Nous avons cherché à développer une quantification des coefficients de la DCT adaptée à<br />

une classe d’images . A partir de résultats d’allocation de bits sur quelques images, on<br />

peut mettre au point un découpage en régions, une allocation des bits et un pas de<br />

quantification fixes pour toutes les images d’une même classe. Cette approche est moins<br />

coûteuse en calculs que l’adaptation de la quantification à chaque image. Dans ce dernier<br />

cas l’approche sera dite adaptative.<br />

Nous avons cherché à répondre à deux questions:<br />

• Quelle est la meilleure approche de l’adaptation ?<br />

• Quel est l’impact de paramètres de quantification mal adaptés à l’image réelle?<br />

Comment guider le choix des paramètres de quantification pour limiter cet impact?<br />

Quantification adaptée<br />

Prenant en compte la répartition énergétique de la DCT Full-Frame d’<strong>angiographies</strong><br />

<strong>cardiaques</strong>, nous avons découpé le plan DCT en zones fréquentielles circulaires. Nous<br />

avons ajouté une notion de ‘directionalité’ en découpant ces zones en bandes circulaires<br />

de ‘directionalité’ horizontales, obliques et verticales. Chacune de ces bandes circulaires a<br />

été quantifiée séparément.<br />

L’allocation des bits a été faite par une méthode d’allocation marginale, qui alloue<br />

progressivement les bits disponibles <strong>aux</strong> bandes circulaires pour lesquelles ces bits<br />

contribuent le plus à abaisser l’erreur de quantification. Le calcul de l’erreur de<br />

quantification a été effectué selon une approche optimale pour un quantifieur scalaire<br />

uniforme. Les paramètres estimés de la distribution statistiques des coefficients de<br />

chaque bande circulaire sont utilisés dans le calcul de cette erreur d’après modèle.<br />

L’utilisation d’une allocation marginale sur des bandes circulaires circulaires de la DCT<br />

Full-Frame permet d’obtenir des images comprimées ayant un PPSNR de 1 à 2 dB<br />

supérieur à ceux de JPEG, présentant une qualité visuelle meilleure (moins de perte des<br />

fins détails, pas d’artefacts de blocs).<br />

Le choix du modèle statistique de la distribution des bandes circulaires est primordial dans<br />

le calcul de l’erreur de quantification. La plupart des auteurs utilisent un modèle Gaussien<br />

ou Laplacien [REIN-83], [JAIN-89]. Nous avons constaté qu’une distribution Gaussienne<br />

généralisée était plus appropriée <strong>aux</strong> bandes circulaires. Les paramètres de forme<br />

observés varient de 0.5 à 2.5, selon les images et les bandes circulaires.<br />

- 132 -


Chapitre I-7: Conclusion de la partie <strong>compression</strong><br />

Nous avons développé une formulation analytique de l’erreur de quantification avec<br />

une Gaussienne généralisée et un quantificateur scalaire uniforme. Cette formulation est<br />

très riche en applications. Elle permet d’évaluer le pas de quantification optimal (celui qui<br />

minimise l’erreur pour un nombre de bits donnés), et d’étudier l‘impact de la nonadaptation<br />

du signal réel au quantificateur. Ce deuxième point sera évoqué dans le<br />

paragraphe sur la quantification non adaptative.<br />

Nous estimons que cette formulation, utilisée dans l’allocation marginale, permettrait<br />

d’améliorer encore les premiers résultats mentionnés plus haut (de 1 à 2dB supérieurs à<br />

JPEG), pour lesquels un modèle Laplacien avait été utilisé sur toutes les bandes<br />

circulaires.<br />

Nous avons pu mettre en évidence que l’utilisation d’un pas de quantification optimal (qui<br />

écrête le signal), par rapport à un pas non optimal (qui utilise toute la dynamique du<br />

signal) permet de gagner 1 à 2 dB sur une image 256x256 extraite d’une image 512x512.<br />

Quantification non adaptée<br />

Nous avons utilisé la formulation analytique de l’erreur de quantification dans une étude<br />

théorique. Cette étude porte sur l’impact de la non adaptation d’un quantifieur scalaire<br />

uniforme midtread modélisé par une Gaussienne généralisée avec un signal observé.<br />

Nous avons exploré l’impact d’une quantification non adaptée au paramètre de forme et<br />

à la variance du signal observé par rapport au modèle utilisé lors de l’optimisation du<br />

quantificateur. L’impact a été mesuré en terme de MSE et SNR. Deux types de<br />

quantificateurs ont été envisagés: le quantificateur d’erreur quadratique minimum, et le<br />

quantificateur de caractéristique débit-distorsion optimale.<br />

Nous avons mis en évidence le résultat suivant:<br />

• Une sous-estimation du paramètre de forme augmente le SNR par rapport à celui<br />

attendu , une surestimation du paramètre de forme est très pénalisante, elle réduit<br />

fortement le SNR.<br />

• Une sous-estimation de la variance est pénalisante, une surestimation de la variance<br />

est moins pénalisante.<br />

Ces résultats nous ont permis de choisir <strong>aux</strong> mieux les paramètres des quantificateurs<br />

pour une quantification non adaptative. Nous proposons de prendre un ensemble<br />

d’images test (ou d’apprentissage), et d’observer les paramètres de forme et les variances<br />

de leurs bandes circulaires dans la FFDCT. En retenant les paramètres de forme<br />

minimum, et les variances maximales , on compose une série de données à utiliser dans<br />

l’allocation marginale. Les résultats de cette allocation peuvent être utilisés avec toute<br />

image de la classe d’images étudiée.<br />

Nous avons vérifié expérimentalement cette approche avec quatre images<br />

d’<strong>angiographies</strong> 256x256 extraites d’images 512x512. Nous avons constaté que la<br />

quantification non adaptative selon notre approche induit une perte de 1dB (par rapport à<br />

l'approche adaptive), alors qu’une quantification non adapatative sans précaution induit<br />

une perte de 3 dB. La qualité visuelle avec une quantification non adaptative sans<br />

précautions est très médiocre, alors que celle obtenue avec une quantification non<br />

adaptative selon notre approche est très bonne.<br />

Prise en compte du renforcement de contour<br />

Dans les systèmes d’angiographie <strong>cardiaques</strong>, les images sont stockées sur disque de<br />

façon brutes, mais elles sont présentée à l’écran avec des post traitements. Le traitement<br />

- 133 -


Chapitre I-7: Conclusion de la partie <strong>compression</strong><br />

le plus important est un filtre de renforcement de contour. Celui-ci est un filtre de<br />

convolution de type Laplacien. Il augmente l’énergie des basses et moyennes<br />

fréquences de l’image. Il a une interaction défavorable avec la <strong>compression</strong> car il a<br />

tendance à rehausser non seulement les contours, mais aussi à rendre plus visible les<br />

éventuels artefacts de <strong>compression</strong>.<br />

Nous avons étudié les questions suivantes:<br />

• Est-il possible de réaliser ce filtre de convolution dans le domaine DCT? Est-il possible<br />

de réaliser le filtre inverse?<br />

• Vaut-il mieux comprimer l’image avant ou après le renforcement de contour?<br />

• Comment améliorer le scénario renforcement puis <strong>compression</strong>?<br />

• Comment améliorer le scénario <strong>compression</strong> puis renforcement?<br />

Réalisation du renforcement et de son filtre inverse dans le domaine DCT<br />

Nous avons utilisé [CHIT-90] [MART-93] [MART-94] une formulation analytique pour<br />

réaliser un filtre de convolution linéaire réel et pair par une multiplication dans le domaine<br />

DCT. Pour réaliser le filtre inverse (ce qui n’est pas évident à faire dans le domaine pixel)<br />

[EEUW-90], [BERE-92], il suffit d’effectuer une opération de division, de façon analogue.<br />

Choix de la <strong>compression</strong> avant ou après le renforcement<br />

Nous avons constaté, par simulation et expériences sur des images réelles, qu’il est<br />

préférable de comprimer une image déjà renforcée. Une image brute comprimé puis<br />

renforcée est moins bonne visuellement qu’une image brute renforcée puis comprimée.<br />

Scénario 1 : renforcement puis <strong>compression</strong><br />

Dans le scénario où l’image est renforcée puis comprimée, il faut avoir la possibilité de<br />

dé-renforcer l’image. Les images non-renforcées sont en effet nécessaires pour d’autres<br />

traitements, comme par exemple les mesures quantitatives.<br />

Nous avons utilisé le filtre inverse du renforcement mis en œuvre dans le domaine DCT.<br />

Nous avons introduit une connaissance a priori sur la régularité de l’image afin<br />

d’améliorer le résultat du dé-renforcement sur une image comprimée. Cette approche de<br />

restauration d’image est surtout utile quand la <strong>compression</strong> introduit de fortes distorsions.<br />

Elle permet d’améliorer la régularité de l’image en vue de logiciels de détection de contour<br />

notamment. La même approche a été utilisée par [DING-96] et [PROS-97] avec une<br />

<strong>compression</strong> JPEG, où les résultats sont plus spectaculaires compte tenu de la plus<br />

grande “irrégularité” introduite par JPEG.<br />

Scénario 2 : <strong>compression</strong> puis renforcement<br />

Dans le scénario où l’image est comprimée puis renforcée, on risque d’avoir une qualité<br />

visuelle moyenne. Nous proposons de quantifier l’image brute avec les paramètres de<br />

l’image déjà renforcée. Ainsi, l’image brute comprimée a des caractéristiques appropriées<br />

pour le renforcement. Ces fréquences basses et moyennes auront été correctement<br />

préservées. Cette approche est valable dans le cas adaptatif en multipliant la DCT par le<br />

masque de renforcement avant d’évaluer les données nécessaires à l’allocation de bits.<br />

Cette approche est aussi valable dans le cas de l’adaptation à une classe d’images (les<br />

<strong>angiographies</strong>), en cherchant une table d’allocation sur des images test renforcées.<br />

- 134 -


Chapitre I-7: Conclusion de la partie <strong>compression</strong><br />

Perspectives<br />

Notre approche de <strong>compression</strong> à base de Full-Frame DCT donne des résultats<br />

préliminaires prometteurs. Il serait intéressant de comprimer un plus grand nombre<br />

d’images à l’aide d’un logiciel complet allant jusqu’au codage entropique, et d’évaluer la<br />

qualité des images obtenues.<br />

Voici quelques améliorations à apporter:<br />

• Le découpage optimal du plan DCT<br />

Il est possible d’améliorer notre découpage empirique par un découpage en bandes<br />

circulaires dont les coefficients ont une énergie la plus voisine possible.<br />

• L’intégration des propriétés du système visuel humain.<br />

Le découpage en bandes circulaires circulaire avec une ‘directionalité’ se prête très bien à<br />

une pondération psycho-visuelle. L’approche développée par [SENA-95] a été envisagée.<br />

• Le contrôle du t<strong>aux</strong> de <strong>compression</strong><br />

Notre système d’allocation marginale ne permet qu’un contrôle approximatif du t<strong>aux</strong> de<br />

<strong>compression</strong>. Il est envisageable d’utiliser une deuxième passe d’allocation. Après avoir<br />

établi le nombre de bits, l’utilisation de l’optimisation débit-distorsion du chapitre I-5 peut<br />

servir à obtenir le t<strong>aux</strong> désiré. Une autre approche peut consister à réaliser le codage des<br />

premières bandes circulaires, et d’adapter l’allocation par boucle de retour.<br />

Conclusion<br />

Avec une connaissance précise des conditions d’utilisation des images, il existe de très<br />

nombreuses possibilités d’améliorer les performances des systèmes de <strong>compression</strong> par<br />

rapport <strong>aux</strong> systèmes standards d’usage général.<br />

Nos trav<strong>aux</strong> sur l’optimisation du quantificateur et l’impact de la non-adaptation du signal<br />

peuvent être appliqués à toute autre <strong>compression</strong> avec un quantificateur uniforme, par<br />

exemple en sous-bandes. Ils peuvent aussi être étendus <strong>aux</strong> quantificateurs vectoriels<br />

sur treillis.<br />

Nos trav<strong>aux</strong> d’adaptation au renforcement de contour, de restauration appliquée à la<br />

<strong>compression</strong> peuvent aussi s’appliquer à d’autres systèmes de <strong>compression</strong> avec DCT.<br />

- 135 -


PARTIE II<br />

Evaluation de la qualité<br />

d’<strong>angiographies</strong> <strong>cardiaques</strong><br />

comprimées<br />

- 136 -


CHAPITRE II-1<br />

ETUDE BIBLIOGRAPHIQUE DES<br />

METHODES D’EVALUATION D’IMAGES<br />

COMPRIMEES ET PROPOSITION D’UNE<br />

NOUVELLE APPROCHE ADAPTEE AUX<br />

EXAMENS ANGIOGRAPHIQUES<br />

- 137 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

1. Bibliographie sur l’évaluation d’images comprimées<br />

1.1. Introduction<br />

Depuis la fin des années quatre-vingt, de nombreuses études sur l'évaluation <strong>d'images</strong><br />

radiologiques comprimées ont été réalisées. Elles ont influencé de façon sensible<br />

l'acceptation par la communauté médicale de l'idée d'une modification irréversible des<br />

images médicales numériques. Au début du présent travail, cette idée n'était envisagée<br />

que dans les milieux de la recherche.<br />

Face au potentiel considérable du stockage et de la transmission numériques, on est<br />

passé en quelques années de l'idée inacceptable à l'application en routine dans plusieurs<br />

domaines. C’est en effet l’implémentation par certains constructeurs de <strong>compression</strong>s<br />

sans perte dans leurs produits qui a réellement démocratisé la <strong>compression</strong> dans le<br />

monde médical, avant que des comités scientifiques ou médic<strong>aux</strong> ne se prononcent sur<br />

ses limites d’application. Par exemple les échographies sont communément archivées<br />

avec une <strong>compression</strong> MPEG sur disques optiques ou cassettes numériques. Les CD<br />

cardiologiques contiennent chez deux constructeurs (Philips et Siemens) un format JPEG<br />

avec perte pour la visualisation dynamique directe.<br />

Il n'en reste pas moins une grande crainte de perdre de l'information diagnostique. C'est<br />

pourquoi la multiplication des études d'évaluation confirmant l'absence ou l’existence<br />

d’une perte d'information diagnostique devrait permettre de dissiper ce genre<br />

d'appréhension et de cibler les tâches, les algorithmes et les t<strong>aux</strong> limites pour des<br />

applications où la <strong>compression</strong> est appropriée.<br />

1.2. Liste des principales méthodes d'évaluation<br />

On rencontre principalement cinq grandes approches pour juger la qualité <strong>d'images</strong><br />

comprimées:<br />

• une quantification objective par SNR ou toute autre mesure basée sur un calcul à partir<br />

des pixels,<br />

• une analyse basée sur des critères d'appréciation visuelle / subjective (image jugée de<br />

plus ou moins bonne qualité)<br />

• une analyse de la fidélité diagnostique basée sur la méthodologie ROC (Receiver<br />

Operating Curve)<br />

• une analyse de la fidélité diagnostique non basée sur la méthode ROC (courbes<br />

sensibilité et PVP en fonction du débit)<br />

• une analyse sur la modification de mesures quantitatives calculées par logiciel (par<br />

exemple le degré de sténose)<br />

Le présent travail se situe principalement dans le cadre des deux dernières approches.<br />

Les paragraphes suivants introduisent ces méthodes et les princip<strong>aux</strong> trav<strong>aux</strong> qui s’y<br />

réfèrent. L'approche basée sur les mesures quantitatives fera l’objet du chapitre II-4.<br />

- 138 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

1.3. Quantification objective de la qualité par mesures de type SNR<br />

La manière traditionnelle de comparer les performances d'un algorithme de <strong>compression</strong><br />

consiste à afficher des courbes de la distorsion (MSE ou SNR) par rapport au débit<br />

exprimé en bpp. Cette approche simple est utile lors de la mise au point d'un algorithme,<br />

mais n'est pas suffisante pour le valider. En effet, le SNR n'est pas basé sur les propriétés<br />

du système visuel humain. Certaines méthodes de <strong>compression</strong> introduisent des artefacts<br />

qui dégradent l'image d'un point de vue perceptif, alors que le SNR reste bon, ou vice<br />

versa.<br />

De nombreux trav<strong>aux</strong> tentent de déterminer un critère objectif qui reflète correctement<br />

l'appréciation d'un observateur humain. [ESKI-95] étudie 12 mesures discrètes et<br />

bivariées différentes basées sur les écarts entre la distribution des pixels de l'image<br />

originale et de l'image comprimée. Après avoir demandé à des observateurs de classer<br />

par ordre de préférence les images tests obtenues avec plusieurs méthodes de<br />

<strong>compression</strong> (JPEG, Wavelet) et plusieurs t<strong>aux</strong> de <strong>compression</strong>, il établit un score moyen<br />

basé sur les rangs (selon l'ordre de préférence). Une corrélation calculée entre ce score<br />

moyen et chaque mesure objective permet d'identifier les scores qui reflètent le mieux<br />

l'appréciation visuelle dans les conditions de cette étude. La MSE donne les meilleurs<br />

résultats et fait partie des mesures qui donne globalement la meilleure corrélation avec le<br />

score visuel. Un autre volet de la même étude évalue l'utilité de mesures graphique,<br />

comme par exemple l'histogramme des différences entre l'image originale et l'image<br />

comprimée. De toute évidence, plus l'histogramme est pointu et centré sur l'origine, moins<br />

la distorsion introduite par la <strong>compression</strong> est importante.<br />

Les mesures calculées ou les mesures graphiques donnent une première indication de la<br />

qualité d'image, mais n'indiquent rien sur la nature des artefacts rencontrés, ni sur<br />

l'adéquation de l'image pour un usage donné, et dans cette étude ne permettent pas de<br />

comparer les algorithmes entre eux.<br />

Dans un contexte <strong>d'images</strong> médicales, [ECKS-95] a évalué l'effet de méthodes de<br />

<strong>compression</strong> (JPEG, Full Frame DCT, Wavelet) sur la détection d'objets de faibles<br />

contrastes ajoutés synthétiquement sur des images médicales. Les valeurs données par<br />

deux critères objectifs, la MSE et la NNND 1 (mesure reflétant les artefacts de blocs,<br />

introduite par [HO-93]) avec les résultats des expériences de détection sont comparés.<br />

Cette comparaison montre que l'utilisation exclusive des mesures objectives conduirait à<br />

des conclusions erronées, car au delà d'un certain t<strong>aux</strong> de <strong>compression</strong> les trois<br />

méthodes de <strong>compression</strong> testées donnent toutes des résultats médiocres pour la tâche<br />

de détection, alors que les mesures objectives indiquent que certains algorithmes<br />

surpassent les autres.<br />

1.4. Appréciation visuelle subjective de la qualité d’image<br />

Une manière simple d'évaluer la qualité subjective <strong>d'images</strong> comprimées est de demander<br />

à des observateurs leur appréciation de la qualité d'image. Il peut s'agir d'une appréciation<br />

de la qualité cosmétique, ou dans le domaine médical d'une appréciation de "l'utilité<br />

diagnostique" de l'image.<br />

1 NNND: Normalized Nearest Neighbor Difference<br />

- 139 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Dans le cadre de l'évaluation diagnostique <strong>d'images</strong> radiologiques comprimées par VQ 2 ,<br />

[COSM-93a] a demandé à des radiologues de donner leur appréciation subjective sur une<br />

échelle de 1 à 5: excellente, bonne (utilisable pour le diagnostic), passable, mauvaise<br />

(difficile à utiliser), très mauvaise (inutilisable). Les scores de qualité par rapport au débit<br />

sont affichées pour un ensemble <strong>d'images</strong> comprimées. Un exemple de ces courbes est<br />

donné à la figure II-1.11. L'auteur a développé un modèle permettant de prédire la qualité<br />

visuelle ainsi que des mesures de fidélité diagnostique à partir du SNR. Mais beaucoup de<br />

travail reste à faire avant que ce type de modèles ne soient validés pour suffisamment de<br />

modalités d'imagerie médicale et de méthodes de <strong>compression</strong>.<br />

Figure II-1.1: Exemple de courbe montrant la qualité subjective en fonction du débit<br />

des images comprimées.<br />

D’après [COSM-93a].<br />

Nous avons connaissance (mais n’avons pas trouvé de publication) d’une méthode basée<br />

sur la visibilité de la <strong>compression</strong>. En faisant alterner sur un écran l'image originale et<br />

l'image comprimée, on demande <strong>aux</strong> observateurs d'identifier si il y a une différence<br />

perceptible entre les deux images. On détermine ainsi des seuils de visibilité de la<br />

<strong>compression</strong>. La notion de “visibilité de la <strong>compression</strong> présente un certain intérêt. Il nous<br />

parait possible de définir une gradation dans l’effet visuel de la <strong>compression</strong>: perte<br />

d’information au sens technique mais sans effet visible, perte d’information visible mais<br />

sans effet diagnostic, et enfin perte d’information diagnostique.<br />

D'une manière générale, le SNR donne une première indication utile sur la performance<br />

d'une méthode de <strong>compression</strong>. Il n'indique pas la nature des artefacts introduits. Il est<br />

difficile de prédire la qualité subjective à partir du SNR. La qualité subjective elle-même<br />

n’est pas simple à appréhender et à mesurer de manière reproductible car elle dépend du<br />

contexte, de l’observateur, de la tâche à effectuer... La validation et l'évaluation des<br />

méthodes de <strong>compression</strong> serait grandement simplifiée si une mesure objectives pouvait<br />

rendre fidèlement compte de la qualité visuelle ou de l'utilité d'une image comprimée pour<br />

une tâche donnée. Malheureusement et malgré des études complexes sur le sujet, une<br />

telle mesure n'existe pas.<br />

2 VQ: Vector Quantization<br />

- 140 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

1.5. Indices diagnostics de la performance du couple observateur/test<br />

diagnostic<br />

1.5.1. Notion de "gold standard"<br />

Un grand nombre d'études de <strong>compression</strong> sont basées sur l'existence d'un test<br />

diagnostic qui indique le diagnostic formel de chaque patient de l'expérimentation. Par<br />

exemple, si on veut évaluer l'effet de la <strong>compression</strong> sur le diagnostic de fractures du<br />

poignet à partir de clichés radiologiques, on utilise une scintigraphie osseuse comme<br />

méthode de contrôle posant le diagnostic “vrai”. La scintigraphie est dans ce cas le test<br />

diagnostic de référence, ou le "gold standard".<br />

1.5.2. Indices diagnostics: sensibilité, spécificité, PVP, PVN<br />

Dans le cadre d'une décision médicale binaire (patient pouvant être soit normal soit<br />

anormal), quatre situations peuvent se produire, selon que l'observateur prenne l'une<br />

ou l'autre décision par rapport à la réalité établie par le gold standard. Ces situations<br />

sont résumées dans la table II-1.1.<br />

Patients<br />

Effectivement<br />

anormal<br />

Effectivement<br />

normal<br />

Réponse de anormal VP FP<br />

l'observateur normal FN VN<br />

Table II-1. 1: Test diagnostic<br />

- VP 3 : Patients effectivement anorm<strong>aux</strong> recevant réponse 'anormal' de l'observateur: nombre de Vrai<br />

Positifs<br />

- FN 4 : Patients effectivement anorm<strong>aux</strong> recevant réponse 'normal' de l'observateur: nombre de f<strong>aux</strong><br />

négatifs<br />

- FP 5 : Patients effectivement norm<strong>aux</strong> recevant une réponse 'anormal': nombre de f<strong>aux</strong> positifs<br />

- VN 6 : Patients effectivement norm<strong>aux</strong> recevant une réponse 'normal': nombre de vrais négatifs<br />

Quatre indices diagnostics peuvent être déduits des résultats du test:<br />

La sensibilité (Se), Se =<br />

La spécificité (Sp), Sp =<br />

La valeur prédictive positive (PVP 7 ), PVP =<br />

La valeur prédictive négative (PVN 8 ), PVN =<br />

Toutes ces valeurs sont comprises entre 0 et 1.<br />

VP<br />

VP + FN<br />

VN<br />

VN + FP<br />

VP<br />

VP + FP<br />

VN<br />

VN + TN<br />

3 TP: True Positive<br />

4 FN: False Negative<br />

5 FP: False Positive<br />

6 TN: True Negative<br />

7 PVP: Predictive Value Positive<br />

8 PVN: Predictive Value Negative<br />

- 141 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Dans un test diagnostic, il n'est pas suffisant de compter le pourcentage de réponses<br />

correctes pour deux raisons:<br />

- En cas de prévalence très faible de la pathologie, par exemple pour une pathologie<br />

atteignant 5% de la population, une réponse systématiquement négative donnerait un test<br />

juste à 95%. Les valeurs de Se, Sp, PVP et PVN sont liées à la prévalence selon le<br />

théorème de Bayes, et leur utilisation résout ce problème.<br />

- Un pourcentage de réponses correctes ne donne aucune indication des t<strong>aux</strong> de f<strong>aux</strong><br />

positifs et de f<strong>aux</strong> négatifs, qui ont eux aussi une implication clinique importante.<br />

Pour valider un test clinique, il est nécessaire d'utiliser à la fois un indice qui rende compte<br />

de la capacité du couple observateur/test à détecter correctement les cas effectivement<br />

anorm<strong>aux</strong>, et un indice qui rende compte de la capacité du couple observateur/test à ne<br />

pas considérer comme anorm<strong>aux</strong> des cas qui sont norm<strong>aux</strong>. Il est classique d'utiliser à cet<br />

effet la sensibilité et la spécificité (ou la PVP).<br />

1.6. Fidélité diagnostique par la méthodologie ROC<br />

1.6.1. Historique<br />

La méthode ROC est très largement employée pour valider des algorithmes de<br />

<strong>compression</strong> sur des images médicales. Elle bénéficie d'un consensus général, et elle est<br />

considérée comme la méthode de référence dans la communauté radiologique. Elle est<br />

beaucoup moins connue de la communauté cardiologique, sans doute parce que peu de<br />

trav<strong>aux</strong> n'ont encore porté sur la <strong>compression</strong> <strong>d'images</strong> d'<strong>angiographies</strong> <strong>cardiaques</strong>, et<br />

parce que la méthode ROC n'y est pas applicable de façon aussi évidente, comme nous<br />

le verrons plus loin.<br />

La méthode ROC a été développée initialement dans le cadre de la théorie de détection<br />

des sign<strong>aux</strong>. Ses premières applications ont été dans le domaine des radars. Le but est<br />

de pouvoir régler le radar avec le meilleur compromis entre sa sensibilité et sa spécificité.<br />

La sensibilité correspond au fait que les objets présents dans le ciel soient bien détectés<br />

lorsqu'ils sont effectivement présents. La spécificité correspond au fait que des objets ne<br />

soient pas détectés s'ils sont effectivement absents. Il est clair qu'en réglant une<br />

sensibilité trop forte, on risque de confondre du bruit avec des objets réels, et qu'en<br />

réglant une spécificité trop forte, on risque de manquer des objets effectivement présents.<br />

La méthode ROC a été employée avec succès dans les années soixante en psychologie<br />

et psychophysique. Lusted a mis en avant ses avantages dans l'étude de la décision<br />

médicale [LUST-76]. Swets et Metz ont publiés plusieurs articles de base pour expliciter la<br />

théorie et guider les expérimentateurs dans l'utilisation de la méthode ROC pour les<br />

applications médicales [SWET-78], [METZ-86], [METZ-89].<br />

- 142 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

1.6.2. Principe<br />

• Notion de seuil de décision<br />

La façon de discriminer le "normal" de ‘l’anormal" n'est pas stricte et absolue dans le<br />

domaine médical. Différents médecins peuvent placer différemment la limite entre le<br />

normal et l'anormal. En pratique, le médecin travaille inconsciemment avec un modèle de<br />

densité de probabilité des cas norm<strong>aux</strong> et anorm<strong>aux</strong> suivant des courbes gaussiennes,<br />

selon la figure II-1.2. Selon son expérience, le médecin place un seuil de décision<br />

correspondant à sa limite entre le normal et l'anormal. Les valeurs de Se et Sp dépendent<br />

de deux phénomènes: la position du seuil de décision que se fixe le médecin, et la<br />

capacité inhérente du test de séparer les populations normales et anormales (selon que<br />

les courbes de gauss de la figure II-1.2 se chevauvent ou sont distinctes).<br />

distribution des cas<br />

norm<strong>aux</strong> (négatifs)<br />

distribution des cas<br />

anorm<strong>aux</strong> (positifs)<br />

FP<br />

VP<br />

Figure II-1.2: Modèle de décision médicale<br />

• Génération d'une courbe ROC<br />

Une courbe ROC affiche des couples (Se, 1-Sp). Pour obtenir plusieurs de ces couples,<br />

on fait varier (artificiellement) le seuil de décision. L'approche la plus courante en<br />

radiologie est de poser une question faisant appel au degré de confiance que<br />

l'observateur a de voir ou non la pathologie cherchée dans les clichés: pathologie<br />

présente de façon certaine (1), probable (2), cas litigieux (3), pathologie absente de façon<br />

probable (4), certaine (5). Cela conduit à une réponse sur 5 nive<strong>aux</strong>. A partir de cette<br />

réponse, on construit 4 couples (Se, 1-Sp), en simulant des seuils de décisions qu'aurait<br />

pu avoir l'observateur si la réponse avait été strictement binaire. Par exemple, lorsqu'un<br />

observateur répond (3), on peut considérer que toutes ses réponses (1), (2), et (3) dans le<br />

cadre d'une réponse binaire auraient été positives, et toutes ses réponses (4) et (5)<br />

auraient été négatives. En additionnant les réponses (1), (2), et (3), on trouve une<br />

sensibilité. On peut déduite la spécificité du cumul des réponses (4) et (5). On en déduit<br />

un point (Se, 1-Sp) correspondant au seuil de décision sous-jacent au niveau de réponse<br />

(3). Les quatre couples ainsi définis, additionnés <strong>aux</strong> couples (0,0) et (1,1) forment les<br />

point de la courbe ROC. Il existe plusieurs manière de faire passer une courbe par ces 6<br />

points. La plus couramment employée repose sur des statistiques paramétriques [METZ-<br />

89]. Un exemple de courbe ROC est donné à la figure II-1-3.<br />

- 143 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Figure II-1.3: Exemple de courbe ROC. D’après [MACM-91].<br />

Lorsque la courbe ROC est proche du coin supérieur gauche, le test diagnostic a une<br />

bonne capacité à distinguer les cas norm<strong>aux</strong> et anorm<strong>aux</strong>. On peut établir une courbe<br />

ROC à partir d'un ensemble <strong>d'images</strong> originales, et une deuxième courbe à partir des<br />

images comprimées. Si la <strong>compression</strong> diminue la performance diagnostique du test, la<br />

deuxième courbe sera en dessous de la première. Une méthode courante pour comparer<br />

deux courbes ROC est de tester la différence entre les valeurs des aires sous la courbe<br />

[HANL-82].<br />

• Contraintes de la méthode ROC<br />

- "gold standard"<br />

La méthode ROC, ou toute méthode utilisant l'un des quatre indice diagnostic présenté<br />

plus haut, implique un gold standard fournissant un diagnostic de référence. Le gold<br />

standard est censé être un test diagnostic plus sûr que le système diagnostic en cours<br />

d'évaluation. Cette approche implique l'existence d'un gold standard, ce qui n'est pas<br />

toujours évident. Dans le cadre de l'angiographie cardiaque par exemple, l'examen n'est<br />

effectué qu'après une série de tests diagnostics (ECG de repos, ECG d'effort,<br />

scintigraphie...). Lorsque ces examens n'ont pas permis de poser un diagnostic ou de<br />

trouver une thérapeutique appropriée, une angiographie cardiaque est réalisée.<br />

L'angiographie cardiaque serait donc plutôt un gold standard en elle-même. Il en va de<br />

même pour de nombreux examens radiologiques. Pour résoudre ce problème, une<br />

approche couramment employée est de faire appel à un groupe d'experts auquel on<br />

demande d'établir un diagnostic sur les images étudiées. Soit on leur demande de porter<br />

leur jugement séparément, et on ne garde que les images pour lesquelles tous les experts<br />

portent le même diagnostic. Soit on leur demande d'analyser les images tous ensemble et<br />

de se mettre d'accord.<br />

Il est également possible de considérer que le gold standard est constitué par la réponse<br />

de chaque observateur sur les images originales. Dans ce cas, on de dispose pas d'une<br />

référence diagnostique extérieure supposée plus fiable. On peut alors uniquement<br />

comparer la performance diagnostique sur les origin<strong>aux</strong> et les comprimés, sans connaître<br />

son lien avec le diagnostic vrai. On peut évaluer une différence entre les diagnostics sur<br />

les origin<strong>aux</strong> et les comprimés, on ne peut pas juger si une éventuelle différence<br />

correspond à une amélioration ou une dégradation de la performance diagnostique.<br />

- tâche binaire<br />

- 144 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Les outils d'analyse ROC sont essentiellement appropriés pour des tâches diagnostiques<br />

binaires (normal/anormal). La méthode ROC traditionnelle n'est pas applicable dans le<br />

cas d'un diagnostic impliquant de multiples anormalités sur une même image. [CHAK-90]<br />

a développé une méthode permettant d'analyser un diagnostic comprenant plusieurs<br />

anormalités par image. Cette méthode n'a pas fait l'objet de beaucoup d'applications.<br />

- tâche non courante<br />

Un inconvénient majeur de la méthode ROC est qu'elle ne repose pas sur une tâche<br />

diagnostique courante, principalement à cause du système de score basé sur un degré de<br />

confiance qu'une anormalité est présente ou non. Il est nécessaire d'éduquer les<br />

observateurs à répondre à une telle question.<br />

1.6.3. Etudes de <strong>compression</strong> <strong>d'images</strong> radiologiques à base de<br />

méthode ROC<br />

De nombreux trav<strong>aux</strong> basés sur la méthode ROC ont montré une bonne fidélité<br />

diagnostique pour des modalités radiologiques telles que le scanner, la résonance<br />

magnétique, la radiographie numérisée. Ils montrent que des t<strong>aux</strong> allant de 10:1 à 28:1<br />

avec des méthodes de <strong>compression</strong> par transformation n'introduisent pas de dégradation<br />

de la fidélité diagnostique [SAYR-92], [MACM-91], [BRAM-89], [ISHI-90], [WILH-91].<br />

1.7. Fidélité diagnostique par d'autres méthodes<br />

Une série d'études très pertinente sur l'évaluation de la fidélité diagnostique <strong>d'images</strong><br />

comprimées a été réalisée par Cosman et al. avec une <strong>compression</strong> VQ 9 [COSM-93a],<br />

[COSM-93b], [COSM-94]. La tâche diagnostique de l'une de ces études consiste à<br />

détecter des nodules sur des clichés pulmonaires de scanner. Cette tâche est non binaire<br />

car un cliché peut présenter plus d'un nodule. Trois observateurs ont effectué leur<br />

diagnostic dans des conditions proches de la routine, interprétant chacune des 30 images<br />

dans sa version originale et comprimée selon 6 t<strong>aux</strong>. Le gold standard est obtenu par<br />

consensus entre les 3 observateurs sur les images originales. L'analyse statistique<br />

consiste a évaluer des courbes Se et PVP en fonction du débit. Les courbes sont<br />

obtenues par ajustement quadratique de courbes splines. Des intervalles de confiance<br />

basés sur des méthodes non-paramétriques “bootstrap” ont été évalués. Un exemple de<br />

résultat d’évaluation selon cette approche est donné dans la figure II-1.4.<br />

Les raisons qui ont poussé l'auteur a ne pas utiliser la méthode ROC sont les suivantes:<br />

• respecter la tâche diagnostique courante<br />

• utiliser un diagnostic non binaire (raison de l'utilisation de la PVP au lieu de la Sp car il<br />

n'est pas possible de savoir combien de nodules sont effectivement absents, autrement<br />

dit la notion de TN n'est pas applicable dans le cas d'une tâche non binaire)<br />

• s'affranchir des hypothèses de données gaussiennes sous-jacentes <strong>aux</strong> analyses<br />

ROC.<br />

9 VQ: Vector Quantization, voir chapitre I-2<br />

- 145 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Figure II-1.4: Exemple de courbe de sensibilité en fonction du débit. Tâche<br />

diagnostic: détection de nodules sur des scanners pulmonaires, méthode de<br />

<strong>compression</strong>: VQ.<br />

D’après [COSM-93a]<br />

2. Protocole expérimental de nos évaluations diagnostiques<br />

Dans le paragraphe précédant, nous avons vu les différentes méthodes rencontrées dans<br />

les trav<strong>aux</strong> sur l'évaluation <strong>d'images</strong> comprimées. Notre protocole d’évaluation<br />

diagnostique d’<strong>angiographies</strong> <strong>cardiaques</strong> comprimées repose sur des bases différentes.<br />

Nous allons voir en quoi consiste les tâches diagnostiques courantes en angiographie, et<br />

comment nous avons construit un protocole expérimental ainsi que des analyses<br />

statistiques qui leur correspondent le mieux possible.<br />

2.1. Choix du type d’examen<br />

Divers procédures de divers types peuvent être pratiquées avec un système<br />

d'angiographie cardiaque, au cours desquelles un ensemble de séquences <strong>d'images</strong> sont<br />

acquises. On distingue parmi ces procédures: les examens diagnostics, les interventions<br />

(angioplastie, pose de stent), les examens pédiatriques, les cathétérismes droits etc... Les<br />

aspects techniques et médic<strong>aux</strong> des examens de cathétérismes <strong>cardiaques</strong> au cours<br />

desquels sont réalisés les <strong>angiographies</strong> sont décrits dans [BERE-92] et dans des<br />

ouvrages spécialisés (par exemple [KERN-91]).<br />

Nous avons limité nos études à des procédures diagnostiques d'adultes. Il s'agit de<br />

l'examen le plus pratiqué et il comporte un ensemble complet de séquences permettant<br />

de visualiser le ventricule gauche (ventriculographie), les artères coronaires droite et<br />

gauche (coronarographie). D'une manière très simplifiée, on recherche principalement des<br />

défauts de contractilité du ventricule gauche, et des rétrécissements ou des occlusions<br />

des coronaires. Les examens interventionnels sont plus focalisés sur une lésion et<br />

présente un éventail de séquences moins complet et moins semblables d'un cas à l'autre.<br />

Nous n'avons retenus que des cas diagnostics complets. Ils comprenaient donc une ou<br />

deux incidences (angle de vue) du ventricule gauche, trois à cinq incidences permettant<br />

de visualiser l'artère coronaire droite, et trois à cinq séquences pour l'artère coronaire<br />

gauche.<br />

- 146 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Nous n'avons pas pratiqué de sélection particulière des cas inclus dans l'étude. Les seuls<br />

critères d'exclusion étaient le caractère non complet de l'ensemble des séquences dans<br />

l'examen. Nous n'avons pas cherché à constituer un échantillon particulier de patient<br />

quant à l'âge, les antécédents, les indications, ou les pathologies. Nous avons simplement<br />

collecté au hasard les films digit<strong>aux</strong> dans les institutions de Lille et de Houston avec<br />

lesquelles nous avons travaillé.<br />

2.2. Tâche diagnostique<br />

2.2.1. Tâche d’interprétation visuelle uniquement<br />

L'interprétation visuelle d'une angiographie cardiaque comporte deux volets: l'analyse de<br />

la contractilité du ventricule gauche, et l'analyse d'anormalités sur les artères coronaires.<br />

Nous nous sommes limités dans nos études à cette interprétation visuelle. Cette tâche<br />

comporte une détection, une localisation et une classification. Nous n'avons pas inclu de<br />

tâche relative à la décision thérapeutique sur le patient. Après une angiographie, il peut<br />

être orienté par exemple vers un traitement médicamenteux, une intervention, un pontage.<br />

Ce type de décision n’a pas été intégrée dans notre étude car elle est influencée par<br />

l'ensemble du dossier clinique du patient. Notre étude ne porte que sur la partie<br />

angiographique de ce dossier.<br />

Une description incomplète et simplifiée de l'interprétation d'un examen va être donnée<br />

dans le paragraphe suivant, puis nous aborderons l'influence des tâches diagnostiques<br />

particulières au domaine de l’angiographie cardiaque sur notre méthodologie d'évaluation.<br />

2.2.2. Ventriculographie<br />

Le ventricule gauche est la pompe principale du système sanguin, éjectant le sang dans<br />

les artères du corps. Le muscle cardiaque (le myocarde) est irrigué par les artères<br />

coronaires. La figure II-1.5 montre un schéma du coeur et de ses artères. En cas<br />

d'irrigation insuffisante d'un segment de ventricule par une artère malade, le muscle<br />

souffre, produisant une douleur ou un infarctus du myocarde. Si le défaut d'irrigation<br />

persiste plus de 6 heures, le muscle du segment ventriculaire correspondant meure. On<br />

parle de nécrose.<br />

- 147 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Figure II-1.5: Schéma du coeur et des artères coronaires.<br />

Lors d'une ventriculographie, un produit de contraste opaque <strong>aux</strong> rayons X est injecté<br />

dans le ventricule gauche pendant qu'une séquence d'image est acquise. La séquence<br />

permet de voir la pompe ventriculaire en action. La figure II-1.6 montre deux images du<br />

ventricules gauche correspondant à la phase de remplissage (diastole) et à la phase<br />

d’éjection (systole). Si un segment ventriculaire est atteint, il ne se contracte pas<br />

normalement, réduisant le quantité de sang éjectée à chaque battement de cœur.<br />

L'interprétation visuelle d'une ventriculographie consiste à vérifier si les segments du<br />

ventricule se contractent normalement.<br />

(a)<br />

Figure II-1.6: Image angiographique du ventricule gauche, projection OAD (oblique<br />

antérieur droit). (a) Fin de diastole, (b) fin de systole.<br />

La division du ventricule en plusieurs segment correspond à certaines nomenclatures<br />

médicales (segment antérieur, inférieur, latéral, apical, septal). La classification des<br />

anormalités suit aussi une terminologie établie. Le segment peut être normal,<br />

- 148 -<br />

(b)


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

hypokinétique (contraction faible), akinétique (pas de contraction), hyperkinétique<br />

(contraction d'amplitude plus importante que la normale). La segmentation du ventricule et<br />

les anormalités sont illustrées dans la figure II-1.7.<br />

Figure II-1.7: Segmentation du ventricule gauche et illustration de quelques<br />

anormalités. D’après [KERN-91].<br />

2.2.3. Coronarographie<br />

La coronarographie consiste à injecter dans l'artère coronaire droite ou gauche un produit<br />

de contraste opaque <strong>aux</strong> rayons X pendant que les images sont acquises. On obtient une<br />

séquence qui montre le remplissage des artères par le produit de contraste.<br />

L'interprétation visuelle de la coronarographie consiste à vérifier que chaque segment<br />

d'artère coronaire est bien ouvert et qu’il se remplit normalement. En cas d'obstruction par<br />

une plaque d'athérome, la sténose (ou rétrécissement) altère la progression du sang.<br />

Il existe plusieurs nomenclatures des artères coronaires. Nous avons choisi un système<br />

international recommandé par L'American Heart Association (AHA). Ce système est utilisé<br />

en routine à Lille, et il est bien connu des cardiologues de Houston. La nomenclature AHA<br />

est illustrée par le schéma d’artères coronaires de la figure II-1.8.<br />

- 149 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

N o abbr. F nom Français abbr. A nom Anglais.<br />

1 D1 Droite proximale RCAp Right coronary artery proximal<br />

2 D2 Droite moyenne RCAm Right coronary artery mid<br />

3 D3 Droite distale RCAd Right coronary artery distal<br />

4 RV&IVP Rétro ventriculaire & interventriculaire RCApda<br />

postérieure<br />

5 TC Tronc commun LMCA Left Main Coronary Artery<br />

6 IVAp Inter ventriculaire antérieure prox. LADp Left anterior descending prox.<br />

7 IVAm Inter ventriculaire antérieure moyenne. LADm Left anterior descending mid..<br />

8 IVAd Inter ventriculaire antérieure distale. LADd Left anterior descending distal<br />

9 Diag1 Diagonale 1 Diag1 Diagonal 1<br />

10 Diag2 Diagonale 2 Diag2 Diagonal 2<br />

11 CXp Circomflexe prox. LCXp Left circumflex prox.<br />

12 Marg1 Marginale 1 OM1 Obtuse marginal 1<br />

13 CXd Circomflexe distale LCXd Left circumflex distal<br />

14 Marg2 Marginale 2 OM2 Obtuse marginal 2<br />

15 Marg3 Marginale 3 OM3 Obtuse marginal 3<br />

16 PT IVA Pontage IVA graft LAD<br />

17 PT Diag1 Pontage diagonale 1 graft D1<br />

18 PT Marg Pontale marginale graft OM<br />

19 PT D Pontage droite graft RCA<br />

Figure II-1.8: Segmentation des artères coronaires selon la nomenclature du<br />

CASS 10 .<br />

L’interprétation visuelle de la coronarographie consiste à passer en revue les segments de<br />

coronaires, à évaluer leur degré d’anormalité . Des éventuelles sténoses peuvent avoir un<br />

impact sur la qualité de l’irrigation du muscle cardiaque. Un score fréquemment utilisé<br />

pour qualifier le segment d’artère est le pourcentage de sténose. Il indique de combien de<br />

pour cent l'artère est rétrécie par rapport <strong>aux</strong> segments sains adjacents. Cette valeur peut<br />

être quantifiée par un logiciel de mesure (voir chapitre II-6), mais au préalable les<br />

cardiologues l’estiment à l'œil nu. En pratique, l’interprétation des coronarographies est<br />

principalement basée sur une estimation visuelle. La figure II-1.9 montre un exemple de<br />

coronarographie de l’artère droite et de l’artère gauche en illustrant la segmentation des<br />

vaisse<strong>aux</strong>.<br />

10 CASS: Coranary Artery Surgery Study [CASS-81]<br />

- 150 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

D1<br />

TC<br />

IVAp<br />

IVAm<br />

CXp<br />

IVAd<br />

D2<br />

CXd<br />

OM1<br />

D3<br />

D3<br />

(a)<br />

Figure II-1.9: Exemple de coronarographies. (a) Artère coronaire droite présentant<br />

une lésion sévère sur le segment D3. (b) Artère coronaire gauche normale.<br />

Nous avons choisi de ne pas utiliser le pourcentage de sténose dans notre travail<br />

d’évaluation. La première raison est qu'il y a une ambiguité entre le pourcentage de<br />

réduction en diamètre et en surface. Les logiciels donnent l'une ou l'autre valeur, mais les<br />

cardiologues ne sont pas toujours conscients de celui qu'ils emploient. Il n'y a pas de<br />

consensus implicite sur la question. [FLEM-91] a observé dans une expérience sur<br />

quelques fantômes que les cardiologues n'ayant pas d'expérience de l’analyse<br />

quantitative avaient tendance à “voir” un pourcentage en surface, tandis que les<br />

cardiologues expérimentés “voyaient” un pourcentage en diamètre. Il y a un effet<br />

d'apprentissage dû à la pratique des mesures QCA, ce qui modifie la façon d'évaluer<br />

visuellement les sténoses. Cette ambiguité aurait pu attirer une imprécision purement due<br />

<strong>aux</strong> observateurs dans nos évaluations. La deuxième raison de ne pas utiliser le<br />

pourcentage de sténose est que l'échelle de 0 à 100% est bien plus fine que ce que<br />

l'observateur humain ne peut discriminer. En général, les cardiologues utilisent l'échelle<br />

par palier de 10% en 10% dans leur réponses. [FLEM-91] et [BERT-93] on pu observer<br />

qu'en fait l'interprétation visuelle du pourcentage de sténose est de distribution multimodale<br />

(alors que les valeurs mesurées par logiciels sont de distribution gaussienne).<br />

Dans ces deux études, les observateurs ont tendance a employer uniquement des valeurs<br />

autour de 0, 50 et 100% pour [FLEM-91], et de 30 et 70% pour [BERT-93] (qui a la<br />

particularité de porter sur des cathétérismes interventionnels).<br />

A la place du t<strong>aux</strong> de sténose en pourcentage, nous avons utilisé un score basé sur une<br />

échelle ordinale de 0 à 5:<br />

• 0 (normal),<br />

• 1 (irrégularités),<br />

• 2 (


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

de forme elliptoïdale ou irrégulière, ce qui nécessite de la voir sous plusieurs angles avant<br />

de pouvoir se déterminer.<br />

2.3. Protocole expérimental<br />

Nos expériences d'évaluation ont pour but de déterminer si la <strong>compression</strong> modifie<br />

significativement l'interprétation visuelle des <strong>angiographies</strong> <strong>cardiaques</strong>. Nous nous<br />

sommes fixé comme contrainte de respecter le plus possible la façon normale de<br />

travailler. Ces principes ont été appliqués dans nos deux évaluations diagnostiques, à Lille<br />

et à Houston.<br />

En particulier, l’expérimentation devait être basée sur:<br />

• des tâches diagnostiques usuelles<br />

• des conditions matérielles usuelles.<br />

En conséquence, nous avons mis au point un protocole expérimental basé sur la<br />

visualisation d’examens complets (et non pas de séquences ou d’images isolées).<br />

L’interprétation a été consignée sur un questionnaire diagnostic (annexe A).<br />

Le système de visualisation employé pour nos expérience était un système DCI de<br />

Philips. A Lille comme à Houston, un DCI dédié <strong>aux</strong> recherches cliniques était disponible.<br />

La figure II-1.10 montre un console avec ses écrans et son interface utilisateur.<br />

Figure II-1.10: Console de visualisation utilisée pour les évaluations diagnostiques.<br />

Le dispositif est strictement identique <strong>aux</strong> systèmes cliniques. La roue permet de<br />

faire défiler les séquences.<br />

Les tâches diagnostiques sur lesquelles nous devons tester l'influence de la <strong>compression</strong><br />

diffèrent en plusieurs points de celles rencontrées dans les études de <strong>compression</strong> en<br />

radiologie:<br />

• Le diagnostic d'un examen d’angiographie se fait sur un ensemble de séquences, et<br />

non sur une seule image comme dans les évaluation de radiologie.<br />

• Les tâches diagnostiques des études radiologiques sont des tâches de détection<br />

uniquement (présence d'une fracture, de nodules, cas anormal ou non). Nous avons à<br />

faire à une tâche qui combine une localisation, une détection et une classification. Nous<br />

n'avons pas trouvé dans les expériences publiées de protocole expérimental et de<br />

méthode statistique directement applicable à notre cas.<br />

- 152 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

• Le diagnostic est constitué non pas d’une réponse de type binaire, mais d’une réponse<br />

catégorielle par segment de ventricule, et d’une réponse ordinale par segment de<br />

coronaire.<br />

Ces particularités rendent difficile l’emploi de méthodes basée sur les indices<br />

diagnostiques de type sensibilité et spécificité.<br />

Nos études ont été basées sur l’estimation de la concordance intra- et inter-observateurs<br />

entre les interprétations visuelles de ventriculographies et coronarographie avec ou sans<br />

<strong>compression</strong>.<br />

3. Princip<strong>aux</strong> outils statistiques utilisés<br />

3.1. Méthodologie basée sur la concordance<br />

3.1.1. Types de concordances évaluées<br />

Nos protocoles expériment<strong>aux</strong> et nos analyses statistiques sont basés sur l'évaluation de<br />

la concordance (ou la reproductibilité, ou son contraire la variabilité) entre les diagnostics<br />

effectués par les observateurs avec ou sans <strong>compression</strong>. Les différentes concordances<br />

qui peuvent être estimées sont illustrés par la figure II-1.11. On distinguera:<br />

• les concordances inter-<strong>compression</strong>,<br />

• les concordances inter-observateurs,<br />

• les concordances intra-observateurs, qui seront aussi appelés intra-<strong>compression</strong><br />

INTER<br />

OBSERVATEURS<br />

{<br />

observateur 2<br />

observateur 1<br />

INTER<br />

COMPRESSION<br />

{<br />

origin<strong>aux</strong><br />

comprimés<br />

réplication 1 réplication 2<br />

{<br />

INTRA<br />

OBSERVATEUR<br />

Figure II-1.11: Types d'accord possibles<br />

- 153 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Les princip<strong>aux</strong> modes de comparaison des concordances ont été les suivants.<br />

• Concordance inter-observateurs<br />

La concordance inter-observateurs sur les origin<strong>aux</strong> est comparée à la concordance interobservateurs<br />

sur les images comprimées.<br />

• Concordance inter-<strong>compression</strong><br />

La concordance d’un observateur sur les origin<strong>aux</strong> est comparée à la concordance avec<br />

une lecture sur les origin<strong>aux</strong> et une lecture sur les images comprimées.<br />

• Concordance intra-observateurs<br />

L'approche inter-<strong>compression</strong> expliquée ci-dessus est en même temps une approche<br />

intra-observateur.<br />

La concordance intra-observateur avec entre les deux réplications sur les origin<strong>aux</strong> est<br />

comparée à celle entre les deux réplications sur les images comprimées.<br />

3.1.2. Reproductibilité des observateurs dans l'interpétation de<br />

coronarographies<br />

De nombreux trav<strong>aux</strong> font état d’une reproductibilité très pauvre de l’interprétation visuelle<br />

des coronarographies diagnostiques à partir de ciné-film. [DERO-77] observe un écart<br />

type de 18% sur l’estimation du t<strong>aux</strong> de sténose par un observateur, à partir d’une étude<br />

avec 11 observateurs et 10 artériographies. [DETR-75] indique un degré d’accord interobservateur<br />

qui varie entre 100% et le pur hasard. [VAS-85] trouve un écart type de 14%<br />

sur les interprétations par 4 observateurs de 36 lésions vues sur des images statiques.<br />

D‘autres études font état d’une reproductibilité quelque peu meilleure. [SCOB-84] trouve<br />

un écart type de 7%. [TRAS-84] observe que 2 observateurs ont un jugement concordant<br />

dans 86% des cas à partir de 340 segments de coronaires. Dans [SANM-78], 4<br />

observateurs établissant en commun un consensus tombent d’accord dans 95% des cas<br />

sur 186 segments de coronaires, même si l’écart type entre 2 lectures est de 14%.<br />

[BEAU-90] et [FLEM-91] ont montré que l’expérience de l’observateur n’a pas d’influence<br />

significative sur la variabilité.<br />

Il est difficile de comparer ces études entre elles car elles sont basées sur des protocoles<br />

expériment<strong>aux</strong> et des analyses statistiques différentes. Bien qu’on n’y trouve pas une<br />

claire indication de la limite tolérable de désaccord, un consensus semble établi qui<br />

contre-indique l’emploi de l’interprétation visuelle comme seul critère de mesures pour les<br />

protocoles de recherche clinique.<br />

Deux types de recommandations ont été émises pour pallier ce problème dans la<br />

recherche: l’interprétation par un groupe de lecteur ou le moyennage de plusieurs<br />

réponses [KUSS-92], et les mesures quantitatives par logiciel ([BEAU-90], [BERT-93]...).<br />

Il n’en reste pas moins que l’interprétation visuelle est la méthode diagnostique primaire,<br />

et qu’elle est pratiquée par les cardiologues individuellement dans une majorité<br />

d’institutions. Les concertations avec plusieurs experts ne concernent en général que les<br />

cas difficiles. Les mesures quantitatives ne sont effectuées que sur des lésions qui ont été<br />

identifiées visuellement comme potentiellement significatives.<br />

Il nous est donc paru incontournable d’étudier l’effet de la <strong>compression</strong> sur les<br />

interprétations visuelles, et de limiter le plus possible les sources de variabilités. Nous<br />

pensons que deux éléments de notre protocole expérimental contribuent à limiter cette<br />

variabilité:<br />

• L’utilisation d’un score dont l’échelle et la sémantique reflètent bien l’analyse mentale<br />

de l’expert. Un écart de 15% sur une même sténose n’a pas forcément d’impact sur la<br />

décision médicale, mais une classification de la sténose en tant que significative<br />

- 154 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

(50%) induira un traitement différent. Le score que nous<br />

avons employé est basé sur échelle suffisamment détaillée pour décrire le segment, et<br />

correspondant à un nombre de grades suffisamment limité pour que l’observateur<br />

puisse les distinguer (contrairement à une échelle sur 100%).<br />

• L’emploi de précautions quant à la localisation des segments de coronaires. Nous<br />

pensons que la détection d’une lésion sur une image est peu sujette à variation, mais<br />

qu’en revanche une imprécision importante est liée à la dénomination du segment de<br />

coronaire concerné. Il est fréquent de décaler de quelques millimètres la limite entre<br />

un segment proximal et moyen par exemple. Nous avons pris soin que les<br />

observateurs de nos études aient une approche rigoureuse de la localisation des<br />

segments de coronaire. C’est le cas des médecins de Lille qui établissent dans leur<br />

pratique clinique un compte rendu donnant un grade à chaque segment. Dans notre<br />

deuxième campagne d’évaluation avec Houston, nous avons même fait en sorte que<br />

la délimitation des segments soit fixe pour chaque angiographie, et employée de la<br />

même façon avec les images originales et comprimées.<br />

3.2. Estimation statistique de la concordance<br />

Nous allons présenter les outils statistiques employés dans nos analyses de données,<br />

dans la mesure où ils ne sont pas fréquemment rencontrés dans les études médicales ou<br />

sur la <strong>compression</strong>.<br />

3.2.1. Concordance par test de kappa<br />

Le coefficient de kappa est un mesure de concordance pour données catégorielles. Il se<br />

rapporte à la différence entre la concordance observée et la concordance aléatoire<br />

[COHE-60], [FLEI-81].<br />

Sa définition est:<br />

κ = p p 0<br />

−<br />

c<br />

, où p 0 est le t<strong>aux</strong> de concordance observé 11 , et p c est la concordance<br />

1−<br />

pc<br />

aléatoire 12 .<br />

Première interpétation catégorie 1 catégorie 2 total<br />

\ deuxième<br />

interpétation<br />

catégorie 1 p 11 p 12 p 1.<br />

catégorie 2 p 21 p 22 p 2.<br />

Total p .1 p .2 100%<br />

Table II-1.2: Exemple de tableau de contingence pour comparer deux interprétations<br />

selon une réponse à deux catégories.<br />

Les t<strong>aux</strong> de concordances observé et aléatoire se déduisent d’un tableau de contingence,<br />

dont un exemple est donné à la table II-1.2 pour un score à k=2 catégories (par exemple<br />

normal/anormal):<br />

p 0 = Erreur!p ii<br />

11 t<strong>aux</strong> de concordance observé, en anglais: overall proportion agreement<br />

12 concordance aléatoire, en anglais: agreement from chance alone<br />

- 155 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

p e = Erreur!p i. p .i<br />

[FLEIS-81] donne des tests pour si une valeur de κ est nulle, et pour comparer plusieurs<br />

valeurs de κ. Ces tests ont été employés pour les réponses d’interprétation visuelles des<br />

ventriculogrammes.<br />

3.2.2. Coefficient de corrélation de concordance de Lin<br />

• Nuages de points (analyse graphique)<br />

Avant l’utilisation de tout calcul statistique plus ou moins sophistiqué, nous avons cherché<br />

à visualiser les données de façon simple et informative.<br />

Si l’observateur répétait exactement la même réponse lors de deux interprétations<br />

différentes sur le même patient, alors toutes les paires de réponses seraient égales. En<br />

affichant les réponse de la première interprétation sur un axe et les de la deuxième<br />

réponse sur l’autre axe, on obtiendrait une série points passant tous sur la droite<br />

d’identité. Plus les résultats de premières et deuxièmes réponses sont différents, et plus le<br />

nuage de points est dispersé autour de la droite d’identité. Un exemple de diagramme en<br />

nuage de point d’après les données de l’évaluation QCA est donné à la figure II-1.12.<br />

5.5<br />

5<br />

4.5<br />

4<br />

3.5<br />

3<br />

2.5<br />

2<br />

1.5<br />

1<br />

Dref - Originals<br />

0.5<br />

1 2 3 4 5<br />

Figure II-1.12: Exemple de graphe en nuage de points, avec les données de<br />

l’évaluation QCA.<br />

• Statistique associée au graphique en nuage de points<br />

Deux méthodes sont très fréquemment employées pour quantifier le degré d’accord entre<br />

deux séries de réponses: le test de Student pour données appariées, et le coefficient de<br />

corrélation de Pearson. Ces deux approches apportent une information différente de celle<br />

que nous recherchons.<br />

Le test de Student pour données appariées est un test d’hypothèse sur l’égalité des<br />

moyennes de deux séries de mesures effectuées sur un même échantillon. En général, si<br />

la concordance des mesures est bonnes, les moyennes sont égales, mais cela n’est pas<br />

toujours le cas. La figure II-1.13 (a) montre des exemples d’interprétations erronées<br />

<strong>aux</strong>quelles ce test peut conduire, en concluant à des moyennes égales.<br />

Le coefficient de corrélation de Pearson quantifie le degré de linéarité qui relie les deux<br />

séries de mesures. Il se peut que les paires de mesures passent bien par une droite,<br />

donnant un coefficient proche de 1, mais que cette droite ne soit pas la droite d’identité.<br />

De tels exemples sont illustés par la figure II-1.13 (b).<br />

- 156 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

(a)<br />

(b)<br />

Figure II-1.13: Exemples de cas où le test de Student (a) et le coefficient de<br />

corrélation de Pearson (b) sont peu appropriés pour évaluer la concordance.<br />

• Coefficient de corrélation de concordance de Lin<br />

Ces constatations ont motivé la recherche d’un paramètre plus approprié au problème de<br />

la concordance entre deux séries de mesures. [LIN-89] a développé un coefficient de<br />

corrélation de concordance, qui mesure le degré avec lequel les paires de mesures<br />

passent par la droite d’identité.<br />

- 157 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Le coefficient de corrélation de concordance de Lin est défini par:<br />

2σ<br />

12<br />

ρ c =<br />

2 2<br />

2<br />

σ + σ + ( µ − µ )<br />

1<br />

2<br />

1<br />

2<br />

(II-1.1)<br />

où σ 1 et σ 2 sont les variances de la première et de la deuxième série de mesures,<br />

respectivement<br />

σ 12 est la covariance<br />

µ 1 et µ 2 sont les espérances mathématiques<br />

Son estimation à partir des échantillons est donnée par:<br />

2S12<br />

r c =<br />

2 2<br />

2<br />

S + S + ( Y − Y )<br />

1<br />

2<br />

1<br />

2<br />

(II-1.2)<br />

où<br />

N<br />

Y, − j = 1/N ∑<br />

S j , ² = 1/N<br />

S 12 = 1/N<br />

i=<br />

1<br />

N<br />

∑<br />

i=<br />

1<br />

N<br />

∑<br />

i=<br />

1<br />

Y ij<br />

(Y ij - Y, - j )² , j=1, 2<br />

(Y i1 - Y, - 1 ) (Y i2 - Y,- 2 )<br />

r c est un estimateur sans biais de ρc , avec une hypothèse de distribution gaussienne des<br />

populations. La distribution de rc est asymptotiquement gaussienne avec pour espérance<br />

mathématique ρc et pour variance:<br />

V(r c ) = Erreur! [ (1-ρ²) ρc ² (1-ρ c ²)/ρ² + 4ρ c 3 (1-ρc )u²/ρ - 2ρ c 4 u 4 /ρ² ]<br />

(II-1.3)<br />

σσ 1 2<br />

avec u=(µ1-µ2)/<br />

et ρ : coefficient de corrélation de Pearson<br />

Dans nos évaluations diagnostiques, nous avons utilisé ces définitions du coefficient de<br />

corrélation de concordance sur les scores de sévérité des lésion coronaires, en calculant<br />

des estimations de ρ c avec la formule (II-1.2), des estimations d’intervalles de confiance à<br />

partir de la définition (II-1.3) de la variance.<br />

Dans l’évaluation QCA, nous avons également utilisé des coefficients de Lin. L’estimation<br />

du coefficient et de son intervalle de confiance s’est faite à l’aide d’une technique de<br />

“bootstrap”.<br />

• Technique du “bootstrap”<br />

Nous avons observé que la distribution des mesures n’était pas gaussienne et que la taille<br />

des échantillons est relativement petite (N=37). Aussi avons-nous utilisé la méthode du<br />

bootstrap pour estimer la valeur du coefficient de Lin ainsi qu’un intervalle de confiance<br />

sur cette estimation.<br />

- 158 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

Le bootstrap permet d’estimer un paramètre sans faire d’hypothèse quant à la distribution<br />

de la population sous-jacente. Le principe est de ré-échantillonner les mesures un nombre<br />

de fois N b (N b très grand), et de calculer le paramètre N b fois. La moyenne de ces N b<br />

calculs du paramètre fournit une estimation de celui-ci. Le ré-échantillonnage consiste à<br />

tirer au hasard N valeurs avec remise parmi les N mesures. Par exemple, si on disposait<br />

de 5 valeurs 2, 1, 10, 3, 2, un ré-échantillonnage pourrait être 1, 10, 3, 3, 1, ou bien 10, 3,<br />

1, 2, 1, etc... L’idée sous-jacente est de simuler le fait de disposer de N b échantillons dans<br />

la population. Nous avons utilisé la médiane des N b valeurs du paramètre comme<br />

estimation du paramètre (avec N b =1000). [MOON-93] donne plusieurs façon d’estimer un<br />

intervalle de confiance par la méthode du bootstrap. Nous avons utilisé la valeur limite des<br />

percentiles 5% et 95% comme bornes de l’intervalle de confiance de l’estimateur Par cette<br />

approche bootstrap pour l’estimation des paramètres de Lin, aucune hypothèse n’est faite<br />

sur la distribution des mesures QCA.<br />

3.2.3. Graphiques des différences en fonction des moyennes<br />

Une façon de mettre en évidence l’étroitesse de l’accord entre deux mesures est de<br />

représenter la différence des paires de mesures en fonction de la moyenne de ces paires.<br />

Cette méthode graphique a été décrite par [ALTM-83] & [BLAN-86].<br />

Cette approche très simple et très informative a été utilisée dans l’évaluation QCA (par<br />

exemple figure II-4-3).<br />

Nous avons représenté par une droite horizontale la moyenne générale de toutes les<br />

différences entre les paires de mesures. La droite de moyenne est encadrée de deux<br />

droites correspondant à un intervalle de tolérance. La notion d’intervalle de tolérance est<br />

similaire à celle utilisée dans l’industrie pour l’acceptation ou le refus de pièces. C’est une<br />

notion différente de l’intervalle de confiance. Nous nous sommes basés sur la norme<br />

AFNOR (NF X06-032) concernant les intervalles statistiques de dispersion.<br />

Un intervalle statistique de dispersion 13 est un intervalle contenant, avec une probabilité 1-<br />

α (appelée aussi niveau de confiance), une fraction au moins égale à p des valeurs de<br />

mesure. Nous avons utilisé des intervalles bilatér<strong>aux</strong>. Les limites de tolérances L i et L s se<br />

calculent selon la formule:<br />

L i = x − - k n,p,1-α σ et L s = x − + k n,p,1-α σ<br />

Les valeurs de k n,p,1-α sont lues dans des tables.<br />

Nous avons défini de tels intervalles à partir des données sur les images originales, pour<br />

définir les limites tolérées des différences entre les deux réplications. Nous avons<br />

conservé les mêmes limites de tolérance sur les comparaisons impliquant les images<br />

comprimées, pour voir si la <strong>compression</strong> induit une dispersion au delà des limites de<br />

tolérance.<br />

3.2.4. Analyse de la variance<br />

L’analyse de la variance 14 (ANOVA) permet de comparer les moyennes de plusieurs<br />

populations. Certaines ANOVA sont des extensions du test de Student à plus de deux<br />

populations. L’ANOVA suppose que tous les populations ont la même variance et que les<br />

échantillons sont indépendants.<br />

Nous avons utilisé ce type de méthode statistique dans l’évaluation QCA.<br />

13 Intervalles statistiques de dispersion, en anglais: statistical tolerance interval<br />

14 Analyse de la variance, en anglais: ANalysis Of Variance (ANOVA)<br />

- 159 -


Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />

nouvelle approche pour <strong>angiographies</strong><br />

• Analyse de la variance pour mesures répétées 15<br />

L’ANOVA pour mesures répétées doit être utilisée quand la même variable est mesurée<br />

plusieurs fois sur les mêmes sujets. Dans notre étude de QCA, la mesure est répétée<br />

avec des traitements différents sur les mêmes images de coronaires. Dans le cas des<br />

mesures répétés, la condition d’indépendance des échantillons est remplacée par une<br />

condition de sphéricité.<br />

Nous avons utilisé le programme 2V du logiciel BMPD. Les facteurs sur lesquels ont porté<br />

l’analyse étaient le facteur réplication (deux nive<strong>aux</strong>: réplication1 et réplication2) et le<br />

facteur <strong>compression</strong> (quatre nive<strong>aux</strong>: pas de <strong>compression</strong>, <strong>compression</strong> avec t<strong>aux</strong> de 5,<br />

8, ou 12:1)<br />

Le logiciel 2V donne une valeur p pour tester si les items suivants sont significatifs:<br />

- facteur réplication<br />

- tendance linéaire entre les nive<strong>aux</strong> du facteur <strong>compression</strong><br />

- tendance quadratique<br />

- tendance cubique<br />

- interaction entre la réplication et la tendance linéaire<br />

- interaction entre la réplication et la tendance quadratique<br />

- interaction entre la réplication et la tendance cubique<br />

- interaction entre la réplication et la <strong>compression</strong> globalement.<br />

Si la condition de sphéricité n’est pas vérifiée, 2V fournit des coefficients rectificatifs des<br />

valeurs de p affectées.<br />

• Test de Friedman<br />

Nous avons une ANOVA particulière dans l’évaluation QCA: l’ANOVA de Friedman à deux<br />

critères de classification 16 . Nous avons utilisé le programme 3S du logiciel BMDP. Le test<br />

de Friedman fait partie des méthodes statistiques non-paramétriques. De ce fait, il n’est<br />

pas basé sur une hypothèse de distribution normale des population sous-jacentes. Ce test<br />

est une extension du test des signes pour plus de deux variables appariées. Le test de<br />

Friedman est basé sur les rangs. A chaque niveau de traitement, les valeurs du paramètre<br />

mesuré sont ordonnés et la somme des rangs des mesures est calculée. Une valeur de<br />

type chi-2 est déduite de ces sommes, permettant le test d’identité des différents<br />

traitements<br />

15 Analyse de la variance pour mesures répétées, en anglais: repeated measures ANOVA<br />

16 En anglais: Friedman’s two way ANOVA<br />

- 160 -


CHAPITRE II-2<br />

PREMIERE ETUDE D’EVALUATION<br />

DIAGNOSTIQUE<br />

- 161 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

Préliminaires<br />

L’application de la <strong>compression</strong> avec perte dans le domaine médical requiert une évaluation<br />

sur le contenu diagnostic des images comprimées. Nous avons conduit une première<br />

campagne d’évaluation basée sur les interprétations diagnostiques d’<strong>angiographies</strong><br />

complètes avec ou sans <strong>compression</strong>.<br />

Ces trav<strong>aux</strong> ont fait l’objet d’une rédaction en anglais en vue de leur communication au sein<br />

de la Société Philips, et en vue d’une publication qui sera soumis dans les prochains mois<br />

dans une revue cardiologique.<br />

Cette étude a été présentée au congrès de la Société Européenne de Cardiologie en Août<br />

1995.<br />

Lossy Data Compression of Digital Cardiac Angiograms: Clinical<br />

Evaluation of the Image Quality.<br />

1. INTRODUCTION<br />

The assessment of images of the heart or of the coronary arteries for diagnostic purposes or<br />

to determine the feasibility of therapeutic interventions is usually based on cine-film<br />

recordings. Even when the catheterization laboratory images were originally digitized, they<br />

are still not stored in a digital format due to technological and financial constraints: a standard<br />

cardiac angiogram comprises 1000 to 3000 images, representing 250 to 750 Mega Bytes for<br />

512x512 pixel images coded in 8 bits. Image data <strong>compression</strong> is necessary to achieve fully<br />

digitized archiving of cardiac angiography and to enable images to be transmitted via<br />

networks.<br />

Real time lossless data <strong>compression</strong> has already been available for several years on the<br />

Philips Digital Cardiac Imaging (DCI) system. It doubles the disk capacity of the angiography<br />

system. But this additional capacity is still not sufficient to store the daily work load of a<br />

catheterization laboratory. Lossfree <strong>compression</strong> is generally associated with reduction<br />

factors or <strong>compression</strong> ratios (CR) of 2:1 for this type of image [ROOS-88]. This means that<br />

two compressed images can be stored on the same disk space as one single non<br />

compressed image. For full storage of patient image data, we estimated that a <strong>compression</strong><br />

ratio of 8 to 16:1 was necessary. Such CRs are only possible with lossy data <strong>compression</strong><br />

methods, implying that the image is irreversibly changed. One must therefore ensure in<br />

clinical conditions that the diagnostic quality of cardiac angiograms is not altered after lossy<br />

data <strong>compression</strong> .<br />

We performed a study on 18 patients to evaluate whether cardiac angiograms after lossy<br />

<strong>compression</strong> could replace the originals in the working catheterization laboratory<br />

environment. Two <strong>compression</strong> algorithms were assessed with a reduction factor of 12:1: the<br />

- 162 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

standard MPEG technique, and a scheme based on the so called MLOT transform specially<br />

developed for this study. Two observers reviewed separately the digital films. Each patient<br />

angiogram was displayed at least three times in the course of the study, in its original, MPEG<br />

compressed, and MLOT compressed version. The interpretation was performed using the<br />

standard procedures of the Service d'Hémodynamique in the Hôpital Cardiologique, Lille,<br />

France.<br />

2. MATERIALS & METHODS<br />

2.1. Patient selection<br />

The full digital cardiac angiograms of 18 patients were acquired from a mono-plane DCI<br />

system. Each angiogram included a ventriculogram and a coronary angiogram. Only<br />

diagnostic procedures were studied. Purely interventional procedures were not included. If a<br />

diagnostic procedure was followed by an intervention, the intervention images were removed.<br />

Patients with normal coronary arteries, with single, double, or triple vessel disease were<br />

studied.<br />

2.2. Image selection<br />

In Lille, a diagnostic examination follows a standardized format. The left ventriculogram is<br />

obtained in the 9" Image Intensifier (I I) mode with a Right Anterior Oblique 30° projection<br />

(RAO-30); sometimes a Left Anterior Oblique 45° (LAO-45) is also performed. The left<br />

coronary artery is filmed in the 7" I I mode in six projections: RAO-30, RAO-15/Ca15 (Ca<br />

means caudal), RAO-10/Cr15 (Cr means cranial), RAO-10/Cr40, LAO-55/Cr25, and LAO 90.<br />

The right coronary is viewed in the 7" I I mode in three projections: LAO-90, LAO-45, RAO-<br />

45. Sometimes artery segments are magnified in 5" I I mode or filmed in other projections in<br />

order to further assess a lesion. The film speed is always 12.5 images per second for both<br />

the LV and coronary imaging. We removed some images of no diagnostic use such as those<br />

with no contrast medium, resulting in an average number of images per patient of 580,<br />

ranging from 430 to 740; this is rather low compared to many catheterization laboratories<br />

where the acquisition speed is higher. Images were exported from a DCI system into a Sun<br />

platform with the PMSnet TM networking. They were converted from their ACR-NEMA format to<br />

Unix files and stored on digital tapes.<br />

2.3. Image processing<br />

All images from the 18 patient angiograms were compressed and reconstructed with the<br />

MPEG and MLOT algorithms, at a <strong>compression</strong> ratio of 12:1 We will later refer to MPEG 12 or<br />

MLOT 12 compressed images or angiograms. In this paper the word "compressed" refers to an<br />

image after it has been compressed and reconstructed. Strictly speaking, the compressed<br />

image is a binary file of small size that cannot be visualized; the reconstructed image is a<br />

pixel file with the same size as the original and which can be visualized. The words<br />

coded/coding are have here the same meaning as compressed/<strong>compression</strong>.<br />

Block-based transform coding is currently the most widespread lossy <strong>compression</strong> technique.<br />

Some standards are now commonly used. The Moving Picture Experts Group (MPEG) has<br />

proposed a video <strong>compression</strong> standard for multimedia applications [LEGA-91]. Briefly, the<br />

- 163 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

redundancy from one frame to the other is reduced by a block-based motion compensation;<br />

the spatial or intra-frame redundancy is reduced by quantizing the frequency components<br />

derived from a particular mathematical transform of the image pixels: the block Discrete<br />

Cosine Transform (DCT). A disadvantage of block-based <strong>compression</strong> lies in the fact that<br />

individual blocks become visible at high <strong>compression</strong> ratios. This is particularly true for<br />

medical images and cardiac angiograms because of the viewing conditions. The latter tends<br />

to enhance the contours of the vessels, and in the same time the block boundaries. To<br />

overcome the so-called "blocking effect" or "block artifact", a dedicated algorithm was<br />

investigated. It is an intra-frame coding based on the Modified Lapped Orthogonal Transform<br />

(MLOT) [BREE-94]. In the process of transforming the pixels from spatial gray values into<br />

frequency coefficients, some information from adjacent blocks is used. This does not<br />

generate blocking in the reconstructed image. In the development of the MLOT algorithm, the<br />

quantization of frequency coefficients has been adapted to the viewing conditions of the<br />

catheterization laboratory, and especially to the edge enhancement applied by default in the<br />

digital cardiac angiography DCI system. This edge enhancement is a convolution filter. It<br />

increases the medium and high frequencies of the image. This makes the vessel contours<br />

and the small vessels more visible, at the cost of increasing the visibility of the image noise<br />

and ... enhancing some <strong>compression</strong> artifacts.<br />

2.4. Observers and viewing sessions<br />

Non-compressed and compressed angiograms were interpreted by two observers: two<br />

experienced angiographers and interventionalists, one junior and one senior. The viewing<br />

sessions took place in the normal clinical environment. A viewing system was built and<br />

installed there for the study; it has exactly the same operator console and display devices as<br />

the catheterization laboratory DCIs. Typically, a viewing session took 45 minutes, the time<br />

needed to review, interpret and report on 9 patient angiograms. Of the 9 sets of patient<br />

images reviewed in a single session, some were original, some were MPEG 12 and some were<br />

MLOT 12 ; the observer was not informed which was which. In the course of the study, both<br />

observers interpreted separately the 18 original angiograms, the 18 MPEG 12 and the 18<br />

MLOT 12 ones. In addition, 5 original, 5 MPEG 12 , and 5 MLOT 12 angiograms were also<br />

reviewed a second time to analyse the intra-observer variability. Ideally we should have<br />

repeated all 18 originals, 18 MPEG 12 and 18 MLOT 12 angiograms but this was impossible for<br />

time constraints. About 35 000 images were handled for this study. Finally, 69 angiograms<br />

were interpreted by the two observers, resulting in a total of 138 interpretations.<br />

Observers were free to review each film at their own pace, to move forward and backward<br />

and change the speed. But changing the post-processing settings was not allowed, such as<br />

applying zoom, increasing the default edge enhancement, changing contrast and brightness.<br />

All these have an influence on the visibility of <strong>compression</strong> artifacts, especially for MPEG,<br />

and it would be a non-reproducible factor making the analysis of our data very difficult.<br />

2.5. Diagnostic task<br />

In interpreting the angiograms of this study, observers were asked to do the same diagnostic<br />

task as in the clinical practice at their Cardiology Department. A sheet was derived from the<br />

information recorded after every catheterization laboratory procedure. This sheet or<br />

diagnostic questionnaire included the interpretation of the left ventricle and the coronary<br />

arteries (see appendix). The cardiologists had to locate and grade the abnormalities of the LV<br />

and the coronary artery segments. The segments were classified using the CASS system<br />

- 164 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

currently used in the Department. No patient information was provided, the diagnostic<br />

questionnaires were filled in using the image information only.<br />

Briefly, the diagnostic tasks performed on the angiograms by cardiologists consists in<br />

assessing the Left Ventricle (LV) function, and the presence and severity of coronary<br />

disease. The ventriculogram shows the dynamics of the LV. If an LV segment does not<br />

contract properly, the ability of the heart to eject blood to the body is reduced. Doctors judge<br />

the contraction patterns of the LV walls. Absence of contraction is in many cases due to<br />

coronary disease. The coronary arteriogram shows the coronary arteries lumen. Doctors look<br />

for narrowing, partial or total occlusions of the main coronary branches.<br />

3. Statistical analysis<br />

3.1. Introduction<br />

Angiography is generally considered as the definitive procedure for coronary disease. The<br />

only standard available for assessing the diagnostic value of a compressed angiogram is the<br />

non-compressed angiogram. We compare a new imaging technique with an established one<br />

to see whether they agree sufficiently for the new to replace the former. Comparing the new<br />

technique with the "true" diagnostic is not possible. The main objective for the statistical<br />

analysis of the diagnostic questionnaires was to assess the degree of agreement between<br />

the compressed and the original angiograms. The protocole of this study is novator in many<br />

respects: review of digital angiogram on a catheterization laboratory system, not a computer;<br />

assessment of the diagnostic quality of full cardiac angiograms; use of the ordinary diagnostic<br />

tasks. We had to design a new approach in order to assess the impact of lossy data<br />

<strong>compression</strong> on the cardiologists' diagnostic from cardiac angiograms. An exam consists of<br />

diagnostic tasks, for the LV and the coronary artery. We have analyzed them separately.<br />

3.2. Analysis of the LV interpretations<br />

The LV segments assessed for the diagnostic questionnaire were the anterior, apical, inferior<br />

and lateral ones. For each segment, the observers had to classify wall motion as: "normal",<br />

"akinetic", "hypokinetic", "dyskinetic". This type of rating is categorial. An appropriate<br />

measurement of agreement for this type of data is the kappa introduced by [COHE-60] and<br />

described by [FLEI-81]. Kappa compares the degree of agreement between two ratings with<br />

the agreement from chance alone; it sample estimate is denoted here k,^. If there is complete<br />

agreement k,^=1; if the observed agreement is greater than chance k,^ >0; if it is less than<br />

chance k,^


Chapitre II-2: Première étude d’évaluation diagnostique<br />

3.3. Analysis of the coronary angiogram interpretations<br />

On each diagnostic questionnaire, the observers graded 15 coronary segments and 4<br />

possible grafts. The vessel diameter narrowing were graded from 0 (normal) to 5 (occlusion),<br />

with 3 sub-divisions for occlusion using the TIMI system. A correspondence of the grades and<br />

percent stenosis is given in table 7, section 3-3-1<br />

Like for the ventriculograms, we had to estimate the agreements between the interpretations<br />

of original and compressed films, or between the interpretations of observer 1 and observer<br />

2. The rating is here ordinal and will be treated like a numerical value. As explained in section<br />

3-3-1, we had to modify the grades into global scores for the main coronary branches.<br />

Nevertheless, the principle of the analysis remained unchanged.<br />

For comparing interpretations, the first step was to plot the data of one set of interpretations<br />

versus the data of the second set. If the interpretation of each patient were all identical, all<br />

the points would fall on the line of equality. A simple observation of the data on such a plot is<br />

very informative.<br />

The second step is to summarize the agreement gauged by the eye into an appropriate<br />

statistics. A natural approach seems to be the estimate of the Pearson correlation coefficient<br />

r but it is misleading here [BLAN-86], [LIN-89]. The Pearson correlation coefficient measures<br />

the strength of a linear relationship between two sets of grading, not the agreement between<br />

them. Another widespread method is the paired t-test. It evaluates whether the estimated<br />

means of the two sets of grading are equal, this may be true even with a very poor<br />

agreement.<br />

We chose a concordance correlation coefficient ρ c proposed by Lin [LIN-89]. It evaluates the<br />

degree to which pairs of grading fall on the line of equality. It is scaled between -1 and +1. +1<br />

is the perfect agreement, -1 the perfect reversed agreement, and 0 the absence of<br />

agreement (i.e. the grading are independent). We computed the estimates r c and derived the<br />

confidence intervals from the estimates of the variance s ² , rc under a gaussian assumption.<br />

4. RESULTS<br />

4.1. Image quality judgements<br />

Observers reviewed original and compressed angiograms. They were aware of this fact and<br />

had been informed of the purpose of the study. But to their surprise they were never able to<br />

tell whether a film was compressed or not, they could see nothing in the images that would<br />

make <strong>compression</strong> distinguishable, neither for MPEG, nor for MLOT. This is a very important<br />

qualitative result: in the default viewing conditions of the catheterization laboratory, MPEG or<br />

MLOT <strong>compression</strong> at a <strong>compression</strong> ratio of 12:1 were not detected by the doctors.<br />

A side item was asked in the diagnostic questionnaire: observers had to give their global<br />

opinion of the image quality on a three-point scale (good, average, poor). The grade "poor"<br />

was never used for any of the 138 diagnostic questionnaires, and the grade "good" was the<br />

most common. On 46 interpretations of the original angiograms, 7 were "average"; on 46<br />

interpretations of the MPEG 12 angiograms, 12 were "average"; and on the 46 interpretations<br />

of the MLOT 12 , 8 were "average". The MPEG 12 films seem to be slightly worse than the<br />

original and MLOT 12 ones, but this differences are not statistically significant (χ² test :<br />

- 166 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

p>0.10). The observed numbers of "average" on original, MPEG 12 or MLOT 12 are not<br />

statistically different.<br />

The opinion of the investigators, who have a technical background, provides an additional<br />

qualitative result. To their eyes the MPEG 12 films could be recognized because some<br />

blocking structures were clearly visible in the background of the images. This was probably<br />

not noted by the doctors as there is no diagnostic information in the background. During<br />

dynamic viewing it gave the impression of moving square patterns, and a horizontal and<br />

vertical texture could be seen on still frames. As the actual frequency contents of each block<br />

is different and as blocks are coded separately, one can see that some blocks are more<br />

blurred than others. Moreover, a slight haziness can be seen on MPEG 12 images for tiny<br />

vessels. It is harder to see in large vessels in the default viewing conditions.<br />

One can also detect that a film is MLOT 12 coded but this requires much closer attention. Only<br />

a very slight difference in the usual noise pattern or noise texture can be seen.<br />

If the default viewing conditions are changed, by applying zoom for instance, MPEG 12 images<br />

look poor: very "grainy" (blocking effect) and blurred, the contours of large vessels are not<br />

very well defined and would be difficult to draw in a quantization software. Zoomed MLOT 12<br />

images were of good quality, slightly lacking in definition.<br />

4.2. Left ventricle interpretations<br />

4.2.1. Introduction<br />

The two cardiologists assessed four LV segments (anterior, apical, inferior, lateral). The<br />

lateral segment is only seen in the LAO-45 projection which was performed in only 4 of the 18<br />

patient angiograms. Thus data for the lateral segments was not analyzed. The category<br />

"dyskinetic" was never used by the observer and will not appear in the analysis.<br />

Classification of abnormalities on medical images is subject to inter and intra-observer<br />

variability. We focused on assessing whether the possible variability caused by lossy data<br />

<strong>compression</strong> in the ventriculogram interpretations was comparable to the observer variability.<br />

4.2.2. Inter-observer agreement<br />

We firstly analyzed the inter-observers agreement resulting from the interpretations of the<br />

original angiograms by the two observers, as shown in table 1. We indicated “Npatient”, the<br />

number of patients interpreted for each LV segment; “Ndisag”, the number of disagreements;<br />

the kappa estimate, and “p”, the p-value from the test of independence.<br />

- 167 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

observer 1: original / observer 2: original<br />

LV segment Npatient Ndisag k,^ p<br />

Anterior 18 2 0.73


Chapitre II-2: Première étude d’évaluation diagnostique<br />

The kappa estimates are statistically significant (the agreement is beyond chance alone),<br />

except on the inferior segment when observer 1 interprets the originals and observer 2 the<br />

MPEG 12 films (p=0.089) . The kappa estimates seem globally smaller when one of the two<br />

interpretations was done on compressed films than when they were both on originals. For<br />

each LV segment, we tested whether the estimated kappa values from original and<br />

compressed interpretations were statistically significant. The results from these tests is given<br />

hereafter for the following sets of kappas:<br />

- k,^ from originals by both observers, k,^ from interpretations on originals by observer 1 and<br />

on MPEG 12 by observer 2, k,^ from interpretations on MPEG 12 by observer 1 and original by<br />

observer 2;<br />

the three underlying values of kappa are not statistically different (p>0.25);<br />

- k,^ from originals by both observers, k,^ from interpretations on originals by observer 1 and<br />

on MLOT 12 by observer 2, k,^ from interpretations on MLOT 12 by observer 1 and original by<br />

observer 2;<br />

the three underlying values of kappa are not statistically different (p>0.25);<br />

- k,^ from originals by both observers, k,^ from MPEG 12 by both observers, k,^ from MLOT 12<br />

by both observers;<br />

the three underlying values of kappa are not statistically different (p>0.25)<br />

There is no statistically significant difference in the inter-observer agreement from the original<br />

and the MPEG 12 films, or from the original and the MLOT 12 films, or from the original,<br />

MPEG 12 , and MLOT 12 films.<br />

In conclusion, the agreement between the two observers on the LV segments is globally good<br />

or average, and beyond chance alone. No statistically significant difference in the interobserver<br />

agreement was found, whether the observers both interpreted original angiograms,<br />

whether one of the two observers interpreted compressed angiograms (MPEG 12 or MLOT 12 ),<br />

or whether the two observers interpreted compressed angiograms (MPEG 12 or MLOT 12 ).<br />

4.2.3. Intra-observer agreement<br />

To complete the analysis of the LV diagnostic questionnaire, the intra-observer agreement<br />

could be assessed. Unfortunately the five repeated interpretations realized on the original<br />

angiogram is not sufficient to evaluate the intra-observer agreement on original angiograms<br />

(the problem is identical for the intra-observer agreement on the MPEG 12 and the MLOT 12<br />

angiograms).<br />

We have estimated the intra-observer agreement between the interpretation on originals and<br />

the interpretation on compressed angiogram, as shown in table 6.<br />

- 170 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

Observer 1: original / observer 1: MPEG 12<br />

LV segment Npatient Ndisag k,^ p<br />

Anterior 18 2 0.75


Chapitre II-2: Première étude d’évaluation diagnostique<br />

Diagnostic of the branch Score Max. grade of % stenosis<br />

the segments<br />

NORMAL 0 0 0<br />

NON SIGNIFICANT LESION 1 1 or<br />

2<br />

0-25%<br />

25-50%<br />

SIGNIFICANT LESION 2 3 or<br />

4<br />

50-75%<br />

75-99%<br />

OCCLUSION 3 5 TIMI 2 or<br />

5 TIMI 1 or<br />

5 TIMI 0<br />

slow perfusion of the distal bed<br />

incomplete opacification of the distal bed<br />

total occlusion<br />

Table 7 : Coronary branch scores and segments grades.<br />

Other scores based on the number of diseased segments or on a ponderation of the<br />

segments grades were tested but were of lesser diagnostic meaning. By grouping 15<br />

segments into 3 branches, we reduced the statistical power of the analysis. This is the price<br />

we paid for experimenting this new protocol and staying as close as possible to the clinical<br />

practice. We also switched from a scale of 8 grades to a scale of 4 scores. The objective was<br />

to focus on the major major steps of the diagnostic: first detect a lesion and then classify it as<br />

significant or not. The therapeutic incidence of this decision is high whereas a more refined<br />

classification of the lesion in grade 3 or 4 for example has little consequences. The analysis<br />

reported here is based on the 4-level score we designed. A sharper analysis could also be<br />

conducted by using the maximum segment grade of each branch instead of the score we<br />

designed.<br />

Like for the LV diagnostic questionnaires, we tried to assess whether the potential variability<br />

introduced by lossy data <strong>compression</strong> on the interpretation of coronary arteriograms is<br />

significantly higher than the observers' variability.<br />

4.3.2. Inter-observer agreement<br />

The inter-observer agreement on the interpretation of original coronary angiograms is an<br />

important information. It can be observed visually for each branch on a MLOT: the scores<br />

given by observer 1 on the x axis, and the scores given by observer 2 on the y axis. Ideally,<br />

all points should fall on the line of equality. The degree to which pairs of interpretation fall on<br />

this line is evaluated by the estimate of the Lin concordance correlation coefficient r c . For the<br />

three coronary branches, the inter-observer agreements on originals and their confidence<br />

interval are shown in table 8. We also indicate “N Mdisag ”, the number of so-called major<br />

disagreements (score 0 against score 1 is not a major disagreement), and “N Tdisag ”, the total<br />

number of disagreements (including score 0 against score 1).<br />

- 171 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

observer 1: original / observer 2: original<br />

Coro. branch N patient N Mdisag N Tdisag r c<br />

RCA 18 3 6 0.87±0.12<br />

LAD 18 1 3 0.91±0.08<br />

CX 18 4 7 0.74±0.20<br />

Table 8: Inter-observer agreement on the interpretation of original coronary arteriograms.<br />

The agreement between the two observers in their interpretation of original arteriograms is<br />

good. The agreement of the three coronary branches are not statistically different.<br />

Table 9 and 10 summarize the inter-observer agreements when one observer interprets the<br />

original angiograms and the second observer interprets the compressed angiogram.<br />

observer 1: original / observer 2: MPEG 12<br />

Coro. Branch N patient N Mdisag N Tdisag r c<br />

RCA 18 3 6 0.87±0.12<br />

LAD 18 1 3 0.91±0.08<br />

CX 18 4 7 0.74±0.20<br />

observer 1: MPEG 12 / observer 2: original<br />

Coro. branch N patient N Mdisag N Tdisag r c<br />

RCA 18 3 6 0.85±0.14<br />

LAD 18 1 3 0.87±0.10<br />

CX 18 4 7 0.82±0.02<br />

Table 9: Inter-observer agreement for originals and MPEG 12<br />

observer 1: original / observer 2: MLOT 12<br />

Coro. Branch N patient N Mdisag N Tdisag r c<br />

RCA 18 3 6 0.93±0.06<br />

LAD 18 1 3 0.88±0.10<br />

CX 18 4 7 0.81±0.14<br />

observer 1: MLOT 12 / observer 2: original<br />

Coro. branch N patient N Mdisag N Tdisag r c<br />

RCA 18 3 6 0.89±0.10<br />

LAD 18 1 3 0.85±0.12<br />

CX 18 4 7 0.86±0.12<br />

Table 10: Inter-observer agreement for originals and MLOT 12<br />

These tables show that the total number of major disagreements between the interpretations<br />

by the two observers range from 3 to 7 out 18 pairs of comparisons. The estimates of the<br />

concordance correlation coefficients r c are all in the same range, and no statistically<br />

significant difference can be observed.<br />

In conclusion, lossy <strong>compression</strong> did not change statistically the inter-observer agreements<br />

when one observer interpreted the original and the other interpreted the compressed<br />

angiograms.<br />

4.3.3. Intra-observer agreement<br />

The assessment of intra-observer agreement is a good complement to the preceding<br />

conclusion. We were not able to measure the intra-observer agreements on the original<br />

angiograms because the number of repeated interpretation was too small. Table 11 and 12<br />

show the intra-observer agreement when one observer interpreted the original films and the<br />

second observer interpreted the compressed films.<br />

- 172 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

observer 1: original / observer 2: MPEG 12<br />

Coro. Branch N patient N Mdisag N Tdisag r c<br />

RCA 18 0 1 0.98±0.02<br />

LAD 18 1 2 0.95±0.04<br />

CX 18 0 1 0.97±0.04<br />

observer 1: original / observer 2: MLOT 12<br />

Coro. branch N patient N Mdisag N tdisag r c<br />

RCA 18 0 1 0.98±0.12<br />

LAD 18 2 2 0.94±0.08<br />

CX 18 1 2 0.94±0.20<br />

Table 11: Coronary intra-observer agreements for observer 1.<br />

Observer 1: original / observer 2: MPEG 12<br />

Coro. branch N patient N Mdisag N Tdisag r c<br />

RCA 18 3 5 0.86±0.12<br />

LAD 18 1 2 0.93±0.06<br />

CX 18 4 6 0.65±0.26<br />

observer 1: original / observer 2: MLOT 12<br />

Coro. branch N patient N Mdisag N tdisag r c<br />

RCA 18 0 2 0.94±0.06<br />

LAD 18 0 1 0.97±0.04<br />

CX 18 2 3 0.87±0.12<br />

Table 12: Coronary intra-observer agreements for observer 2.<br />

Table 11 indicates that the intra-observer agreements of observer 1 are very high when<br />

comparing one reading on originals versus one reading on compressed films. The<br />

concordance correlation coefficients r c for intra-observer agreements are higher than the<br />

inter-observer ones and have narrower confidence intervals. The intra-observer agreements<br />

of observer 2 vary with the coronary branch and the <strong>compression</strong> method. The agreement for<br />

the LAD is slightly higher than for the RCA and the CX. Furthermore, observer 2 agrees with<br />

himself less when one reading is on original and the other on MPEG 12 films. For the three<br />

branches, the intra-observer agreement of observer 2 with MPEG 12 is smaller than is<br />

agreement with MLOT 12 . This difference is however not significant. Agreements of observer 2<br />

are smaller than agreements of observer 1.<br />

As a conclusion, the intra-observer agreements are very high for observer 1. The intraobserver<br />

agreements of observer 2 are globally smaller, especially when one of his reading is<br />

made with MPEG 12 films.<br />

5. CONCLUSION<br />

This paper examined the diagnostic use of digital ventriculograms and coronary arteriograms<br />

after lossy image data <strong>compression</strong>. We assessed the performance of a standard algorithm,<br />

MPEG, and a dedicated algorithm, MLOT. MPEG has been proposed by the International<br />

Standardization Organization for multimedia applications and moving pictures. MPEG is<br />

widely used in the computer world and many software and hardware implementations are<br />

available. It has a major drawback due to its underlying principle: blocking artifacts are<br />

introduced by the block decomposition of the image and are made more visible in the<br />

angiograms, due to an edge enhancement processing. To overcome this problem, a new<br />

algorithm, MLOT, was developed by Philips Research. It enables higher <strong>compression</strong> ratios<br />

and is free of blocking artifacts.<br />

- 173 -


Chapitre II-2: Première étude d’évaluation diagnostique<br />

As there is no reliable measure to predict the visual quality of an image judged by an<br />

observer, the assessment of the diagnostic quality of compressed angiograms must be<br />

conducted. An evaluation study was done at the Lille Cardiology Hospital with the digital<br />

angiograms from 18 patients, and with two expert cardiologists. They interpreted the original<br />

and the compressed films blindly and separately. Two <strong>compression</strong> algorithms were applied:<br />

MPEG and MLOT, both at a <strong>compression</strong> ratio of 12:1. The study protocol was original<br />

because it was based on the ordinary clinical practice, which implied the use of complete<br />

angiograms (hundreds of images per case). A diagnostic questionnaire was used to record<br />

the observers’ interpretations on the left ventriculogram and the coronary arteriogram. The<br />

statistical analysis was based on measures of observers’ agreement.<br />

It is noteworthy that the observers were not able to detect the presence of <strong>compression</strong> on<br />

any of the reviewed films.<br />

The left ventricle agreements were measured with the kappa statistics. Inter-observer<br />

agreements were good or average, and above chance alone. No statistically significant<br />

difference were found for the inter-observer and intra-observer agreements with or without<br />

<strong>compression</strong>.<br />

The coronary agreements were measured with a concordance correlation coefficient<br />

introduced by Lin [LIN-89]. Inter-observer agreements were good and intra-observer<br />

agreements were excellent. No statistically significant difference was found for the intraobserver<br />

agreements with or without <strong>compression</strong>. One of the two observer has slightly lower<br />

intra-observer agreements, especially with MPEG.<br />

This study gives promising results about the application of lossy data <strong>compression</strong> on cardiac<br />

angiograms. More studies should confirm these findings with a stronger focus on intraobserver<br />

agreement than our protocol allowed. Complementary type of work are:<br />

- apply the same type of protocol (addressing intra-observer agreements) at a different site<br />

(other acquisition equipment, other observers),<br />

- assess the influence of viewing parameters such as zoom, edge enhancement, contrast or<br />

brightness,<br />

- evaluate the results of quantitative coronary analysis on compressed images.<br />

- 174 -


CHAPITRE II-3<br />

DEUXIEME ETUDE D’EVALUATION<br />

DIAGNOSTIQUE<br />

- 175 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

Préliminaires<br />

Pour compléter les résultats de la campagne d’évaluation dans un centre européen, nous<br />

avons travaillé avec un site américain. Nous souhaitions savoir si les premiers résultats se<br />

confirmeraient avec un autre système d’acquisition, et si la <strong>compression</strong> était tout aussi bien<br />

acceptée par les cardiologues outre Atlantique. Quelques nuances culturelles entre pays<br />

aboutissent à des préférences différentes quant <strong>aux</strong> paramètres d’acquisitions et de posttraitements<br />

utilisés. Par exemple <strong>aux</strong> Etats-Unis, le filtre de renforcement de contour des<br />

systèmes DCI est légèrement différent car les utilisateurs préfèrent une image un peu moins<br />

bruitée.<br />

Nous avons amélioré notre protocole expérimental en deux points:<br />

- une précaution du superviseur des sessions d’interprétation a permis d’éviter le problème<br />

de localisation anatomique des segments d’artères coronaires,<br />

- des interprétations répétées sur tous les origin<strong>aux</strong> ont permis de mesurer les accords interobservateurs<br />

sur les origin<strong>aux</strong>, qui constituent la référence.<br />

L’analyse des données de cette seconde campagne d’évaluation a été axée sur les accords<br />

intra-observateurs uniquement.<br />

Ces trav<strong>aux</strong> ont fait l’objet d’une rédaction en anglais en vue de leur communication au sein<br />

de la Société Philips, et car ce document a servi de base pour une publication qui sera<br />

prochaînement soumise à Circulation [KIRK-97].<br />

Cette étude a été présentée comme poster au congrès de l’American Colledge of Cardiology<br />

en mars 1997.<br />

Lossy data <strong>compression</strong> does not alter visual interpretation of<br />

digital coronary arteriograms<br />

1. Introduction<br />

Digitization of angiography images has become one of the key technologies enabling<br />

diagnostic and interventional procedures of catheterization laboratories. There is a general<br />

consensus about the advantages of digital imaging, [NISS-94], but cine-less cardiac<br />

catheterization departments remain a technological, financial, and legal challenge. In order to<br />

replace cine-film, a digital system must fulfill its three main functionality: archiving, dynamic<br />

review, and exchange. Technologies allowing the replacement of cine-film at a reasonable<br />

cost are emerging, but image data <strong>compression</strong> is currently a necessary step. Compression<br />

can reduce the number of bits required to represent a digital image, and therefore reduce the<br />

storage space, the access time from a medium, or the speed of transmission on a network.<br />

Lossless <strong>compression</strong> is completely reversible but only permits <strong>compression</strong> ratios (CR) of<br />

2:1 to 3:1, i.e. the coded bit stream of the compressed image occupies 2 to 3 times less<br />

storage space than the original pixel stream. Such CRs are insufficient for applications like<br />

dynamic review of angiographic sequences from current CD media, or transmission at a<br />

reasonable speed over standard computer networks. Lossy <strong>compression</strong> achieves higher<br />

CRs and is useful for fully digital cardiac catheterization laboratory departments, but changes<br />

the digital representation of the image in an irreversible manner.<br />

- 176 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

The key question addressed in this paper is whether a digital cardiac angiography case after<br />

lossy <strong>compression</strong> can be used for the clinical work based on visual interpretation. Though it<br />

is an open research topic [ESKI-95], [COSM-93b], there is no usable measure to predict the<br />

visual or diagnostic quality of an image. Therefore, statistical comparisons based on image<br />

interpretation by cardiologists with and without <strong>compression</strong> are necessary. We conjectured<br />

that for a reasonably chosen <strong>compression</strong> ratio, the objective degradation introduced by lossy<br />

<strong>compression</strong> does not alter the diagnostic content of images, and we conducted a<br />

reproducibility study based on the visual interpretation done by angiographers.<br />

In designing this study, our goal was to stay as close as possible to the normal clinical<br />

practice of diagnostic work in the catheterization laboratory. Case review and interpretation<br />

was done on exactly the same view station as in the routine work. We used complete patient<br />

angiograms that were reviewed and interpreted individually by observers. This is a unique<br />

design for a <strong>compression</strong> assessment study. To our knowledge, few <strong>compression</strong> studies<br />

were done on cardiac angiograms [ECKS-95], [RIGO-96]. These studies were based on<br />

sequences of images isolated from the complete case angiogram, or on static frames.<br />

Twenty four angiograms containing a left ventriculogram and a coronary arteriogram were<br />

reviewed by four angiographers. Two <strong>compression</strong> methods were assessed, the standard<br />

JPEG technique and an advanced technique called MLOT. For both methods, a <strong>compression</strong><br />

ratio of 12:1 was used. We will refer to JPEG-12 and MLOT-12 for images compressed and<br />

reconstructed with JPEG at a CR of 12:1, and with MLOT at a CR of 12:1, respectively. The<br />

digital angiograms were compressed with JPEG and MLOT. Original, JPEG, and MLOT<br />

digital films were blindly presented to the angiographers. During several viewing sessions<br />

each observer reviewed and interpreted all angiograms four times with a different image<br />

treatment: once as Original, once as a Repeat of the original, once as JPEG-12 and once as<br />

MLOT-12. Statistical comparisons of intra-observer agreements without and with<br />

<strong>compression</strong> were derived from the LV-grams and coronary arteriogram interpretations.<br />

2. Methods<br />

2.1. Angiography<br />

The 24 angiograms selected randomly from the normal catheterization work were those of 14<br />

males and 10 females whose age ranged from 38 to 77 years (mean 57.2 ± 11.4). The BSA<br />

ranged from 1.52 to 2.37 m 2 (average 2.01 ± 0.2 m 2 ).<br />

The 24 angiograms were diagnostic procedures only, or combined diagnostic and<br />

interventional procedures out of which only the diagnostic runs were kept. All the digital films<br />

included a left ventriculogram and a coronary arteriogram.<br />

The digital angiograms were copied from two Philips bi-plane DCI systems. The DCI images<br />

were 512x480 pixels images with a depth of 8 bits/pixel. They were acquired at 30<br />

frames/sec.<br />

- 177 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

2.2. Images<br />

2.2.1. Images selection and transfer<br />

After the angiographic procedures, the images were reviewed on the DCI consoles by the<br />

study supervisor. He unselected runs of no clinical value for visual interpretation (i.e., missed<br />

injections, lead markers...) and images in the runs with no contrast medium at all. The<br />

purpose was to remove of the digital copies the completely irrelevant images and to save<br />

transfer time or computer storage capacity for the study. This did not result in “clinical<br />

<strong>compression</strong>”, or removal of clinical data, as only images with absolutely no inherent<br />

diagnostic information were removed. The selected images were transferred via a<br />

PMSnet/Ethernet link onto a Sun station where they could be copied on digital tapes.<br />

The digital tapes were sent to Philips Medical Systems laboratories in Best, The Netherlands.<br />

All the images of the angiograms were compressed and reconstructed. Four cases were<br />

created per angiogram: the Original, the Repeat, the JPEG-12 and the MLOT-12.<br />

2.2.2. Image treatments<br />

Various lossy data <strong>compression</strong> methods have been investigated over the past decade in the<br />

field of radiology imaging [WONG-95]. The choice of a <strong>compression</strong> technique is difficult. It is<br />

admitted that the JPEG image industry standard is not be the best solution for medical<br />

images. Compression methods better suited to this field are numerous, but suffer from<br />

absence of widely spread hardware and software implementations. We chose to evaluate the<br />

JPEG method, and to investigate a presumably better method for medical application that<br />

would be suitable for hardware implementation.<br />

JPEG or Joint Photographic Expert Group is an industry standard for still image <strong>compression</strong><br />

[PENN-93]. It is a block-based <strong>compression</strong> method: the image is first divided into adjacent<br />

blocks of 8x8 pixels. Then blocks are compressed by applying particular mathematical and<br />

rounding techniques. At high <strong>compression</strong> factors, the block-based JPEG <strong>compression</strong><br />

method yields visible block boundaries in the image, called blocking artifacts. JPEG was<br />

optimized for photographs of the consumer market, not for medical images. With cardiac<br />

angiography images, and in the viewing conditions of the cath lab systems, blocking artifacts<br />

are quite visible with JPEG at <strong>compression</strong> factors above 8:1. Three unfavorable conditions<br />

play a role in the visibility of the artifacts: the nature of the image itself (very different from<br />

photographs), the high luminosity output of the B/W medical monitors used on cardiac<br />

systems, and edge enhancement image processing used to make the vessel contours more<br />

visible.<br />

To overcome blocking artifact, a novel method called MLOT was developed [BREE-94]. The<br />

mathematical and rounding technique differs from JPEG because it uses information from<br />

adjacent blocks. In addition, we found that for cardiac angiographic images, the best block<br />

size was 32x32 and not 8x8. Several parameters in the MLOT method were optimized for<br />

cardiac angiography images, and can easily be adapted to other medical modalities [HEUS-<br />

95].<br />

2.2.3. Film review<br />

After <strong>compression</strong> of the digital films, a randomization scheme was used in order to<br />

determine the content of the viewing sessions. Each viewing session contained 4 to 5 cases.<br />

Consecutive viewing sessions were separated by at least one week. All the cases of a<br />

- 178 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

session were from different patients, and the occurrence of a patient was not possible in two<br />

consecutive sessions, to avoid a learning effect. Amongst the cases of a session, some were<br />

Originals, Repeats, JPEG-12 or MLOT-12. One tape was created per session and labeled<br />

according to its session number.<br />

The tapes were sent to Houston where the supervisor and the observers were blinded about<br />

their content. The supervisor loaded the cases of each session tape on a DCI system and<br />

organized viewing sessions with the 4 observers separately.<br />

The review station hardware was a Philips DCI with exactly the same operator console and<br />

display monitors as the clinical DCI of the acquisition cath labs. The study DCI had some<br />

extra disc capacity, which was needed for the purpose of having 4 to 5 cases.<br />

During a session, the observer reviewed each digital film at his own pace. He could use the<br />

wheel of the DCI operating console to play forward, backward, or change the viewing speed.<br />

The observer was asked not to use the image post-processing (change edge enhancement,<br />

contrast, brightness, or zoom) as we found that they have a strong influence on the visibility<br />

of <strong>compression</strong> artifacts. Making artifacts more visible on some images, for some observers,<br />

was a possible source of bias.<br />

2.3. Data collected during review<br />

2.3.1. Segment classification<br />

The observers were asked to assess the degree of abnormality of LV and coronary<br />

segments. For the left ventricles, the wall segments were: anterior, apical, inferior, lateral, and<br />

septal. The LV wall motion was classified by observers as: normal, hypokinetic, akinetic,<br />

dyskinetic, or N/A. For the coronary arteries, the vessel segments were the 15 segments (no<br />

graft were present) of the CASS system [CASS-81]. Figure 1 illustrates the segments<br />

classification. The coronary segments were graded by the observers as: normal, irregular,<br />

mild, moderate, severe, occluded, or N/A.<br />

LMCA<br />

LAD pro<br />

LAD mid<br />

RCApro<br />

LCX pro<br />

LAD dis<br />

RCAmid<br />

LCX dis<br />

LCX OM1<br />

RCA dis<br />

RCA<br />

PDA<br />

Figure 1: Coronary vessel segmentation<br />

- 179 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

We had noticed, in a previous unpublished study [BERE-95b], that a very important<br />

discrepancy in the location of coronary segments is common with angiographers. This<br />

observer effect could greatly modify the results of this study for a reason independent of the<br />

<strong>compression</strong>. For example, if a lesion was scored severe on the RCA mid during a first<br />

review and then positioned on the RCA distal during a second review, the comparison of the<br />

two scores indicates high degree of disagreement (RCA mid: severe vs. normal, RCA distal:<br />

normal vs. severe).<br />

We chose a protocol free of observer location discrepancies to determine if the scoring of<br />

coronary lesions was modified by <strong>compression</strong>. During the review sessions, doctors pointed<br />

on the screen the location of the lesions they observed, and scored them. The supervisor<br />

recorded the lesion score and noted its location. Once the doctors had pointed all the lesions<br />

they would normally report in their routine diagnosis, the remaining segments were reviewed<br />

systematically and their score recorded. To remain consistent in the segment location of a<br />

patient, the supervisor made a map of the coronary tree by printing images from the main<br />

views and determining the anatomical location of segments. A single map per patient was<br />

used for the four occurrences of his film throughout the viewing sessions.<br />

2.3.2. Scoring sheet<br />

The study supervisor collected a scoring sheet for all the cases reviewed during a session.<br />

The sheet contained the LV-gram subjective image quality appreciation, the LV segments<br />

disease categories, the arteriogram subjective image quality, the artery segments disease<br />

scores. For both LV and coronary segments, the category N/A was used when the observers<br />

were not able to give a score: absence of adequate projection, poor contrast injection, poor<br />

image quality, etc...<br />

2.4. Data analysis<br />

Numerous <strong>compression</strong> studies in radiology are based on the Receiver Operating Curve<br />

(ROC) methodology [SWET-79], [METZ-86]. We did not chose this method because it<br />

involves a detection and/or classification task that differs a lot from the usual practice of<br />

cardiac angiogram interpretation, and because it partially addresses diagnostic tasks with<br />

multiple location and classification of disease.<br />

This <strong>compression</strong> study was based on the assessment of intra-observer agreements. We<br />

compared the interpretations of the four cardiologists by assessing Original vs. Repeat (O vs.<br />

R), Original vs. JPEG-12 (O vs. J), and Original vs. MLOT-12 (O vs. M) agreements. The O<br />

vs. R agreement values were used as a base of comparison, and represent the inherent<br />

observer agreements. They were compared to the O vs. J, and O vs. M agreements. The<br />

rational is the following: if <strong>compression</strong> modifies the diagnostic interpretation, the O vs. J or<br />

the O vs. M agreement values will significantly differ from the O vs. R value.<br />

The observer agreement values were derived from contingency tables. Observers’<br />

agreements of the LV-grams interpretation were measured by the kappa statistic [COHE-50],<br />

[FLEI-81] because of the categorial nature of the data (normal, hypokinetic, akinetic,<br />

dyskinetic). The scoring of the coronary artery was a discrete numerical data (1=normal,<br />

2=irregular, 3=mild, 4=moderate, 5=severe, 6=occlusion). Proportion of agreement were<br />

measured. A concordance correlation coefficient proposed by Lin [LIN-89] was utilized. This<br />

coefficient indicates how two pairs of readings differ from the identity line i.e. from perfect<br />

agreement. A Lin coefficient of 1 denotes perfect agreement, of 0 total absence of<br />

agreement, of -1 perfect reversed agreement. In contrast, the Pearson correlation coefficient<br />

- 180 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

only indicated how two pairs of reading differ from a line: a Pearson coefficient of 1 despite<br />

systematic disagreement is possible.<br />

3. Results<br />

3.1. Ventriculograms<br />

3.1.1. Side by side comparisons. (O-J-L)<br />

Figure 2 shows side by side the enlarged part of a left ventricle image with the three following<br />

image treatments: original, JPEG-12, MLOT-12. In pilot experiments, we tried several<br />

<strong>compression</strong> factors. The JPEG images could be distinguished visually from the original for a<br />

<strong>compression</strong> of 8:1 and higher. In contrast, the MLOT was distinguishable from the original<br />

for <strong>compression</strong> factors of 12:1 and higher. Increasing the <strong>compression</strong> factor with JPEG<br />

makes the blocking artifacts more and more visible, and removes sharpness of vessel details.<br />

Increasing the <strong>compression</strong> factor with MLOT decreases the sharpness of fine details, and a<br />

slightly changes the texture of the background. We found that the JPEG image quality<br />

became quite degraded visually for <strong>compression</strong> factors of 16:1 and higher, and doctors who<br />

saw some examples did not feel satisfied by the visual appearance of such images, whereas<br />

MLOT was still acceptable. These visual and subjective preliminary tests led us to chose a<br />

<strong>compression</strong> factor of 12:1 for the study.<br />

(a) (b) (c)<br />

Figure 2: Comparison of an original (a), JPEG-12 (b), and MLOT-12 (c) image of left<br />

ventricle (enlarged).<br />

- 181 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

3.1.2. LV-gram quality and docs comments on perceptual quality<br />

Observers gave their subjective and perceptual judgment of the quality of ventriculograms.<br />

Table 1 gives the percentage of ventriculograms judged as “good”, “fair”, and “poor” by the<br />

four observers. The perceived quality of left ventriculogram is statistically independent of the<br />

image treatment (chi-2 test, p=0.42).<br />

LV-gram Original Repeat JPEG-12 MLOT-12 Average<br />

Good 88% 84% 86% 81% 85%<br />

Fair 6% 9% 4% 13% 8%<br />

Poor 0% 0% 0% 0% 0%<br />

N/A 6% 6% 9% 6% 7%<br />

Table 1: Perceptual quality of ventriculograms: percentage of segments judged good,<br />

fair, poor or N/A. For each treatment N=96 and for the average N=384<br />

In addition to scoring the image quality on the rough 3-points scale reported here, observers<br />

freely commented the quality of the films they were reviewing. Despite their blindness<br />

regarding <strong>compression</strong>, they could often tell that a film was compressed, especially with<br />

JPEG. However, non of the films reviewed was considered as inappropriate for diagnosis.<br />

Poor image quality was mainly reported as due to procedural imperfection, like inadequate<br />

view, poor contrast injection. Procedural errors were reported as more annoying than the<br />

<strong>compression</strong> artifacts. Some of the JPEG films were qualified as grainy, with square patterns,<br />

and sometimes with unsharp vessel contours. About the MLOT films, it was sometimes noted<br />

that there appeared to be a veil in the background. Globally, if any artifact was perceived, it<br />

was said to require additional attention to interpret the film, never to hamper the<br />

interpretation.<br />

3.1.3. Location of LV abnormalities<br />

The spectrum of abnormality categories for each LV segment on Original and Repeat films is<br />

given in Table 2. For each segment N=192 (4 doctors x 24 patients x 2 image treatments)<br />

and for the average N=960 (id x 5 LV segments). A large majority of LV segments were<br />

scored normal (66%). The inferior wall shows slightly more abnormalities than the others.<br />

LV Normal Hypokinetic akinetic Dyskinetic N/A<br />

Segment<br />

Anterior 66% 25% 4% 3% 3%<br />

Apical 66% 19% 4% 6% 4%<br />

Inferior 52% 30% 14% 1% 3%<br />

Lateral 77% 19% 1% 1% 3%<br />

Septal 68% 18% 4% 2% 8%<br />

Average 66% 22% 5% 2% 4%<br />

Table 2: Distribution of the LV categories of abnormality from Original and Repeat<br />

films.<br />

- 183 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

3.1.4. Distribution of abnormalities per image treatment<br />

Table 3 shows the proportion of abnormality categories for each image treatment. The<br />

observers were able to give a score for 92% to 98% of all uncompressed LV segments<br />

reviewed. If image <strong>compression</strong> yielded a fair amount of degradation of the image quality, a<br />

possible effect would be an increase of the number of non analyzable segments. The<br />

proportion of N/A segments is not significantly different for the four image treatments. An<br />

other possible effect of <strong>compression</strong> on LV assessment could be a change of the distribution<br />

of abnormalities distribution on compressed images. The LV category is independent of the<br />

image treatment (chi-2 test, p=0.43).<br />

LV Segment Original Repeat JPEG-12 MLOT-12 Average<br />

Normal 65% 67% 68% 66% 66%<br />

Hypokinetic 23% 22% 21% 22% 22%<br />

Akinetic 5% 6% 6% 4% 5%<br />

Dyskinetic 3% 2% 2% 1% 2%<br />

N/A 5% 3% 3% 7% 5%<br />

Table 3: Proportion of LV abnormality category per image treatment.<br />

3.1.5. Agreement tables<br />

Intra-observer agreements were derived from the reviewers’ interpretations, out of analyzed<br />

segments. We compared the intra-observer agreements between interpretations based on<br />

Original & Repeat (O&R) with the agreement based on Original & JPEG-12 (O&J), and<br />

Original & MLOT-12 (O&M) respectively. Table 4 gives the percentage of perfect agreement<br />

for each LV segment.<br />

- 184 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

LV<br />

O&R<br />

O&J O&M Average<br />

segment agreement agreement agreement<br />

Anterior 78.1% 84.4% 82.3% 81.6%<br />

Apical 78.1% 75.0% 82.3% 78.5%<br />

Inferior 72.9% 77.1% 77.1% 75.7%<br />

Lateral 83.3% 87.5% 82.3% 84.4%<br />

Septal 80.2% 72.9% 72.9% 75.3%<br />

Overall<br />

agreement<br />

78.5%<br />

(N=480)<br />

79.4%<br />

(N=480)<br />

79.4%<br />

(N=480)<br />

79.1%<br />

(N=1440)<br />

Table 4: Intra-observer agreement of the 4 observers per LV segment.<br />

The LV-gram agreements of Table 4 show that the observer agreements are high. The<br />

overall proportion agreements are 78.5%, 79.4%, and 79.4% for the O&R, O&J and O&M<br />

agreements respectively. The corresponding kappa values are 0.62, 0.63, 0.64, respectively.<br />

The three kappa values are significantly above chance alone, they indicate a good degree of<br />

observer agreement. They are not significantly different. The relatively low values of kappa<br />

compared to the overall proportion of agreement is an effect of the correction for chance<br />

alone introduced in the computation of the kappa coefficient. The distribution of LV diagnostic<br />

categories are unbalanced, the amount of normal segments greatly exceeds the amount of<br />

any other category. Unbalanced category distribution yields artificially low kappa values due<br />

to the "kappa paradox", reported in [FEIN-90], [CICC-90].<br />

The LV data analysis shows that the observer agreements on LV interpretation are high, and<br />

not significantly modified by <strong>compression</strong>.<br />

3.2. Arteriograms<br />

3.2.1. Side by side comparisons (O-J-L)<br />

(a) (b) (c)<br />

Figure 3: Comparison of an original (a), JPEG-12 (b), and MLOT-12 (c) image a right<br />

coronary artery (enlarged).<br />

- 185 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

3.2.2. Coronary arteriogram quality and comments<br />

Table 5 shows the percentage of arteriograms judged as “good”, “fair’, and “poor”, and N/A by<br />

the four observers as they reviewed the arteriograms with each image treatment. The<br />

perceived quality of coronary arteriograms is statistically independent of the image treatment<br />

(chi-2 test, p=0.08).<br />

Cgram Original Repeat JPEG-12 MLOT-12 Average<br />

Good 83% 86% 76% 79% 81%<br />

Fair 15% 13% 18% 20% 16%<br />

Poor 0% 0% 4% 0% 1%<br />

N/A 2% 1% 2% 1% 2%<br />

Table 5: Perceptual quality of arteriograms<br />

3.2.3. Location of coronary arteries abnormalities<br />

The distribution of coronary arteries scores from Original and Repeat films is illustrated by<br />

Figure 4. For an easier interpretation of the graph, we used in Figure 4-a the category<br />

“insignificant” for irregular and mild lesions, and the category “significant” for moderate and<br />

severe lesions. Figure 4-b shows with more detail the spectrum of scores of abnormal<br />

segments. The graphs of Figure 4-a and -b show that the occurrence of abnormalities is<br />

higher for some coronary segment, in particular the LAD mid and prox, the RCA prox and<br />

mid. Some segments were more often classified N/A, in particular the LCX Marginal 3, the<br />

LAD Diagonal 2, the LCX Marginal 2, the RCA distal and PDA.<br />

RCA pro<br />

RCA mid<br />

RCA dis<br />

RCA pda<br />

LMCA<br />

LAD pro<br />

LAD mid<br />

LAD dis<br />

LAD D1<br />

LAD D2<br />

LCX pro<br />

LCX dis<br />

LCX OM1<br />

LCX OM2<br />

LCX OM3<br />

0% 20% 40% 60% 80% 100%<br />

N/A<br />

Significant<br />

Unsig<br />

Normal<br />

(a)<br />

(b)<br />

Figure 4: a) Location of CAD from Original and Repeat films. For each segment N=192,<br />

in total N=2880.<br />

- 186 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

3.2.4. Distribution of abnormalities per image treatment<br />

Table 6 gives the spectrum of coronary artery diseased for each image treatment.<br />

Original Repeat JPEG-12 MLOT-12<br />

Normal 46.0% 45.3% 43.7% 42.7%<br />

Irregular 23.4% 22.6% 24.0% 24.2%<br />

Mild 8.9% 9.5% 9.4% 9.4%<br />

Moderate 4.4% 4.5% 4.0% 4.9%<br />

Severe 4.3% 4.7% 5.1% 5.2%<br />

Occlusion 2.3% 2.4% 2.2% 2.2%<br />

N/A 10.7% 11.0% 11.7% 11.5%<br />

Table 6: Distribution of coronary artery segments grades. For each treatment, N=1440<br />

(24 cases x 4 reviewers x 15 segments) .<br />

The distribution of abnormalities is very unbalanced, and not gaussian. In the cases of this<br />

study, almost half of the scored segments are normal (44 to 46%), and two third are normal<br />

or irregular (67 to 69%). Compression does not significantly increase the number of N/A<br />

coronary segments.<br />

3.2.5. Differences of scores between image treatments<br />

In order to easily visualize possible modification of the observer interpretations due to<br />

<strong>compression</strong>, we plotted the distribution of differences between Repeat minus Original (R-O),<br />

JPEG-12 minus Original (J-O), MLOT-12 minus Original (M-O). The effect of <strong>compression</strong> is<br />

expected to appear if the distribution of the differences M-O or L-O departs from the<br />

distribution of R-O.<br />

All segments<br />

80%<br />

70%<br />

60%<br />

50%<br />

40%<br />

30%<br />

20%<br />

10%<br />

0%<br />

-5 -4 -3 -2 -1 0 1 2 3 4 5<br />

grade difference<br />

R-O<br />

J-O<br />

L-O<br />

Figure 5: Distribution of the differences R-O (N=1280), J-O (N=1270), and L-O (N=1274).<br />

Figure 5 shows that scoring differences between compressed and original sets, J-O and M-O,<br />

have the same distribution as the inherent intra-observer variability in visual scoring, R-O.<br />

- 187 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

The average of the differences R-O is not significantly different from the average of the J-O<br />

differences and from the average of the M-O differences (paired t-tests). These results show<br />

that the variability introduced by <strong>compression</strong> is not significantly different from the observers<br />

variability, and that <strong>compression</strong> does not yield over- or under-estimation of coronary lesions.<br />

Table 7 shows the percentage of perfect agreements for O&R, O&J, O&M.<br />

% agreement O&R O&J O&M Average<br />

Overall 60% 59% 58% 59%<br />

RCA 61% 59% 58% 59%<br />

LAD 60% 61% 58% 60%<br />

LCX 59% 58% 58% 58%<br />

Proximal 62% 64% 64% 63%<br />

Distal 59% 55% 53% 56%<br />

Observer1 74% 71% 70% 72%<br />

Observer 2 72% 74% 73% 73%<br />

Observer 3 62% 61% 62% 62%<br />

Observer 4 76% 73% 69% 73%<br />

Table 7: Agreement table for coronary segments scores<br />

The overall kappa values range from 0.48 to 0.51 and are not significantly different from<br />

another for O&R, O&J and O&M agreement (p>0.25). Like for the LV-gram data, the<br />

unbalance of the score distribution tends to artificially diminish the kappa value though the<br />

overall proportions of agreement are very high, due to the kappa paradox. The Lin<br />

concordance correlation coefficient confirm a high degree of overall agreement: 0.80±0.2,<br />

0.81±0.2, and 0.79±0.2 for O&R, O&J, O&M overall agreements respectively. Lin<br />

concordance correlation coefficients are not significantly different without or with <strong>compression</strong><br />

for the overall agreements. Table 7 and Table 8 also give the agreements of the RCA, LAD,<br />

LCX coronary branches, of the proximal, distal segments, and of the observers individually.<br />

All these agreements are not significantly different for O&R, O&J, and O&M, except for the<br />

distal segments. The Lin concordance correlation coefficient of O&M agreement for distal<br />

segments is lower that the O&R agreement, at the limit of statistical significance. Independent<br />

of <strong>compression</strong>, the Lin values show that the intra-observer agreements differ between the<br />

coronary branches: the RCA agreements are significantly higher than the LAD agreements,<br />

which are higher than the LCX agreements (non significantly). The agreement of distal<br />

segments is higher (but not significantly) than that of proximal segments. One observer has<br />

significantly higher agreements than two others, one observer has significantly lower<br />

agreements than two others.<br />

In conclusion, we used a scoring system that reflects adequately the clinical implication and<br />

usual manner of interpreting coronary arteriograms, and that is free of an ambiguity raised by<br />

anatomical location and denomination. The intra-observer agreement in the interpretation of<br />

arteriograms based on original films is high. It is globally not significantly modified by data<br />

<strong>compression</strong>.<br />

- 188 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

Lin coef O&R O&J O&M<br />

Overall 0.806 ± 0.0193 0.8127 ± 0.0187 0.789 ± 0.0208<br />

RCA 0.830 ± 0.0632 0.8627 ± 0.0515 0.834 ± 0.0615<br />

LAD 0.648 ± 0.1155 0.8115 ± 0.0701 0.597 ± 0.1329<br />

LCX 0.484 ± 0.1590 0.5504 ± 0.1419 0.529 ± 0.1471<br />

Prox 0.830 ± 0.0632 0.8627 ± 0.0515 0.834 ± 0.0615<br />

Dist 0.895 ± 0.0440 0.7883 ± 0.0841 0.722 ± 0.1056<br />

Obs1 0.835 ± 0.0333 0.8089 ± 0.0384 0.798 ± 0.0402<br />

Obs2 0.863 ± 0.0280 0.8614 ± 0.0284 0.825 ± 0.0350<br />

Obs3 0.736 ± 0.0504 0.7654 ± 0.0455 0.750 ± 0.0483<br />

Obs4 0.767 ± 0.0452 0.8023 ± 0.0393 0.769 ± 0.0450<br />

4. Discussion<br />

Table 8: Values of concordance correlation coefficients<br />

4.1. Major Findings<br />

With the sample of digital angiograms we acquired randomly for this <strong>compression</strong> study, with<br />

the chosen <strong>compression</strong> methods (JPEG and MLOT), and at a <strong>compression</strong> factor of 12:1,<br />

the main findings of this work can be summarized as follow:<br />

• In routine diagnostic arteriograms, the proportion of normal or insignificantly diseased<br />

segments exceeded greatly the proportion of significantly diseased segments: 78% and<br />

11% respectively. Some coronary segments were more often diseased than others: the<br />

LAD mid, the RCA mid, the RCA proximal and the RCA distal.<br />

• Compression did not significantly change the proportion of non analyzable segments.<br />

• The <strong>compression</strong> artifacts were often perceived, but they did not significantly change the<br />

subjective appreciation of image quality. The compressed cases were considered as<br />

suitable for diagnostic purposes by the four cardiologists.<br />

• Compression did not significantly change the observer agreements for LV segments wall<br />

motion. Compression did not significantly change the observer agreements for coronary<br />

stenosis, it did not yield a systematic over or under estimation of lesions.<br />

• A <strong>compression</strong> ratio of 12:1 gave promising results regarding the perceptual and<br />

diagnostic of JPEG and MLOT compressed images.<br />

We suspect that higher CRs would more clearly differentiate the two algorithm performance.<br />

We observed that JPEG-16 <strong>compression</strong> yielded a rather poor perceptual quality, which lead<br />

us not to choose such a high CR. We also observed that MLOT-16 images had an<br />

acceptable perceptual quality . It was reported in [RIGO-96] that JPEG-15 <strong>compression</strong> did<br />

not alter the diagnostic assessment of lesion severity. It is likely that diagnostic tasks can be<br />

adequately performed even if the perceptual quality is relatively poor. The influence of<br />

observer fatigue under such conditions remains unclear.<br />

- 189 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

4.2. Discussion of issues related to the method<br />

4.2.1. Interpretation of complete cases<br />

The rationale of this study was to evaluate the effect of <strong>compression</strong> on the routine diagnostic<br />

process of the cath lab work. We chose not to modify the normal working procedures and<br />

therefore based the study on the interpretation of complete digital cases. The drawback of<br />

this approach is to necessitate the handling of thousands of digital images for a relatively low<br />

number of different patients included in the study (24 patients). However, the number of<br />

assessed segments was high: 120 LV segments (24 patients x 5 LV segments), and 360<br />

coronary segments (24 patients x 15 coronary segments). In our protocol, we avoided several<br />

possible biases: the possible effect of changing the normal diagnostic task by for instance<br />

having interpretation of isolated runs or frames, of having a higher proportion of diseased<br />

segments than usual, of not seeing a segments from different views, of not having dynamics.<br />

4.2.2. Gold standard<br />

In most image <strong>compression</strong> studies for radiology ([COSM-94], [SAYR-92]), a “Gold Standard”<br />

is used. A gold standard is a diagnostic method which provides an ultimate diagnostic truth<br />

about the patients included in the study. For instance, a biopsy can be used to control the<br />

truth of diagnosis made for breast cancers with mammograms. No recognized method exists<br />

for checking coronary artery disease other than arteriography itself, which is still considered<br />

as the ultimate method of diagnostic. In such situations, a consensus from a panel of expert<br />

clinicians can be used as gold standard. We found that panel interpretation was a very<br />

unusual practice in our institution and that it would add to the timing and complexity of the<br />

study process. The drawback of not having a panel diagnosis as a true reference for cases<br />

interpretation is the following: if <strong>compression</strong> would modify observers’ interpretation, it cannot<br />

be said if it improves or degrades the diagnostic performance the of observers, it can only<br />

concluded about a significant change, or no significant change.<br />

4.2.3. Variability of observers’ visual interpretation<br />

Several authors reported that the observer variability for visual interpretation of coronary<br />

arteriograms is very high (DETR-75], [DERO-77], [SNAM-78], [TRAS-84], [KUSS-92]). In our<br />

study, we found very good intra-observer agreements. We think that it is due to two<br />

precautions in the study design. Firstly, the scoring system was not too detailed and was<br />

meaningful to the cardiologist. The percentage stenosis implies a much too detailed score<br />

with 100 possible grades, and there is an ambiguity about percentage diameter or area<br />

stenosis. The 6 grade scale we used is a natural one (normal, irregular, mild, moderate,<br />

severe, occluded). Secondly, we avoided a high discrepancy in our results by preventing in a<br />

non cumbersome way that observers vaguely locate the lesion they detected. Cardiologists<br />

very often vary the positioning of the same lesion between two adjacent segments. As these<br />

imprecision often have no major consequence on the decision, they are not given much<br />

attention in clinical routine. In studies comparing several diagnosis based on the same patient<br />

angiogram, a mechanism to avoid location shifts is useful.<br />

- 190 -


Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />

4.3. Need for complementary studies<br />

Confirmation of the findings of this work by similar studies based on complete angiograms<br />

would be very interesting, as our conclusions are only valid for a sample of 24 patients. Four<br />

observers represents reasonably well the population of cardiologists of our institution. [KUSS-<br />

92] showed that the precision of the averaging scores of several observers is not much<br />

increased above 3 observers. Before making final conclusions about the absence of effect of<br />

lossy <strong>compression</strong> on the cath lab work, complementary assessment could be done from<br />

visual interpretation of complete diagnostic and interventional cases, from visual<br />

interpretation of specific disease (i.e. severe lesions, concentric/non concentric, or ostial<br />

stenosis, thrombus, calcification, etc...), and also from quantitative analysis measurements.<br />

- 191 -


CHAPITRE II-4<br />

MESURES QUANTITATIVES SUR LES<br />

IMAGES COMPRIMEES<br />

- 191 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

1. Etude bibliographique des méthodes d’analyse<br />

quantitative des coronaires<br />

1.1. Brève description de l’analyse quantitative<br />

Les systèmes de QCA 1 sont des logiciels semi automatisés pour la mesure du degré de<br />

sévérité d’une lésion d’artère coronaire. La portion normale du vaisseau est comparée à la<br />

portion la plus rétrécie sur le segment à analyser. Les mesures portent sur les sections<br />

transversales du vaisseau. On obtient un pourcentage de sténose en diamètre ou en<br />

surface, au choix. Il est nécessaire de sélectionner une image qui met la lésion en<br />

évidence, avec une déformation géométrique minimale due à la projection. En effet, si le<br />

faisceau de rayon X n’est pas perpendiculaire au segment, on obtient des sections<br />

obliques qui donneront des résultats inexacts.<br />

1.2. Historique<br />

Les systèmes de mesures de coronaires sont apparus au débuts des années soixantedix,<br />

à partir d’une image de radiocinéma projetée sur un écran, filmée par une caméra et<br />

numérisée. Les premiers logiciels étaient basés sur l’approche par “calipers” [GENS-71],<br />

[SCOB-84]. L’observateur trace sur l’écran une ligne allant d’un bord du vaisseau à l’autre,<br />

et correspondant au diamètre à mesurer. Cette méthode s’est avérée imprécise [KATR-<br />

88], [KALB-90], elle sous-estime les lésions sévères et surestime les lésions moins<br />

sévères en comparaison avec les résultats obtenus avec des systèmes QCA qui vont être<br />

décrits dans le prochain paragraphe. Ensuite est venue la méthode des contours manuels<br />

à partir de deux vues orthogonales, supposant une géométrie ellipsoïdales [BROW-77],<br />

[McMA-79], [BROW-86]. Cette approche a aussi ses inconvénients [BROW-82]. Elle est<br />

limitée par sa lenteur et le fait qu’elle est basée sur l’appréciation visuelle pour le tracé du<br />

contour. Au milieu des années quatre-vingt sont apparu des systèmes qui détectent<br />

automatiquement les contours entre deux points indiqués par l’opérateur (système du<br />

CAAS [REIB-84]) ou dans une région d’intérêt sélectionnée (système ARTREK [LEFR-<br />

86]).<br />

Une analyse de la bibliographie des méthodes de mesure de coronaires est donnée dans<br />

[REIB-84], [HERM-92]<br />

1.3. Système QCA des appareils Philips<br />

Le logiciel de QCA utilisé dans notre étude de <strong>compression</strong> est basé sur le système du<br />

CAAS. C’est l’algorithme d’analyse disponible sur les systèmes d’angiographie cardiaque<br />

numérique de Philips [REIB-89]. L’opérateur indique deux points du vaisseau entre<br />

lesquels se situe la lésion à analyser. Le système calcule une ligne centrale. Ensuite il<br />

échantillonne de nouveau les données en segments rectilignes perpendiculaires à la ligne<br />

centrale. La courbe des nive<strong>aux</strong> de gris le long de ces segments est utilisée pour<br />

déterminer les bords du vaisseau. Une pondération de la dérivée première et de la<br />

dérivée seconde de ces courbes sert à l’évaluation des contours, en cherchant un tracé<br />

qui optimise certains critères (matrice de coût minimale).<br />

Les principales étapes du processus de mesure sont les suivantes:<br />

1 QCA: de l’anglais “Quantitative Coronary Analysis”<br />

- 192 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

• Etape de calibrage<br />

1. sélection par l’opérateur de l’image de calibrage<br />

2. sélection par l’opérateur d’un segment de cathéter (dont le diamètre est connu) en<br />

indiquant deux points sur le cathéter<br />

3. détection par l’ordinateur de la ligne centrale du cathéter<br />

4. détection par l’ordinateur des contours du cathéter<br />

5. indication par l’opérateur du diamètre réel du cathéter<br />

6. calcul par l’ordinateur du diamètre moyen du segment de cathéter<br />

7. calcul par l’ordinateur du facteur de calibrage exprimé en mm/pixel<br />

• Etape de mesure<br />

1. sélection par l’opérateur de l’image du vaisseau, dans la même séquence que l’image<br />

de calibrage<br />

2. sélection par l’opérateur du segment à analyser, en indiquant un point en amont et un<br />

point en aval de la lésion<br />

3. détection par l’ordinateur d’une ligne centrale<br />

4. facultatif: correction manuelle par l’opérateur de la ligne centrale<br />

5. détection par l’ordinateur des bords du segment<br />

6. facultatif: corrections manuelles par l’opérateur des contours automatiques<br />

7. détermination par l’ordinateur du diamètre le plus petit (diamètre d’obstruction), et du<br />

diamètre moyen en dehors de la zone rétrécie (diamètre de référence).<br />

• Quelques résultats fournis par le système<br />

1. diamètre de référence, en mm<br />

2. diamètre d’obstruction, en mm<br />

3. aire de la section d’obstruction et de référence, en mm 2 (en supposant une section<br />

circulaire)<br />

4. pourcentage de rétrécissement en diamètre, en %<br />

5. pourcentage de rétrécissement en surface, en %<br />

6. longueur d’obstruction, en mm<br />

Un résultat typique de mesure est illustré dans la figure II-4.1.<br />

- 193 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

Figure II-4. 1: Exemple de résultats de mesures QCA.<br />

1.4. Précision et limitations du système<br />

Le système du CAAS est considéré comme un dispositif de grande précision. Sa<br />

validation à partir de fantômes de dimensions connus donne une différence moyenne<br />

entre les valeurs mesurées et les valeurs vraies de 0.03 mm (justesse), et un écart type<br />

de ces différences de 0.13mm (précision) [REIB-94].<br />

Une limitation propre à l’algorithme de tracé de contours est la tendance à sous-estimer<br />

les sténoses abruptes, si l’opérateur n’en corrige pas les contours.<br />

Une limitation inhérente à toute méthode semi-automatique provient de facteurs<br />

radiographiques. On peut citer la “pénombre” due au fait que la source radiogène n’est<br />

pas ponctuelle, le flou cinétique dû au mouvement des vaisse<strong>aux</strong>, les aberrations de la<br />

chaîne d’imagerie, les défauts d’exposition (surexposition ou sous-exposition).<br />

Une limitation est due à la forme de la lésion par rapport au modèle ellipsoïdal supposé.<br />

La lésion peut être excentrée et asymétrique.<br />

D’autres limitations sont due à l’opérateur humain lors de l’acquisition de l’image ou de la<br />

mesure elle-même. Il est nécessaire de choisir une projection appropriée, sans vaisse<strong>aux</strong><br />

superposés, et où le segment de vaisseau à analyser est perpendiculaire au plan de<br />

l’image pour éviter des distorsions géométriques. Le choix de l’image dans la séquence et<br />

le positionnement des points autour de la lésion sont primordi<strong>aux</strong>.<br />

Pour restreindre les limitations dues au facteur humain entre les répétitions des mesures<br />

de notre étude, une approche rigoureuse dans la sélection des points délimitant la lésion<br />

a été utilisée. Cette approche est décrite dans l’annexe B. Il faut noter qu’un léger écart de<br />

positionnement de ces point entraîne des résultats de mesure assez différents. Dans la<br />

routine des examens angiographiques, la variabilité des observateurs est bien supérieure<br />

<strong>aux</strong> variabilités généralement mentionnées dans les études publiées, où les opérateurs<br />

sont formés et spécialisés dans la pratique des mesures.<br />

- 194 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

2. Méthodes pour tester un système de QCA<br />

• Fantômes<br />

La justesse des systèmes QCA est en général validée à l’aide de fantômes de dimensions<br />

connues [REIB-94]. Il s’agit de cylindres creux en Plexiglas, dont la lumière contient des<br />

rétrécissements, imitant la lumière des vaisse<strong>aux</strong>. Les cylindres sont remplis de produit de<br />

contraste opaque <strong>aux</strong> rayons X, placés dans un milieu aqueux pour reproduire<br />

approximativement les conditions d’un patient (rayonnement diffusé...), et font l’objet<br />

d’acquisition d’images. Les résultats des mesures sur ces images de fantômes de<br />

dimensions variées sont comparés avec les valeurs vraies. Une précision entre valeurs<br />

vraies et mesurées de l’ordre 0.10-0.13 mm est considérée comme bonne [REIB-94]. La<br />

précision est définie ici comme l’écart type sur les différences entre les valeurs vraies et<br />

les valeurs mesurées.<br />

Cette méthode serait idéale pour évaluer si la justesse des mesures était préservée sur<br />

des images comprimées. Malheureusement, son emploi n’est pas correct, bien qu’on la<br />

rencontre parfois. En effet, les images de fantômes ont des propriétés statistiques fort<br />

différentes des images réelles. Or, la <strong>compression</strong> par transformation est complètement<br />

dépendante des propriétés statistiques de l’image. En d’autres termes, pour un t<strong>aux</strong> de<br />

<strong>compression</strong> donné, la nature et l’importance des artefacts introduits par la <strong>compression</strong><br />

seront vraisemblablement complètement différentes sur une image de fantômes, et sur<br />

une image réelle de patient. Les résultats de justesse des mesures sur des images de<br />

fantômes comprimées ne permettraient en rien de porter des conclusions sur les résultats<br />

de justesse avec des images réelles.<br />

La seule approche possible pour évaluer l’effet de la <strong>compression</strong> sur les résultats de<br />

QCA est d’effectuer une campagne de mesures sur des images réelles.<br />

• Campagnes mesures<br />

Les campagnes de mesures consistent à sélectionner un certain nombre d’images, et à<br />

effectuer les mesures dans les différentes conditions que l’on cherche à comparer. Dans<br />

notre cas, nous cherchons à comparer les résultats sur des images originales, et les<br />

résultats sur les mêmes images ayant subi une <strong>compression</strong>. Par des méthodes<br />

statistiques descriptives et quantitatives, nous voulons évaluer si la fidélité des mesures<br />

est significativement modifiée par la <strong>compression</strong> ou non.<br />

Par cette approche, il n’est pas possible de comparer les valeurs mesurées avec les<br />

valeurs vraies qui sont inconnues (notion de justesse), mais seulement de vérifier si<br />

l’étroitesse entre l’accord sur plusieurs mesures est perturbée par la <strong>compression</strong> (notion<br />

de fidélité).<br />

Une fidélité inter et intra-observateur (écart type des différences entre deux mesures sur<br />

une images) de 0.2-0.3mm est considérée comme bonne [REIB-94].<br />

3. Trav<strong>aux</strong> de la littérature sur la QCA avec <strong>compression</strong><br />

Il existe peu de trav<strong>aux</strong> publiés sur l’effet de la <strong>compression</strong> sur les mesures de QCA.<br />

Nous avons connaissance principalement de deux études.<br />

[KONI-94] a étudié l’effet d’une <strong>compression</strong> avec perte à base de DPCM, avec des t<strong>aux</strong><br />

de 2 (sans pertes), et 3 et 4 (avec pertes). L’une de ses évaluations porte sur des<br />

fantômes, l’autre (la seule dont il sera fait mention ici) sur des images de patients<br />

- 195 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

contenant 40 lésions. Ses résultats ne montrent pas de différences significatives de la<br />

fidélité des mesures, dans des conditions de répétabilité (un même opérateur répète deux<br />

fois chaque mesure). La méthode de comparaison est basée sur la moyennes des écarts<br />

entre les deux séries de mesures sur les images d’un même type (comparaison intraobservateur).<br />

Cette moyenne pour les images originales est comparée avec la moyenne<br />

pour les images comprimées à l’aide d’un test de Student. Ces moyennes étaient de<br />

l’ordre de 0.01 à 0.04 mm. Leurs écarts types ont été comparés par un test de Fischer.<br />

Les écarts types étaient de l’ordre de 0.09 à 0.14 mm. De façon similaire, des<br />

comparaisons ont été effectuées entre la moyenne et l’écart type des écarts entre une<br />

première mesure sur les images originales, et une deuxième mesure sur les images<br />

comprimées (comparaison inter-<strong>compression</strong>).<br />

[RIGO-96] a évalué la corrélation avec les mesures de QCA sur 40 lésions entre les<br />

images originales et comprimées avec JPEG-15. L’algorithme de QCA employé repose<br />

sur une de détection de contour proche de celle du CAAS ([HERM-92], [CUSM-95]). Les<br />

résultats indiquent que la corrélation entre les images originales et les images<br />

comprimées est similaire à la corrélation entre une première mesure et une deuxième<br />

mesure sur les origin<strong>aux</strong>. Les auteurs concluent que dans les conditions de leur étude, la<br />

<strong>compression</strong> n’a pas d’effet significatif sur les mesures.<br />

4. Méthode de notre étude de QCA appliquée sur des images<br />

comprimées<br />

Notre étude de QCA a fait l’objet d’une publication ([KONI-97]).<br />

4.1. Protocole expérimental<br />

Notre campagnes de mesures QCA sur des images comprimées s’est déroulés dans le<br />

cadre de l’AZL de Leiden. Les princip<strong>aux</strong> éléments de notre protocole expérimental sont<br />

indiqués ci-après.<br />

• Opérateur<br />

Un opérateur expert de l’analyse quantitative a réalisé toutes les mesures. En<br />

comparaison avec les conditions cliniques de routine, le choix d’un tel opérateur limite les<br />

inconsistances fréquemment rencontrées quant au choix de l’image à utiliser au sein de la<br />

séquence, et au positionnement des deux points en aval et en amont de la lésion à<br />

analyser.<br />

• Système de mesure<br />

Le système de QCA utilisé dans cette étude était un système de recherche comportant<br />

exactement le même algorithme que le système DCI, mais avec une interface utilisateur<br />

différente. En particulier, le logiciel permet de connaître la position exacte des points<br />

donnés par l’opérateur, et d’entrer des points de coordonnées voulues.<br />

• Images<br />

Les images incluses dans cette étude proviennent d’un DCI et d’un Integris de l’Hôpital<br />

Cardiologique de Lille. Le recoupement entre les images de la campagne d’interprétation<br />

visuelle de Lille a malheureusement été restreint, car peu d’images se prêtaient <strong>aux</strong><br />

mesures quantitatives.<br />

- 196 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

30 images ont été incluses dans cette campagne QCA, à partir desquelles 37 lésions ont<br />

pu être mesurées.<br />

• Traitements d’image<br />

Les images originales ont été comprimées avec la méthode JPEG (abréviation JP), et la<br />

méthode MLOT (abréviation LO), à des t<strong>aux</strong> de 5, 8, et 12:1. Les mesures ont donc porté<br />

sur 7 lots d’images: les images originales OR, les images comprimées JP5, JP8, JP12, et<br />

LO5, LO8, LO12.<br />

• Réplications des mesures<br />

Chaque lot d’image a été mesuré à deux reprises, séparées par quelques semaines.<br />

• Calibrage<br />

Pour chaque image, la calibrage a été effectué une fois sur l’original lors de la première<br />

réplication. Les deux points donnés par l’opérateur le long du cathéter ont été réutilisés<br />

pour toutes les autres premières mesures, c’est à dire lors de la première mesure sur<br />

l’image correspondante avec chacun des traitements JP5, JP8, JP12, et LO5, LO8, LO12.<br />

Lors de la deuxième réplication, l’opérateur a de nouveau indiqué deux points pour la<br />

calibrage sur l’original. Ces points ont été réutilisés pour toutes les autres deuxièmes<br />

mesures avec chacun des traitements.<br />

Ainsi, les différences de calibrage qui peuvent survenir entre les origin<strong>aux</strong> et les images<br />

comprimées sur la première réplication, ou sur la deuxième réplication ne peuvent être<br />

imputées qu’à une modification du contour du cathéter due à la <strong>compression</strong>.<br />

• Mesures<br />

Les mesures ont été effectuées en limitant au strict minimum l’interaction de l’opérateur.<br />

Seuls les points en amont et en aval de la lésion ont été indiqués. Aucune correction<br />

manuelle de la ligne centrale, ou du contour n’a été effectuée.<br />

Le même principe que pour la calibrage a été appliqué: réutilisation des points en amont<br />

et en aval de la lésion trouvée sur l’original et appliqués de nouveau sur les images<br />

comprimées.<br />

On voit que par un tel protocole, l’interaction entre l’opérateur et l’image n’a en fait<br />

réellement eu lieu que sur les origin<strong>aux</strong>. Sur les images comprimées, l’opérateur n’avait<br />

pas à choisir de points sur l’image, mais juste à les entrer dans la machine et à laisser le<br />

résultat se calculer.<br />

Ainsi les différences de résultats de mesures observées peuvent être imputées à un effet<br />

de la <strong>compression</strong> sur la calibrage ou sur la détection des contours du vaisseau.<br />

4.2. Valeurs mesurées et analysées<br />

• Mesures sur lesquelles ont portées les analyses<br />

Pour la clarté de cet exposé, nous avons choisi de limiter le nombre de mesures par<br />

rapports à toutes celles fournies par le logiciel de QCA. Les résultats de QCA sur lesquels<br />

nous avons effectué nos analyses de données sont le diamètre de référence Dref, et le<br />

diamètre d’obstruction Dobs. Ce sont des valeurs très importantes pour le clinicien, à<br />

partir d’elles sont déduites le pourcentage de sténose exprimé soit en diamètre, soit en<br />

surface.<br />

• Comparaisons intra- et inter-<strong>compression</strong><br />

Toutes les mesures de cette campagne QCA ont été effectuées dans des conditions de<br />

répétabilité, le même opérateur répétant chaque mesure deux fois.<br />

- 197 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

Dans les comparaisons intra-<strong>compression</strong>, nous avons utilisé, pour un lot d’images<br />

donné, une comparaison des résultats de la réplication 1 et de la réplication 2.<br />

Dans les comparaisons inter-<strong>compression</strong>, nous avons pris la moyenne des deux<br />

mesures sur les origin<strong>aux</strong>, et nous l’avons comparé à la moyenne des deux mesures avec<br />

un traitement donné.<br />

• Résumé des méthodes d’analyses<br />

Notre analyse statistique a été basée sur des méthodes graphiques simples similaires à<br />

[GRIM-96], sur un coefficient de concordance [LIN-89], et sur l’analyse de la variance.<br />

On a donné au chapitre II-2 une liste des principales méthodes statistiques employées<br />

dans cette thèse.<br />

5. Résultats<br />

L’analyse des données a pour objectif de répondre principalement <strong>aux</strong> deux questions:<br />

1. La <strong>compression</strong> rend-elle les mesures moins exactes? Nous regarderons si en<br />

moyenne les valeurs mesurées sur les images comprimées sont significativement<br />

différentes des valeurs mesurées sur les images originales.<br />

2. La <strong>compression</strong> rend-elle les mesures moins précises? Nous regarderons si l’écart<br />

entre les mesures répliquées est en moyenne significativement différent avec les<br />

images comprimées et originales.<br />

5.1. Comparaisons inter-<strong>compression</strong><br />

Dans cette section nous allons étudier si en moyenne les mesures effectuées sur les<br />

images originales diffèrent significativement ou non des mesures effectuées sur chacun<br />

des lots d’images comprimées.<br />

5.1.1. Graphes des différences par rapport <strong>aux</strong> moyennes<br />

Une première interprétation visuelle des données va être fournie par des graphes traçant<br />

les différences par rapport <strong>aux</strong> moyennes (figure II-4.2 et II-4.3).<br />

Cette méthode graphique a été proposée par [BLAN-86]. Chaque point du graphe<br />

correspond à une lésion. Dans cette section, la moyenne des deux mesures de la lésion<br />

sur l’image originale (“moyenne originale”) est comparée à la moyenne des deux mesures<br />

sur l’image comprimée (“moyenne comprimée”). Pour cela, la différence entre la moyenne<br />

originale et la moyenne comprimée est tracée en fonction de la moyenne de ces deux<br />

moyennes.<br />

En plus des points correspondant <strong>aux</strong> lésions, une droite horizontale indique la moyenne<br />

de toutes les différences. Si toutes les valeurs des moyennes comprimées étaient égales<br />

<strong>aux</strong> valeurs des moyennes originales, cette droite passerait par l’axe des origines. Cette<br />

droite de moyennes générale des différences est entourée de deux autres droites<br />

indiquant un intervalle de tolérance. La notion d’intervalle de tolérance est différente de la<br />

notion d’intervalle de confiance. Il s’agit de déterminer à partir des données sur les<br />

origin<strong>aux</strong> une limite acceptable pour les écarts de moyennes.<br />

Les figures II-4.2 et II-4.3 montrent que les moyennes générales des écarts entre les<br />

moyennes comprimées et originales sont très voisines de zéro. On peut constater que les<br />

différences sont en dehors des bornes de tolérances pour 5 à 13 lésions sur 37, selon le<br />

traitement concerné.<br />

- 198 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

D’après cette interprétation graphique, la différence entre les moyennes comprimées et<br />

originales est quasi nulle, mais il y a une dispersion autour de cette moyenne qui dépasse<br />

parfois les bornes de tolérances.<br />

0.8<br />

Dobs, OR et JP5<br />

0.8<br />

Dobs, OR et LO5<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dobs, OR et JP8<br />

0.8<br />

Dobs, OR et LO8<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dobs, OR et JP12<br />

0.8<br />

Dobs, OR et LO12<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

Figure II-4.2 Comparaisons inter-<strong>compression</strong> : Graphe des différences par rapport<br />

<strong>aux</strong> moyennes pour les diamètres d’obstruction<br />

- 199 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

0.8<br />

Dref, OR et JP5<br />

0.8<br />

Dref, OR et LO5<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dref, OR et JP8<br />

0.8<br />

Dref, OR et LO8<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dref, OR et JP12<br />

0.8<br />

Dref, OR et LO12<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

Figure II-4.3 Comparaisons inter-<strong>compression</strong> : Graphe des différences par rapport<br />

<strong>aux</strong> moyennes pour les diamètres d’obstruction<br />

5.1.2. Coefficients de concordance de Lin<br />

Le coefficient de corrélation de concordance de Lin mesure avec quel degré les paires de<br />

mesures passent par la droite d’identité.<br />

Nous avons estimés les coefficients de Lin pour les comparaisons inter-<strong>compression</strong> à<br />

l’aide de la technique du bootstrap. Des intervalles de confiances à 95% sont aussi<br />

estimés par bootstrap. Comme les données ne suivent pas précisément une distribution<br />

gaussienne, cette approche statistique est utile. Le principe du bootstrap a été expliqué à<br />

la section 3.2.2 du chapitre II-1.<br />

- 200 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

Les figures II-4.4 et II-4.5 donnent les valeurs estimées des coefficients de Lin inter<strong>compression</strong>,<br />

ainsi que les valeurs des intervalles de confiance. On constate que toutes<br />

les concordances inter-<strong>compression</strong> sont très bonnes, et se situent entre 0.91 et 0.98. Les<br />

intervalles de confiance se chevauchant, il ne semble pas y avoir de différence<br />

significative entre les coefficients de Lin des différents traitements.<br />

Dobs Lin IC- IC+<br />

OR/J5 0.962 -0.027 0.015<br />

OR/J8 0.967 -0.018 0.011<br />

OR/J12 0.919 -0.047 0.032<br />

OR/L5 0.942 -0.034 0.025<br />

OR/L8 0.946 -0.028 0.019<br />

OR/L12 0.945 -0.034 0.021<br />

Concordance Lin<br />

1.00<br />

0.98<br />

0.96<br />

0.94<br />

0.92<br />

0.90<br />

0.88<br />

0.86<br />

0.84<br />

0.82<br />

0.80<br />

Dobs - Inter-<strong>compression</strong><br />

OR/J5<br />

OR/J8<br />

OR/J12<br />

OR/L5<br />

OR/L8<br />

OR/L12<br />

Figure II-4. 4: Coefficients de concordance de Lin inter-<strong>compression</strong> pour les<br />

diamètres d’obstruction. (IC-: valeur inférieure de l’intervalle de confiance, IC+:<br />

valeur supérieure)<br />

Dref Lin IC- IC+<br />

OR/J5 0.962 -0.032 0.019<br />

OR/J8 0.967 -0.041 0.026<br />

OR/12 0.919 -0.040 0.025<br />

OR/L5 0.942 -0.036 0.023<br />

OR/L8 0.946 -0.029 0.017<br />

OR/L12 0.945 -0.058 0.031<br />

Concordance Lin<br />

1.00<br />

0.98<br />

0.96<br />

0.94<br />

0.92<br />

0.90<br />

0.88<br />

0.86<br />

0.84<br />

0.82<br />

0.80<br />

OR/J5<br />

Dref - Inter-<strong>compression</strong><br />

OR/J8<br />

OR/12<br />

OR/L5<br />

OR/L8<br />

OR/L12<br />

Figure II-4. 5: Coefficients de concordance de Lin inter-<strong>compression</strong> pour les<br />

diamètres de référence. (IC-: valeur inférieure de l'intervalle de confiance, IC+:<br />

valeur supérieure).<br />

- 201 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

5.2. Comparaisons intra-<strong>compression</strong><br />

Dans cette section nous allons étudier les écarts entre les deux réplications de chaque<br />

traitement. Nous cherchons à savoir si la variabilité des mesures sur les images<br />

comprimées diffère de la variabilité sur les images originales.<br />

Cette analyse se fera par l’intermédiaire de comparaisons intra-<strong>compression</strong> (voir figure II-<br />

1-1).<br />

5.2.1. Graphes des différences par rapport <strong>aux</strong> moyennes<br />

Les graphes des différences entre les deux réplications de chaque traitement par rapport<br />

<strong>aux</strong> moyennes de ces deux réplications sont données dans les figures II-4.6 et II-4.7 Les<br />

intervalles de tolérances sont déterminés à partir des origin<strong>aux</strong>, comme à la section<br />

5.1.1.<br />

D’après ces graphes, l’accord entre les deux réplications sur les origin<strong>aux</strong> est très bon.<br />

Les points sont alignés le long d’une moyenne des différences très proche de 0. Pour les<br />

images comprimées, les points sont un peu plus dispersés autour de leur moyenne. On<br />

remarque une variabilité un peu plus importante avec JP5 et JP8 pour le diamètre<br />

d’obstruction. Pour JP8, un groupe de sept points a une première réplication nettement<br />

supérieure à la deuxième réplication, ce qui a pour effet d’augmenter la moyenne des<br />

différences.<br />

- 202 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

0.8<br />

Dobs, ORIGINAUX<br />

0.6<br />

1 point > borne sup<br />

0.4<br />

0.2<br />

borne sup: 0.251<br />

0<br />

moyenne écarts: 0.011<br />

-0.2<br />

borne inf: -0.219<br />

-0.4<br />

2 points < borne inf<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dobs, JPEG-5<br />

0.8<br />

Dobs, MLOT-5<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dobs, JPEG-8<br />

0.8<br />

Dobs, MLOT-8<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dobs, JPEG-12<br />

0.8<br />

Dobs, MLOT-12<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

Figure II-4. 6 Comparaisons intra-<strong>compression</strong> : Diagramme des différences par<br />

rapport <strong>aux</strong> moyennes, avec intervalles de tolérance, pour les diamètres<br />

d’obstruction.<br />

- 203 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

0.8<br />

Dref, ORIGINAUX<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

-0.2<br />

-0.4<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dref, JPEG-5<br />

0.8<br />

Dref, MLOT-5<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dref, JPEG-8<br />

0.8<br />

Dref, MLOT-8<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

0.8<br />

Dref, JPEG-12<br />

0.8<br />

Dref, MLOT-12<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

-0.2<br />

-0.2<br />

-0.4<br />

-0.4<br />

-0.6<br />

-0.6<br />

-0.8<br />

1 2 3 4 5<br />

-0.8<br />

1 2 3 4 5<br />

Figure II-4. 7 Comparaisons intra-<strong>compression</strong> : Diagramme des différences par<br />

rapport <strong>aux</strong> moyennes, avec intervalles de tolérance, pour les diamètres<br />

d’obstruction.<br />

- 204 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

5.2.2. Coefficients concordance de Lin<br />

Les figures II-4.8 et II-4.9 montrent les coefficients de Lin pour les accords intra<strong>compression</strong>.<br />

Dobs Lin borne itc- borne itc+<br />

OR 0.962 -0.014 0.008<br />

JP5 0.962 -0.030 0.021<br />

JP8 0.967 -0.024 0.015<br />

JP12 0.919 -0.021 0.015<br />

LO5 0.942 -0.013 0.008<br />

LO8 0.946 -0.016 0.010<br />

LO12 0.945 -0.030 0.023<br />

Concordance Lin<br />

1.00<br />

0.98<br />

0.96<br />

0.94<br />

0.92<br />

0.90<br />

0.88<br />

0.86<br />

0.84<br />

0.82<br />

0.80<br />

OR<br />

Dobs - Intra-<strong>compression</strong><br />

JP5<br />

JP8<br />

JP12<br />

LO5<br />

LO8<br />

LO12<br />

Figure II-4. 8: Coefficients de concordance de Lin intra-<strong>compression</strong> pour les<br />

diamètres d’obstruction.<br />

Dref Lin borne itc- borne itc+<br />

OR 0.962 -0.010 0.006<br />

JP5 0.962 -0.021 0.010<br />

JP8 0.967 -0.015 0.009<br />

JP12 0.919 -0.018 0.012<br />

LO5 0.942 -0.012 0.008<br />

LO8 0.946 -0.032 0.018<br />

LO12 0.945 -0.033 0.019<br />

Concordance lin<br />

1.00<br />

0.98<br />

0.96<br />

0.94<br />

0.92<br />

0.90<br />

0.88<br />

0.86<br />

0.84<br />

0.82<br />

0.80<br />

OR<br />

Dref - Intra-<strong>compression</strong><br />

JP5<br />

JP8<br />

JP12<br />

LO5<br />

LO8<br />

LO12<br />

Figure II-4.9: Coefficients de concordance de Lin intra-<strong>compression</strong> pour les<br />

diamètres de référence.<br />

Les estimations des coefficients de Lin donnent des valeurs d’accords intra-<strong>compression</strong><br />

excellentes. Tous les coefficients de corrélation de concordance sont supérieurs à 0.97 et<br />

sont relativement homogènes entre tous les nive<strong>aux</strong> de <strong>compression</strong>, que ce soit avec<br />

Dobs ou Dref.<br />

Il ne semble pas y avoir de différence significative entre les valeurs de concordance sur<br />

les images comprimées et originales. On constate que les intervalles de confiance pour<br />

quelques-unes des <strong>compression</strong>s sont moins étroits que ceux des origin<strong>aux</strong>, par exemple<br />

pour JP5, JP8 et LO12 pour Dobs, et LO8 et LO12 pour Dref.<br />

5.2.3. Coefficients de variations<br />

Les coefficients de variations (CV) sont des indices de la variabilité de chaque paire de<br />

mesure (réplication 1 et réplication 2). Ils sont calculés selon la formule:<br />

CV = s , où s est l’estimation de l’écart type des deux mesures, et x− leur<br />

−<br />

x<br />

moyenne.<br />

- 205 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

Les 37 CV intra-<strong>compression</strong> pour chaque niveau de traitement ont été représentés à<br />

l’aide de diagrammes dits de ‘box-plot’ (figure II-4.10 et II-4.11). Les box-plots<br />

représentent la distribution des CV de chaque traitement par une boite. La boite contient<br />

50% des valeurs autour de la médiane. La médiane est indiquée par une barre horizontale<br />

dans la boite. Une ligne verticale indique l’étendue de la distribution, et les valeurs<br />

extrêmes ou aberrantes sont représentés par des croix.<br />

Ces diagrammes montrent que la distribution des coefficients de variation est plus étalée<br />

avec <strong>compression</strong> que sans, et de façon plus prononcée avec les Dobs. Toutefois, les<br />

médianes restent toutes très voisines de la médiane de CV sur les origin<strong>aux</strong>.<br />

Nous avons testé si les nive<strong>aux</strong> de <strong>compression</strong> induisaient une différence significative<br />

des valeurs de CV à l’aide d’une ANOVA de Friedman à deux critères de classification 2 .<br />

Nous avons utilisé le programme 3S du logiciel BMDP. Les résultats des tests de<br />

Friedman pour MLOT et JPEG, avec Dobs ou Dref montrent que les traitements d’image<br />

n’ont pas un effet significatif sur les CV des mesures.<br />

Dobs, JPEG<br />

Dobs, MLOT<br />

0.25<br />

0.25<br />

coefficient de variation (%)<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

coefficient de variation (%)<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

0<br />

0<br />

1 2 3 4<br />

traitement image<br />

1 2 3 4<br />

traitement image<br />

Figure II-4.10: Box-plot des coefficients de variation avec les Dobs. Niveau 1:<br />

origin<strong>aux</strong>; niveau 2: t<strong>aux</strong> de 5; niveau 3: t<strong>aux</strong> de 8; niveau 4: t<strong>aux</strong> de 12<br />

Dref, JPEG<br />

Dref, MLOT<br />

0.25<br />

0.25<br />

coefficient de variation (%)<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

coefficient de variation (%)<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

0<br />

0<br />

1 2 3 4<br />

traitement image<br />

1 2 3 4<br />

traitement image<br />

Figure II-4.11: Box-plot des coefficients de variation avec les Dref. Niveau 1:<br />

origin<strong>aux</strong>; niveau 2: t<strong>aux</strong> de 5; niveau 3: t<strong>aux</strong> de 8; niveau 4: t<strong>aux</strong> de 12<br />

5.3. Analyse de la variance<br />

L’analyse de la variance permet de comparer les moyennes des réalisations des nive<strong>aux</strong><br />

d’un facteur. Nous allons utiliser cet outil pour comparer entre elles les moyennes des<br />

mesures sur les origin<strong>aux</strong> avec les moyennes des mesures à chaque t<strong>aux</strong> de<br />

2 En anglais: Friedman’s two way ANOVA<br />

- 206 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

<strong>compression</strong>. Nous allons séparément étudier le facteur “<strong>compression</strong> JPEG”, et le<br />

facteur “<strong>compression</strong> MLOT”. Chacun de ces facteurs a quatre nive<strong>aux</strong>: 1 (origin<strong>aux</strong>), 5,<br />

8, et 12.<br />

• Moyennes des réplications et des nive<strong>aux</strong> de <strong>compression</strong><br />

Les figures II-4.12 et II-4.13 montrent les moyennes de la réplication 1 et de la réplication<br />

2 à chaque niveau de <strong>compression</strong>, ainsi que leur moyenne totale.<br />

On n’observe pas de tendance à la sous-estimation, ni à la surestimation des valeurs<br />

mesurées car il n’y a pas augmentation ou diminution systématiques des moyennes avec<br />

les nive<strong>aux</strong> de <strong>compression</strong>.<br />

Il n’y a pas de parallélisme entre l’évolution des moyennes des réplications selon le niveau<br />

de <strong>compression</strong>. Ceci indique la possibilité d’interactions entre les nive<strong>aux</strong> du facteur<br />

<strong>compression</strong> et les nive<strong>aux</strong> du facteur réplication.<br />

L’écart entre la moyenne de la réplication 1 et 2 semble plus importante avec JP 8 pour<br />

Dobs. Cet écart concorde avec la figure II-4.6, mais il n’est pas accompagné d’une<br />

variation inter-<strong>compression</strong> significative (figure II-4.4).<br />

L’analyse de la variance permet de vérifier si ces diverses observation correspondent à<br />

des variations significatives des moyennes.<br />

Dobs - JPEG<br />

Dobs - MLOT<br />

1.79<br />

1.79<br />

1.77<br />

1.77<br />

Moyenne<br />

1.75<br />

1.73<br />

1.71<br />

1.69<br />

OR J5 J8 J12<br />

Repl 1<br />

Repl 2<br />

Total<br />

Moyenne<br />

1.75<br />

1.73<br />

1.71<br />

1.69<br />

OR L5 L8 L12<br />

Repl 1<br />

Repl 2<br />

Total<br />

1.67<br />

1.67<br />

1.65<br />

1.65<br />

Figure II-4.12: Moyennes des réplications et moyennes totales pour chaque niveau<br />

de <strong>compression</strong> sur les diamètres d’obstruction.<br />

- 207 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

Dref - JPEG<br />

Dref - MLOT<br />

Moyenne<br />

3.44<br />

3.42<br />

3.40<br />

3.38<br />

3.36<br />

3.34<br />

3.32<br />

OR J5 J8 J12<br />

Repl 1<br />

Repl 2<br />

Total<br />

Moyenne<br />

3.44<br />

3.42<br />

3.40<br />

3.38<br />

3.36<br />

3.34<br />

3.32<br />

OR L5 L8 L12<br />

Repl 1<br />

Repl 2<br />

Total<br />

3.30<br />

3.30<br />

Figure II-4.13: Moyennes des réplications et moyennes totales pour chaque niveau<br />

de <strong>compression</strong> sur les diamètres de référence.<br />

• Analyse de la variance pour mesures répétées<br />

L’analyse de la variance permet de comparer globalement les moyennes des réplications<br />

et des nive<strong>aux</strong> de <strong>compression</strong>, et de tester si la différence observée entre les moyennes<br />

est significative.<br />

Quatre ANOVA pour mesures répétées ont été réalisées avec 2V de BMDP: une pour<br />

Dobs et JPEG, une pour Dobs et MLOT, une pour Dref et JPEG, une pour Dref et MLOT.<br />

Pour chacune, deux facteurs fixes et emboîtés 3 ont été définis: un facteur <strong>compression</strong><br />

(par exemple MLOT) emboîté dans un facteur réplication. Les nive<strong>aux</strong> du facteur<br />

<strong>compression</strong> sont par exemple MLOT-1 (origin<strong>aux</strong>), MLOT-5, MLOT-8, MLOT-12. Les<br />

nive<strong>aux</strong> du facteur réplication sont 1 et 2. Dans les ANOVA effectuées, aucun des<br />

facteurs et des interactions n’est significatif (p>0.05) pour Dobs avec MLOT et pour Dref<br />

avec JPEG et MLOT. Pour Dobs avec JPEG, l’interaction entre le facteur <strong>compression</strong><br />

JPEG et le facteur réplication est à la limite d’être significative (p=0.06). L’écart entre les<br />

moyennes des deux réplications pour JP8 en est la cause.<br />

On en conclut que les moyennes des mesures pour chaque niveau du facteur<br />

<strong>compression</strong> ne sont pas significativement différentes, avec MLOT ou JPEG, pour Dref, et<br />

avec MLOT pour Dref. Un doute subsiste avec JPEG pour Dobs compte tenu d’une<br />

ANOVA à la limite d’être significative.<br />

6. Discussion<br />

6.1. Résultats des analyses de données<br />

Toutes les analyses graphiques tendent à montrer que les valeurs mesurées sur les<br />

images comprimées concordent avec les valeurs sur les origin<strong>aux</strong>. Mais elles indiquent<br />

aussi que les dispersions intra-<strong>compression</strong>s sont un peu plus importantes sur les images<br />

comprimées que sur les origin<strong>aux</strong>. Toutefois ces résultats ne sont pas statistiquement<br />

significatifs, comme l’attestent les coefficients de concordance de corrélation ou les<br />

analyses de la variance.<br />

3 En anglais facteurs emboités se dit: nested factors<br />

- 208 -


Chapitre II-4: Mesures quantitatives sur les images comprimées<br />

On n’observe aucune tendance systématique à une surestimation des valeurs, ou à une<br />

sous-estimation des valeurs du fait de la <strong>compression</strong>. On n’observe pas de différence<br />

claire entre les méthodes de <strong>compression</strong> JPEG ou de MLOT <strong>aux</strong> nive<strong>aux</strong> de<br />

<strong>compression</strong> 5, 8, ou 12. Il n’y a pas de tendance linéaire, quadratique ou cubique<br />

d’augmentation ou de diminution des valeurs mesurées lorsque le t<strong>aux</strong> de <strong>compression</strong><br />

augmente.<br />

Il est difficile de porter une conclusion catégorique sur nos trav<strong>aux</strong> de QCA car certaines<br />

analyses sont justes à la limite d’être significatives. Aucune des différences testées entre<br />

les images originales et comprimée n’est significative, une seule en est à la limite<br />

(ANOVA pour mesures répétés avec JPEG pour Dobs).<br />

6.2. Aspects méthodologiques du protocole expérimental<br />

Toutes les mesures QCA ont été effectuées dans des conditions de répétabilité<br />

(comparaisons intra-opérateur). Ne disposant que d’un seul opérateur, il n’a pas été<br />

possible de travailler dans des conditions de reproductibilité (comparaisons interobservateurs).<br />

En vue d’améliorer le protocole et la méthode d’analyse de ce type de<br />

campagne d’évaluation, l’implication de plusieurs opérateurs est recommandable.<br />

6.3. Robustesse de la QCA à la <strong>compression</strong><br />

Les résultats de cette étude ne sont valables que pour l’algorithme de QCA employé, et<br />

pour les méthodes de <strong>compression</strong> JPEG et MLOT, à des t<strong>aux</strong> de <strong>compression</strong> de 5, 8, et<br />

12. Compte tenu de l’augmentation de variabilité non significative observée<br />

graphiquement, on peut se demander si pour des t<strong>aux</strong> de <strong>compression</strong> plus importants,<br />

l’influence de la <strong>compression</strong> deviendrait significative. Il semble logique que cette<br />

influence se fasse sentir plus tôt avec JPEG, à cause des artefacts de blocks qui sont<br />

susceptibles de modifier les contours détectés par le système.<br />

7. Conclusion<br />

Nous avons observé une légère augmentation de variabilité des mesures sur les images<br />

comprimées par rapport <strong>aux</strong> origin<strong>aux</strong>, mais les tests statistiques ne permettent pas de<br />

conclure à des différences significatives. Il semble utile de compléter ce travail par une<br />

étude incluant plus de lésions et plus d’un opérateur avant de conclure définitivement sur<br />

l’utilisation des images comprimées pour les mesures QCA. Au moment de la rédaction<br />

de ce mémoire, une telle étude est en cours sous l’égide de l’American College of<br />

Cardiology.<br />

Quelles que soient les conclusions qui seront portées, il faut garder en mémoire les<br />

nombreuses possibilités d’adapter le traitement de l’image comprimée lorsque l’on connaît<br />

les conditions d’utilisation de l’image. Ainsi, [DING-96] a montré qu’une régularisation de<br />

l’image JPEG, selon un approche similaire à celle développée au chapitre II-5, permet<br />

d’améliorer de façon significative la détection des contours sur des images très<br />

comprimées.<br />

- 209 -


CHAPITRE II-5<br />

CONCLUSION DE LA PARTIE<br />

EVALUATION<br />

- 210 -


Chapitre I-5: Conclusion de la partie évaluation<br />

1. Objet des évaluations<br />

La deuxième partie de ce mémoire a été consacrée à l’évaluation de la qualité<br />

d’<strong>angiographies</strong> <strong>cardiaques</strong> ayant subi une <strong>compression</strong> avec perte.<br />

Nous avons étudié l’impact des <strong>compression</strong>s MPEG, JPEG et MLOT à un t<strong>aux</strong> maximum<br />

de 12:1 sur les interprétations visuelles (évaluations diagnostiques de Lille et Houston) et<br />

sur les mesures quantitatives (évaluation QCA de Leiden).<br />

Avant de synthétiser l’apport de ces expérimentations, nous allons évoquer les<br />

enseignements tirés en matière de la qualité subjective des images comprimées.<br />

2. Qualité subjective<br />

Les tests de qualité visuelle et les expériences d’évaluation ont été effectuées avec des<br />

moniteurs noirs et blancs médic<strong>aux</strong>. Il est utile de souligner l’importance des conditions de<br />

visualisation sur l’impression subjective pour une image originale, et sur la visibilité<br />

d’artefacts de <strong>compression</strong>. Les conditions de visualisation des systèmes d’<strong>angiographies</strong><br />

sont parmi les plus exigeantes.<br />

2.1. Comparaison de JPEG, MPEG et MLOT<br />

Les observations subjectives recueillies au cours de ces années d’expériences avec<br />

ingénieurs et médecins nous permettent de conclure à une supériorité incontestée en<br />

matière de qualité visuelle de la méthode MLOT par rapport <strong>aux</strong> standards JPEG et<br />

MPEG. A un t<strong>aux</strong> de 12:1, JPEG et MPEG présentent des artefacts de blocs alors que<br />

MLOT se distingue peu de l’original. A un tel t<strong>aux</strong>, les trois algorithmes ont une qualité<br />

visuelle bien acceptée par les médecins. A partir de t<strong>aux</strong> de 16:1, JPEG et MPEG<br />

présentent des artefacts de blocs importants et une perte de netteté. Les commentaires<br />

des médecins nous avaient incités à ne pas considérer un tel t<strong>aux</strong> pour ces algorithmes<br />

dans nos évaluations. En revanche, MLOT présente des artefacts légers: une modification<br />

de la texture du bruit principalement.<br />

2.2. Visibilité de la présence de la <strong>compression</strong> selon les observateurs<br />

L’appréciation de la qualité d’image subjective dépend beaucoup de la spécialité de<br />

l’observateur. Les jugements portés par les développeurs d’algorithmes ou les ingénieurs<br />

(les “techniciens”) étaient différents de ceux des médecins (les “cliniciens”). En particulier,<br />

une grande attention a été portée par les techniciens sur les artefacts de blocs. Il s’est<br />

avéré que les cliniciens étaient beaucoup moins gênés que prévu. Comme les<br />

<strong>angiographies</strong> <strong>cardiaques</strong> sont par nature des images très bruitées, un niveau relatif<br />

d’artefacts semble tolérable dès lors que les ventricules et les vaisse<strong>aux</strong> présentent un<br />

bon contraste.<br />

Cette remarque confirme qu’il est indispensable d’évaluer la qualité des images<br />

comprimées avec leurs utilisateurs fin<strong>aux</strong>.<br />

A des t<strong>aux</strong> de 12:1, l’une des deux équipes médicales impliquées dans les évaluations<br />

subjectives ne s’est jamais aperçu que les images étaient comprimées, que ce soit avec<br />

MPEG ou MLOT, même en faisant porter l‘attention sur une zone ‘artéfactée’. Dans l’autre<br />

équipe, les médecins arrivaient en général à reconnaître la présence de la <strong>compression</strong>,<br />

assez souvent pour MLOT et très souvent pour JPEG. Cette différence peut être due <strong>aux</strong><br />

- 211 -


Chapitre I-5: Conclusion de la partie évaluation<br />

conditions d’acquisition et de visualisation d’un site à l’autre, et à une connaissance<br />

inégale sur les aspects techniques du traitement de l’image entre les deux équipes.<br />

Il n’est pas pareil de porter un jugement qualitatif sur une image, et de pouvoir établir un<br />

diagnostic correct. Dans l’équipe qui reconnaissait les images comprimées (en les jugeant<br />

légèrement moins bonnes que des origin<strong>aux</strong>), les interprétations visuelles diagnostiques<br />

n’étaient pas significativement différentes avec ou sans <strong>compression</strong>.<br />

2.3. Effet des post-traitements<br />

Quelques expérimentations pilotes ont mis en évidence l’impact majeur de certains posttraitements<br />

sur la visibilité des artefacts de <strong>compression</strong>. Le principal post-traitement dont<br />

l’utilisation doit être surveillée en combinaison avec la <strong>compression</strong> est le renforcement de<br />

contour. Ensuite viennent le zoom et le réglage du contraste.<br />

3. Evaluations diagnostiques<br />

3.1. Conditions expérimentales<br />

Nous avons cherché à savoir si la performance diagnostique concernant les tâches<br />

d’interprétation visuelle des <strong>angiographies</strong> était modifiée par la <strong>compression</strong>, avec JPEG,<br />

MPEG et MLOT à un t<strong>aux</strong> de 12:1.<br />

Nous avons tenté de placer les observateurs dans des conditions identiques à celles dans<br />

lesquelles ils établissent normalement leur diagnostic, en leur demandant d’effectuer des<br />

tâches correspondant à leurs pratiques courantes. En conséquence, notre protocole<br />

expérimental a été basé sur des examens complets comportant plusieurs centaines<br />

d’images chacun, visualisé sur un système identique <strong>aux</strong> systèmes cliniques. Nous avons<br />

enregistré l’interprétation visuelle complète des <strong>angiographies</strong>, impliquant la localisation et<br />

la classification d’anormalités sur 3 à 5 segments de ventricule gauche et 15 segments<br />

d’artère coronaires.<br />

3.2. Méthode statistique et variabilité des observateurs<br />

La méthodologie statistique a été basée sur l’estimation de concordances interobservateur,<br />

intra-observateur et inter-<strong>compression</strong>.<br />

Nous avons constaté des concordances inter- et intra-observateur bonnes à excellentes.<br />

De nombreux trav<strong>aux</strong> font état d’une variabilité importante des interprétations visuelles sur<br />

les films de radio-cinéma ([KUSS-92]). Nous pensons qu’une approche rigoureuse pour la<br />

localisation des segments d’artères coronaires est indispensable à ce genre d’étude et<br />

qu’elle nous a permis de limiter le problème. Dans notre première campagne d’évaluation,<br />

ce problème a été observé malgré une attention portée sur le sujet. Nous l’avons résolu<br />

en créant un score global par artère principale à partir des réponses sur tous les<br />

segments. Dans la deuxième étude, une cartographie des coronaires de chaque patient a<br />

été établie à partir des images réelles, et utilisée pour toutes les occurrences originales ou<br />

comprimées du même patient. Le deuxième élément de notre protocole qui contribue<br />

vraisemblablement à de bons accords est l’utilisation d’une réponse qui discrimine les<br />

anormalités coronaires de façon sémantique, au lieu d’une réponse basée sur un<br />

pourcentage de sténose.<br />

- 212 -


Chapitre I-5: Conclusion de la partie évaluation<br />

3.3. Princip<strong>aux</strong> résultats<br />

Nos résultats montrent qu’il n’y a aucune différence significative des concordances sur les<br />

ventriculographies avec ou sans <strong>compression</strong>. Globalement, il n’y a pas de différence<br />

significative des concordances sur les coronarographies. Quelques analyses ont donné<br />

des concordances modifiées par la <strong>compression</strong>, mais les tests sont justes à la limite<br />

d’être significatifs. Dans la campagne d’évaluation de Lille, un observateur seulement<br />

présente une concordance inter-<strong>compression</strong> entre les origin<strong>aux</strong> et MPEG inférieure <strong>aux</strong><br />

autres concordances inter-<strong>compression</strong> pour les trois artères coronaires, mais pas de<br />

façon significative. Dans l’évaluation de Houston, la concordance globale intraobservateur<br />

des segments coronaires dist<strong>aux</strong> uniquement est légèrement inférieure <strong>aux</strong><br />

autres pour MLOT. Compte tenu de l’ensemble des résultats, nous pensons que ces<br />

observations ne correspondent pas à des phénomènes représentatifs.<br />

Les campagnes d’évaluation diagnostiques ne permettent pas de conclure à une<br />

modification significative de l’interprétation visuelle sur des <strong>angiographies</strong> comprimées.<br />

Ces résultats sont très positifs quant à l’application de la <strong>compression</strong>. Ils méritent d’être<br />

complétés par des études similaires. De plus , des évaluations axées sur des pathologies<br />

particulières (thrombus, dissection) seraient également utiles car les cas sélectionnés<br />

aléatoirement dans une population de patient de service d’hémodynamique en incluent un<br />

nombre assez faible. Au moment de la rédaction de ce mémoire, une étude multicentrique<br />

est en cours sous l’égide de l’ACC avec l’algorithme JPEG. Des séquences<br />

extraites d’examens et présentant des types d’anormalités précises ont été sélectionnées<br />

sur plusieurs sites américains et européens. Ils font l’objet d’une interprétation visuelle par<br />

des observateurs de plusieurs institutions.<br />

4. Evaluation QCA<br />

Nous avons cherché à savoir si les mesures quantitatives était modifiées par la<br />

<strong>compression</strong>, avec JPEG et MLOT à des t<strong>aux</strong> de 5, 8 et 12:1.<br />

Nous avons observé une légère augmentation de variabilité des mesures sur les images<br />

comprimées par rapport <strong>aux</strong> origin<strong>aux</strong>. Mais les tests statistiques ne permettent pas de<br />

conclure à des différences significatives. Il semble utile de compléter ce travail par une<br />

étude incluant plus de lésions et plus d’un opérateur avant de conclure définitivement sur<br />

l’utilisation des images comprimées pour les mesures QCA. Au moment de la rédaction<br />

de ce mémoire, une telle étude est en cours sous l’égide de l’American College of<br />

Cardiology, avec JPEG.<br />

Quelles que soient les conclusions qui seront portées, il faut garder en mémoire les<br />

nombreuses possibilités d’adapter le traitement de l’image comprimée lorsque l’on connaît<br />

les conditions d’utilisation de l’image. Ainsi, [DING-96] a montré qu’une régularisation de<br />

l’image JPEG, selon un approche similaire à celle développée au chapitre I-4, permet<br />

d’améliorer de façon notoire la détection de contours sur des images présentant de<br />

sévères artefacts de blocs.<br />

5. Perspectives<br />

L’évaluation de la <strong>compression</strong> appliquée <strong>aux</strong> <strong>angiographies</strong> <strong>cardiaques</strong> est un sujet<br />

d’actualité. Face à l’essor des solutions entièrement numériques des laboratoires de<br />

cathétérismes, la communauté cardiologique est à la recherche d’une réponse sur les<br />

limites d’applications de la <strong>compression</strong> avec perte.<br />

- 213 -


Chapitre I-5: Conclusion de la partie évaluation<br />

Les résultats de nos études sont très prometteurs, bien qu’ils méritent d’être complétés.<br />

Tout laisse à penser que les algorithmes standards à des t<strong>aux</strong> moyens (8 à 12:1) vont<br />

être encore plus largement utilisés si les comités médic<strong>aux</strong> ad hoc se prononcent sur les<br />

tâches pour lesquels ils sont appropriés (diagnostic primaire, QCA, ou revue du dossier<br />

patient). On peut s’attendre à pouvoir travailler avec des t<strong>aux</strong> supérieurs avec des<br />

méthodes dédiées telles que MLOT.<br />

- 214 -


BILAN ET PERSPECTIVES<br />

- 215 -


Bilan et perspectives<br />

Motivation de ces trav<strong>aux</strong><br />

Le fil d’Ariane de cette thèse a été une question riche de conséquences pour les<br />

laboratoires de cathétérismes <strong>cardiaques</strong>: peut-on utiliser la <strong>compression</strong> avec perte<br />

d’information contrôlée sur les <strong>angiographies</strong>?<br />

L’accès à des solutions entièrement numériques pour le plus grand nombre d’institutions<br />

passera par la digitalisation de tous les maillons de la chaîne d’imagerie: acquisition,<br />

stockage, visualisation dynamique, et échange. Bien sûr, le maillon le plus faible<br />

détermine la performance, ou le coût de l’ensemble. La <strong>compression</strong> est une solution<br />

prometteuse pour rendre la chaîne viable. Mais quelle méthode faut-il choisir, et comment<br />

valider ce choix?<br />

Face à ces deux interrogations, nos trav<strong>aux</strong> ont porté en parallèle sur quelques aspects<br />

techniques de la <strong>compression</strong>, et sur l’évaluation de la qualité des images comprimées<br />

dans un contexte clinique.<br />

Synthèse de nos recherches<br />

Nos développements algorithmiques ont été validés dans le cadre d’une méthode à base<br />

de Full-Frame DCT. L’étude de l’adaptabilité de la quantification et de l’impact du<br />

renforcement de contour sur les images comprimées ont conduit à des résultats<br />

favorables par rapport au standard JPEG.<br />

Nos évaluations ont porté sur l’interprétation visuelle et sur les mesures quantitatives de<br />

sténoses avec les méthodes de <strong>compression</strong> standard JPEG et MPEG, et avec la<br />

méthode dédiée MLOT développée par Philips. Un t<strong>aux</strong> maximum de 12:1 a été utilisé<br />

dans nos campagnes d’évaluation. A partir de protocoles expériment<strong>aux</strong> basés sur les<br />

concordances inter-observateur, intra-observateur et inter-<strong>compression</strong>, nous avons pu<br />

observer que ni les interprétations visuelles, ni les mesures quantitatives ne présentent de<br />

différences significatives avec ou sans <strong>compression</strong> (dans les conditions de nos études).<br />

Ces résultats méritent d’être confirmés par d’autres trav<strong>aux</strong>, notamment à cause de la<br />

limite de signification d’un petit nombre d’analyses détaillées des données avec MPEG et<br />

JPEG.<br />

Globalement, les résultats de ces expériences sont très prometteurs, car ils attestent que<br />

la <strong>compression</strong> est acceptable pour le travail du clinicien.<br />

Nous souhaitions mettre au point une nouvelle méthodologie d’évaluation de la<br />

performance diagnostique applicable en angiographie cardiaque. Effectivement, il est<br />

possible d’estimer, dans des conditions proches de la pratique clinique courante, la<br />

reproductibilité des observateurs avec ou sans <strong>compression</strong>.<br />

Nous nous attendions à pouvoir démontrer qu’une méthode de <strong>compression</strong> dédiée<br />

surpasse les méthodes standard JPEG et MPEG. Effectivement, la supériorité d’une<br />

méthode telle que MLOT est incontestable en matière de rapport signal à bruit et de<br />

qualité visuelle. Avec un peu plus de développement et le test sur une plus grande base<br />

d’images, nous pensons qu’il serait possible de donner le même type de confirmation<br />

avec la méthode à base de Full-Frame DCT. Nous estimons qu’à des t<strong>aux</strong> supérieurs à<br />

ceux de nos évaluations diagnostiques et quantitatives, il est probable que MLOT<br />

surpasserait les standards d’un point de vue de la performance diagnostique, mais que<br />

jusqu’à un t<strong>aux</strong> de 12:1, les standards sont également acceptables.<br />

- 216 -


Bilan et perspectives<br />

Les résultats de nos trav<strong>aux</strong> contribuent donc à montrer que la <strong>compression</strong> est viable<br />

pour les <strong>angiographies</strong> <strong>cardiaques</strong>, et qu’un algorithme dédié tel que MLOT est le choix le<br />

plus approprié en terme de performance.<br />

Critères de choix pour une méthode de <strong>compression</strong>:<br />

scientifiques ou pragmatiques?<br />

Mais d’autres considérations doivent aussi être intégrées lors de la sélection d’une<br />

méthode de <strong>compression</strong>. Le meilleur algorithme, même validé cliniquement, n’est pas<br />

forcément celui qui va s’imposer dans la pratique. Voilà un enseignement important relatif<br />

au contexte général de ce travail, et qui dépasse le cadre purement scientifique.<br />

Avant de se déterminer pour l’une ou l’autre méthode, trois questions doivent être<br />

clarifiées:<br />

1. A quoi vont servir les images comprimées?<br />

Lors des essais techniques d’un algorithme, il faut intégrer dès le départ les propriétés<br />

intrinsèques des images, les conditions de visualisation (moniteurs, traitements d’image),<br />

les tâches <strong>aux</strong>quelles sont destinées les images comprimées. Nous avons travaillé sur<br />

quelques-unes des nombreuses possibilités d’adapter la <strong>compression</strong> à ces éléments.<br />

2. Sur quoi vont être utilisées les images comprimées?<br />

Cette question nous ramène <strong>aux</strong> maillons de la chaîne numérique d’imagerie. Au début de<br />

ce projet, le stockage des images en temps réel pendant l’acquisition et leur restitution<br />

dynamique constituaient le maillon faible. Les disques durs utilisés étaient extrêmement<br />

onéreux, de capacité limitée, et présentaient une courbe d’évolution prix/performance très<br />

modérément rapide. Compte tenu de l’environnement complexe et propriétaire à l’intérieur<br />

d’un système d’angiographie cardiaque, il était légitime d’envisager un hardware de<br />

<strong>compression</strong> avec perte basé sur une méthode dédiée et sans compromis de qualité,<br />

ayant attesté de ses performances cliniques. Mais en quelque temps, l’évolution des<br />

performances des disques durs est devenue exponentielle, avec des prix en chute libre.<br />

La <strong>compression</strong> pour le maillon acquisition n’était plus justifiée.<br />

Les autres parties de la chaîne commençaient alors à poser un problème. Le compact<br />

disc s’est imposé pour remplacer le film de radio-cinéma en tant que médium numérique<br />

remplissant le même rôle (stockage, visualisation dynamique, échange). Lors de<br />

l’introduction par l’ACC en 1995 du compact disc cardiologique, les lecteurs de CD ne<br />

permettaient pas une visualisation dynamique directement depuis le disque. Il fallait<br />

transférer pendant 15 à 20 mn l’examen sur un disque dur avant d’avoir accès <strong>aux</strong><br />

séquences dynamiquement. Le maillon faible devenait la visualisation depuis le médium.<br />

Conforté par les résultats préliminaires de nos campagnes d’évaluation sur le potentiel de<br />

la <strong>compression</strong> avec perte, Philips a ajouté un format comprimé avec JPEG sur son CD<br />

(en plus des images originales). Compte tenu de l’application de la <strong>compression</strong> sur des<br />

consoles de visualisation de prix modéré, un investissement dans un hardware dédié<br />

n’était pas envisageable et un hardware de dé<strong>compression</strong> JPEG a été utilisé. D’autant<br />

plus que le problème apparaissait déjà comme temporaire avec l’apparition de lecteurs de<br />

CD toujours plus rapides. A cette époque, l’ACC a entrepris une série d’études pour<br />

valider les limites d’application de JPEG. La motivation principale était l’utilisation des<br />

images JPEG sur CD.<br />

Aujourd’hui, ce maillon ne pose plus de problème, car les lecteurs sont devenus<br />

suffisamment rapides.<br />

Mais l’essor des autoroutes de l’information motive une autre approche pour échanger<br />

des images entre institutions: pourquoi ne pas utiliser un modem, ou Internet? La faible<br />

- 217 -


Bilan et perspectives<br />

bande passante des lignes de télécommunication est désormais le maillon faible. Compte<br />

tenu de la démocratisation des outils multimédia, un autre standard devient un sérieux<br />

candidat: MPEG.<br />

3. Comment évolue la technologie sur laquelle la <strong>compression</strong> est appliquée?<br />

L’historique abordé ci-dessus invite à considérer de près le maillon sur lequel est<br />

appliquée la <strong>compression</strong>. L’aspect temporaire ou non de sa faiblesse doit être anticipé.<br />

Pendant que le pôle d’intérêt pour la <strong>compression</strong> s’est déplacé de l’acquisition vers le<br />

médium, puis vers la ligne de communication, un besoin clair s’est révélé: celui<br />

d’employer des standards. Le coût de réalisation hardware d’un algorithme dédié est<br />

rédhibitoire pour un besoin qui s’avère temporaire, sur des consoles de travail de prix<br />

modéré, pour des petites séries.<br />

Quel avenir pour la <strong>compression</strong> en angiographie cardiaque?<br />

Le progrès des technologies pendant la durée de ce projet a été étonnant et a bouleversé<br />

les attentes par rapport à un système de <strong>compression</strong> en angiographie cardiaque.<br />

L’évolution des mentalités a aussi été remarquable. Au début de nos recherches, l’idée de<br />

la <strong>compression</strong> avec perte appliquée en routine était presque en avance sur son temps.<br />

Elle suscitait de la méfiance de la part du monde médical. L’accent était mis sur<br />

l’obtention de la meilleure qualité possible. Aujourd’hui, l’accent porte sur la fonctionnalité<br />

supplémentaire apportée par le numérique.<br />

Il nous semble que l’avenir de la <strong>compression</strong> en angiographie cardiaque est très<br />

prometteur. Il est vraisemblable qu’elle ne sera pas appliquée pour l’acquisition et<br />

l’archivage tant qu’une multitude d’études n’aura pas prouvé son innocuité et que la<br />

législation ne l’approuvera pas comme équivalente <strong>aux</strong> origin<strong>aux</strong>. Mais on voit fleurir les<br />

applications avec télécommunication, dossiers patients numériques et multimédia etc... La<br />

démocratisation de la <strong>compression</strong> avec perte en cardiologie sera facilitée par<br />

l’incorporation d’algorithmes standards dans le format DICOM, par des trav<strong>aux</strong><br />

d’évaluation complémentaires de ceux présentés dans ce mémoire, par l’amélioration des<br />

performances des standards eux-mêmes.<br />

- 218 -


REFERENCES BIBLIOGRAPHIQUES<br />

- 219 -


[AFNO-73] AFNOR : " Statistique et Qualité : Traitement statistique des Données -<br />

Détermination d'un<br />

Intervalle Statistique de Dispersion " , NF X 06-032, 1973.<br />

[AHME-74] AHMED N., NATARAJAN T., RAO K.R. : " Discrete Cosine Transform " ,<br />

IEEE Trans. on<br />

Computers, 1974,Vol C-23, p90-93.<br />

[AKAN-92] AKANSU A.N., HADDAD R.A. : " Multiresolution Signal Decomposition -<br />

Transforms, Subbands, Wavelets " , Morristown : Academic Press, 1992,<br />

376p.<br />

[AKRO-92] AKROUT N., DIAB C., PROST R., GOUTTE R., AMIEL M. : " Subband<br />

Directional Vector<br />

Quantization in Radiological Image Compression " , SPIE Medical Imaging,<br />

1992,Vol 1653,<br />

N° 6, p203-212.<br />

[AKRO-93] AKROUT N., PROST R., GOUTTE R. : " A Fast Algorithm for Vector<br />

Quantization in<br />

Radiological Image Compression " , SPIE Medical Imaging, 1993, Vol 1897,<br />

p259-265.<br />

[ALTM-83] ALTMAN D.G., BLAND J.M. : " The Analysis of Method Comparison Studies<br />

" , Statistician,<br />

1983,Vol 32, p307-317.<br />

[ARNE-79] ARNETT E.N., ISNER J.M., REDWOOD D.R., KENT K.M., BAKER W.P.,<br />

ACKERSTEIN H.,<br />

ROBERTS W.C. : " Coronary Artery Narrowing in Coronary Heart Disease :<br />

Comparison of<br />

Cineangiographic and Necropsy Findings " , Annals of Internal Medicine,<br />

1979,Vol 91, N° 3, p350-356.<br />

[BARL-94] BARLAUD M., SOLE P., GAIDON T., ANTONIONI M., MATHIEU P. : "<br />

Pyramidal Lattice<br />

Vector Quantization for Multiscale Image Coding " , IEEE Trans. on Image<br />

Processing, 1994,Vol 3, N° 4, p367-381.<br />

[BEAU-90] BEAUMAN G.J., VOGEL R.A. : " Accuracy of Individual and Panel Visual<br />

Interpretation of<br />

Coronary Arteriograms : Implications for Clinical Decisions " , J. Am. Col.<br />

Cardiol., 1990,Vol 16, N°1, p108-113.<br />

[BERE-94] BERETTA P.V., PROST R., AMIEL M. : " Optimal Bit Allocation for Full-<br />

Frame DCT Coding<br />

Schemes - Application to Cardiac Angiography " , SPIE Medical Imaging,<br />

- 220 -


1994,Vol 2164, p291-301.<br />

[BERE-95] BERETTA P.V., PROST R. : " Unsharp Masking and Its Inverse Processing<br />

Integrated in a<br />

Compression / De<strong>compression</strong> Scheme - Application to Cardiac Angiograms<br />

" , SPIE Medical Imaging, 1995,Vol 2431, p233-244.<br />

[BERT-93] BERTRAND M.E., LABLANCHE J.M., BAUTERS C., LEROY F., MAC<br />

FADDEN E. : "<br />

Discordant Results of Visual and Quantitative Estimates of Stenosis Severity<br />

Before and<br />

After Coronay Angioplasty " , Catheterization and Cardiovascular Diagnosis,<br />

1993,Vol 28, p1-6.<br />

[BLAN-86] BLAND J.M., ALTMAN D.G. : " Statistical Method for Assessing Agreement<br />

between two<br />

Methods of Clinical Measurement " , The Lancet, 1986,Vol 8, p307-310.<br />

[BREE-92] BREEUWER M., HEUSDENS R., ZWART P. : " Data Compression of X-Ray<br />

Angiographic<br />

Image Sequences " , Eindhoven : Philips research, 1992, 27p,Technical note<br />

297/92.<br />

[BREE-94] BREEUWVER M., HEUSDENS R., ZWART P. : " Overlapped Transform<br />

Coding of Medical<br />

X-ray Images " , SPIE Medical Imaging, Newport Beach (CA), 1994, Vol<br />

2164, p264-275.<br />

[BREE-95] BREEUWER M., HEUSDENS R., GUNNEWIEK R.K., ZWART P., HAAS<br />

H.P.A. : " Data<br />

Compression of X-ray Cardio-angiographic Image Series " , International<br />

Journal of Cardiac Imaging, 1995,Vol 11, N° 3, p179-186.<br />

[BROW-77] BROWN B.G., BOLSON E.L., FRIMER M., DODGE H.T. : " Quantitative<br />

Coronary Arteriography : Estimation of Dimension, Hemodynamic Resistance,<br />

and Atheroma Mass of Coronary Artery Lesions<br />

Using the Arteriogram and<br />

Digital Computation " , Circulation, 1977,Vol 55, p329-337.<br />

[BROW-82] BROWN B.G., BOLSON E.L., DODGE H.T. : " Arteriographic Assessments<br />

of Coronary<br />

Arteriosclerosis : Review of Current Methods, theirs Limitations and Clinical<br />

Applications " , Arteriosclerosis, 1982,Vol 2, p1-15.<br />

[BROW-86] BROWN B.G., BOLSTON E.L., DODGE H.T. : " Quantitative Computer<br />

Techniques for<br />

Analysing Coronary Arteriograms " , Prog. Cardiovasc. Dis., 1986,Vol 18,<br />

p403-418.<br />

[CASS-89] CASSEREAU P.M., STAELIN D.H., DE JAGER G. : " Encoding of Images<br />

Based on a Lapped Orthogonal Transform " , IEEE Trans. Com., 1989,Vol 37, N° 2,<br />

- 221 -


p189-193.<br />

[CHAK-90] CHAKRABORTY D.P., WINTER L.H.L. : " Free Response Methodology :<br />

Alternate Analysis<br />

and a New Observer-Performance Experimental " , Radiology, 1990,Vol<br />

174, N° 3, p873- 881.<br />

[CHAN-89a] CHAN K.K., LOU S-L., HUANG H.K. : " Full-Frame Transform Coding of<br />

Cross-Sectional<br />

Images " , SPIE Medical Imaging, 1989,Vol 1091, p77-82.<br />

[CHAN-89b] CHAN K.K., LOU S-L., HUANG H.K. : " Radiological Image Compression<br />

Using Full-Frame<br />

Cosine Transform with Adaptive Bit-Allocation " , Computerized Medical<br />

Imaging & Graphics, 1989, Vol 13, N° 2, p153-159.<br />

[CHEN-76] CHEN W-H., FRALICK S.C. : " Image Enhancement Using Cosine<br />

Transform Filtering " ,<br />

Proc. of the symp.on current math. pbs in im. scie, Palo Alto (CA), 1976,<br />

p186-192.<br />

[CHIT-90] CHITPRASERT B., RAO K.R. : " Discrete Cosine Transform Filtering " ,<br />

Signal Processing,<br />

1990,Vol 19, p233-245.<br />

[CLAR-85]<br />

1985, 432p.<br />

CLARKE R.J. : " Transform Coding of Images " , London, Academic Press,<br />

[COHE-60] COHEN J. : " A Coefficient of Agreement for Nominal Scales " , Educ.<br />

Psychol. Meas., 1960,Vol 20, p37-46.<br />

[COSM-93a] COSMAN P.C., OEHLER K.L., RISKIN E.A., GRAY R.M. : " Using Vector<br />

Quantization for<br />

Image Processing " , Proceedings of the IEEE, 1993,Vol 81, N° 9, p1326-<br />

1341.<br />

[COSM-93b] COSMAN P.C. : " Perceptual Aspects of Vectors Quatization " , Thèse :<br />

Stanford University, USA, 1993, 116p.<br />

[COSM-94] COSMAN P.C., DAVIDSON H.C., BERGIN C.J., TSENG C-W, MOSES L.E.,<br />

RISKIN E.A.,<br />

OLSHEN R.A., GRAY R.M. : " Thoracic CT Images : Effect of Lossy Image<br />

Compression on<br />

Diagnotic Accuracy " , Radiology, 1994,Vol 190, N° 2, p517-524.<br />

[CUTL-52] CUTLER C.C. : " Differential Quantization of Communication Signals " , US<br />

Patent, 1952, N° 2605361.<br />

[DERO-77] DEROUEN T.A., MURRAY J.A., OWEN W. : " Variability in the Analysis of<br />

Coronary Arteriograms " , Circulation, 1977,Vol 55, N° 2, p324-328.<br />

- 222 -


[DETR-75] DETRE K.M., WRIGHT E., MURPHY M.L., TAKARO T. : " Observer<br />

Agreement in the Evaluating Coronary Angiograms " , Circulation,<br />

1975,Vol 52, p979-986.<br />

[DING-95]<br />

Compresion<br />

DING Y., BAUDIN O., BERETTA P., PROST R. : " Medically Adapted JPEG<br />

Scheme " , SPIE Medical Imaging, 1995,Vol 2431, p516-525.<br />

[ECKS-95] ECKSTEIN M.P., MORIOKA C.A., WHITING J.S., EIGLER N. : "<br />

Psychophysical Evaluation of the Effect of JPEG, Full-Frame DCT, Wavelet Image<br />

Compression on Signal Detection in Medical Image Noise " , Proc. SPIE, 1995, Vol<br />

2436, , p79-89.<br />

[EEUW-90] EEUWICK VAN H. : " The Influence of Edge Enhancement on Analytical<br />

Programs " , Best : Philips Medical Systems, 1990, 35p, Internal Report, Vol XDB-<br />

048-816.<br />

[ESKI-95] ESKICIOGLU A.M., FISHER P.S. : " Image Quality Measures and Their<br />

Performance " ,<br />

IEEE Trans. Com., 1995,Vol 43, N° 12, p2959-65.<br />

[FLEI-81] FLEISS J.L. : " Statistical Methods for Rates and Proportions", 2 nd edition,<br />

New York : John Wiley, 1981, "The Measurement of Interrater Agreement",p214-224.<br />

[FLEM-91] FLEMING R.M., KIRKEEIDE R.L., SMALLING R.W., GOULD K.L. : "<br />

Patterns in Visual Interpretation of Coronary Arteriograms as Detected<br />

by Quantitative Coronary<br />

Arteriography", J. AM. COL. CARDIOL.,<br />

1991, Vol 18, N° 4, p945-951.<br />

[GALB-78] GALBRAITH J.E., MURPHY M.L., SOYZA N. DE : " Coronary Angiogram<br />

Interpretation / Interobserver Variability " , J. Am. Med. Assoc., 1978,Vol 240,<br />

N° 19, p2053-2056.<br />

[GENS-71] GENSINI G.G., KELLY A.E., DACOSTA B.C.B., HUNTINGTON P.P. : "<br />

Quantitative Angiography : The Measurement of Coronary Vasomobility in the<br />

Intact Animal and Man " , Chest, 1971,Vol 60, p522-530.<br />

[GERS-82]<br />

Theory,<br />

GERSHO A. : " On the Structure of Vector Quantizers " , IEEE Trans. Inform.<br />

1982,Vol 28, N° 2, p157-166.<br />

[GRAY-84] GRAY R.M. : " Vectors Quantization " , IEEE ASSP Mag, 1984,Vol 1, N° 2,<br />

p4-29.<br />

[GRIM-96] GRIMAUD J., LAI M., THORPE J., ADELEINE P., WANG L., BAKKER G.J.,<br />

PLUMMER D.L.,<br />

TOFTS P.S., MCDONALD W.I., MILLER D.M. : " Quantification of MRI<br />

Lesion Load in Multiple Sclerosis : a Comparison of Three Computer-Assisted<br />

Techniques " , Magnetic Resonance Imaging, 1996,Vol 14, N° 5, p495-505.<br />

[HANL-82] HANLEY J.A., MC NEIL B.J. : " The Meaning and Use of the Area under a<br />

ROC Curve " ,<br />

Radiology, 1982,Vol 143, p29-36.<br />

- 223 -


[HERM-92] HERMILLER J.B., CUSMA J.T., SPERO L.A., FORTIN D.F., HARDING<br />

M.B., BASHORE T.M. : " Quantitative and Qualitative Coronary Angiographic<br />

Analysis : Review of Methods, Utility, and Limitations " , Catheterization and<br />

Cardiovascular Diagnosis, 1992,Vol 25, p110- 131.<br />

[HIND-94] HINDEL R. : " Implementation of the DICOM 3.0 Standard - A Pragmatic<br />

Handbook " , Oak Book (IL) : Robert Hindel, Radiological Society of North<br />

America, 1994, 118p.<br />

[HO -91] HO B.K.T., CHAO J., WU C.S., HUANG H.K. : " Full-Frame Cosine<br />

Transform Image Compression for Medical and Industrial Applications " ,<br />

Machine Vision and Applications,<br />

1991, Vol3, p89-96.<br />

[HO B-93] HO B.K.T., TSENG V., MA M., CHEN D. : " A Mathematical Model to<br />

Quantify JPEG Block<br />

Artifacts ", SPIE Medical Imaging, Newport Beach (CA),<br />

PACS : Design and Evaluation ,<br />

1993, p22-27.<br />

[HUFF-52] HUFFMAN D.A. : " A method for the Construction of Minimum Redundancy<br />

Codes " , Proc. Institute of Radio Engineers, 1952,Vol 40, N° 9, p1089-1101.<br />

[ISHI-90] ISHIGAKI T., SAKUMA S., IKEDA D., ITOH Y., SUZUKI K.A., IWAI S. : "<br />

Clinical Evaluation of Irreversible Image Compression : Analysis of Chest Imaging with<br />

Computed Radiology " , Radiology, 1990,Vol 175, N° 3, p739-743.<br />

[JACQ-93] JACQUIN A.E. : " Fractal Image Coding : a Review " , Proceedings of the<br />

IEEE, 1993,Vol 81, N° 10, p1451-1465.<br />

[JAIN-89] JAIN A.K. : " Fundamentals of Digital Image Processing " , Englewood Cliffs :<br />

Prentice Hall, 1989, 569p.<br />

[KALB-90] KALBFLEISCH S.J., MCGILLEM M.J., PINTO I.M.F., KAVANAUGH K.M.,<br />

DEBOE S.F.,<br />

MANCINI G.B.J. : " Comparison of Automated Quantitative<br />

Coronary Angiography with Caliper Measurements of Percent<br />

Diameter Stenosis " , American Journal of Cardiology, 1990,Vol 65,<br />

p1181-1184.<br />

[KAST-91] KASTAGGELOS A.K., BIEMOND J., SCHAFER R.W., MERSEREAU R.M. :<br />

" A Regularized<br />

Iterative Image Restoration Algorithm " , IEEE Trans. Sig. Proc., 1991,Vol<br />

39, N° 4, p914- 928.<br />

[KATR-88] KATRITSIS D., LYTHALL D.A., COOPER I.C., CROWTHER A., WEBB-<br />

PEPLOE M.M. : "<br />

Assessment of Coronary Angioplasty : Comparison of Visual Assessment,<br />

Hand-Held Caliper Measurement and Automated Digital Quantification " , Catheterization<br />

and Cardiovascular Diagnosis, 1988,Vol 15, p237-242.<br />

[KERN-91] KERN M.J. : " The Cardiac Catheterization HandBook " , Saint Louis : Mosby<br />

Year Book, 1991, 512p.<br />

- 224 -


[KONI-94] KONING G., MEURS VAN B.A., HAAS H.P.A., REIBER J.H.C. : " Effect of<br />

Data Compression on Quantitative Coronary Measurements " ,<br />

Catheterization and Cardiovascular<br />

Diagnosis, 1994,Vol 33, p1-11.<br />

[KONI-97] KONING G., BERETTA P.V., ZWART P., HEKKING E., REIBER J.H.C. : "<br />

Effect of Lossy Data Compression on Quantitative Coronary Measurements " ,<br />

International Journal of<br />

Cardiac Imaging, 1997, Vol 13, p261-270.<br />

[KUSS-92] KUSSMAUL W.G., POPP R.L., NORCINI J. : " Accuracy and Reproducibility<br />

of Visual Coronary Stenosis Estimates Using Information from Multiple Observers " ,<br />

Clin. Cardiol., 1992,Vol 15, p154-162.<br />

[LEGA-91] LEGALL D.J. : " MPEG : A video Compression Standard for Multimedia<br />

Applications " ,<br />

Communications of the ACM, 1991,Vol 34, N° 4, p46-58.<br />

[LIEN-95] LIENARD J. : " Compression Réversible d'Images Angiographiques<br />

Numérisées " , Thèse : Université Paris XI, 1995, 93p.<br />

[LIN -89] LIN L.I. : " A Concordance Correlation Coefficient to Evaluate Reproducibility<br />

" , Biometrics,<br />

1989,Vol 45, p255-268.<br />

[LO -85] LO S-C.B., HUANG H.K. : " Radiologic Image Compression : Full-Frame<br />

Bit-Allocation<br />

Technique " , Radiology, 1985,Vol 155, p811-817.<br />

[LO -91] LO S-C.B., KRASNER B., MUN S.K., HORII S.C. : " Full-Frame Entropy<br />

Coding for Radiological Image Compression " , SPIE Medical Imaging, 1991,Vol<br />

1444, p265-271.<br />

[LUST-76] LUSTED L.B. : " Clinical Decision Making" in "Decision Making and Medical<br />

Care " , Dombal & Gremy (eds.), Amsterdam : North Holland Publishing, 1976, p77-97.<br />

[MADI-78] MADIHALLY, NARASIMHA J., PETERSON A.M. : " On the Computation of<br />

Discrete Cosine<br />

Transform " , IEEE Trans. Com., 1978,Vol 26, N° 6, p934-936.<br />

[MALL-89] MALLAT S.G. : " A Theory for Multiresolution Signal Decomposition : The<br />

Wavelet<br />

Representation " , IEEE Trans. Pattern Analysis & Machine<br />

Intelligenc, 1989,Vol 11, N° 7, p674-693.<br />

[MALV-89] MALVAR H.S., STAELIN D.H. : " The LOT : Transform Coding Without<br />

Blocking Effects " ,<br />

IEEE Trans. Acoust. Speech Signal Processing, 1989,Vol 37, N° 4, p553-<br />

559.<br />

[MALV-90] MALVAR H.S. : " Lapped Transforms for Efficient Transform/Subband<br />

Coding " , IEEE<br />

Trans. Acoust. Speech Signal Processing, 1990,Vol 38, N° 6, p969-978.<br />

- 225 -


[MAND-92] MANDUCA M. : " A Wavelet Based Tool for Medical Image Compression " ,<br />

Proc. SPIE,<br />

1992,Vol 1653, p495-503.<br />

[MAND-93] MANDUCA M. : " Interactive Wavelet-Based 2D & 3D Image Compression " ,<br />

Proc. SPIE,<br />

1993,Vol 1987, p307-318.<br />

[MART-93] MARTUCCI S.A., MERSEREAU R.M. : " New Approaches to Block Filtering<br />

of Images Using<br />

Symmetric ConVol ution and the DST or DCT " , IEEE Trans. Signal Proc.,<br />

1993,Vol , p259- 262.<br />

[MAUE-79]<br />

Mismatched<br />

MAUERSBERGER W. : " Experimental Results on the Performance of<br />

Quantizers " , IEEE Trans. Inform. Theory, 1979, Vol IT-25, N°4, p381-386.<br />

[MCMA-79] MCMAHON M.M., BROWN B.G., CUKINGNAN R. : " Quantitative Coronary<br />

Angiography of<br />

the Critical Stenosis in Patients with Unstable Angina and Single Vessel<br />

Disease with Collaterals " , Circulation, 1979,Vol 60, p106-113.<br />

[MCMA-91] MCMAHON H., DOI K., SANADA S., MONTNER S.M., GIGER M.L., METZ<br />

C.E., NAKAMORI N., YIN F-F, XU X-W, et al. : " Data Compression :<br />

Effects on Diagnostic Accuracy in Digital Chest Radiography " , Radiology, 1991,Vol<br />

178, N° 1, p175-179.<br />

[METZ-86] METZ C.E. : " ROC Methodology in Radiologic Imaging " , Investigative<br />

Radiology, 1986,Vol<br />

21, N° 9, p720-733.<br />

[METZ-89]<br />

Analysis in<br />

245.<br />

METZ C.E. : " Some Practical Issues of Experimental Design and Data<br />

Radiological ROC Studies " , Investigative Radiology, 1989,Vol 24, p234-<br />

[MILL-70] MILLER K. : " Least Square Methods for III-posed Problems with a<br />

Prescribed Bound " ,<br />

SIAM J. Math. Anal., 1970,Vol 1, N° 2, p52-74.<br />

[MOLL-92] MOLL T., GENIN G., DIAB C., AKROUT N., PROST R., BREMON A.,<br />

JACQUEMET P. : "<br />

Compressed Mammograms by Block Subband Coding. Medical Assessment<br />

in the Detection of Microcalcifications " , Proceedings of the IEEE, 1992, Vol 3, p1221-<br />

1223.<br />

[MOON-93]<br />

to Statistical<br />

[NEMA-96]<br />

MOONEY C.Z., DUVAL R.D. : " Bootstrapping - A Nonparametric Approach<br />

Inference " , Newbury Park (CA) : Sage Publications, 1993, 73p.<br />

NEMA : " NEMA Standards : Digital Imaging & Communications in Medicine<br />

- 226 -


" , Rosslyn (Virginia) : National Electrical Manufacturers Association, NEMA<br />

Standards Publication, N° PS 3.5-1996, 1996, 77p.<br />

[NETR-77] NETRAVALI A.N. : " On quantizers for DPCM Coding of Picture Signals " ,<br />

IEEE Trans.<br />

Inform. Theory, 1977,Vol 23, p360-370.<br />

[NEWE-90] NEWELL J.D., KELSEY C.A. : " Digital Imaging in Diagnostic Radiology " ,<br />

New York :<br />

Churchill Livingstone, 1990, 352p.<br />

[NISS-94] NISSEN S.E., Etall : " Cardiac Angiography Without Cine Film : Erecting a<br />

'Tower of Babel'<br />

in the Cardiac Catheterization Laboratory " , J. AM. COL. CARDIOL.,<br />

1994,Vol 24, N° 3, p834-837.<br />

[NZOM-95] NZOMIGNI V. : " Compression sans Perte de Séquences d'Images<br />

Biomédicales " , Thèse :<br />

Université de Rennes I, 1995, 224p.<br />

[O'NE-66] O'NEAL J.B. : " Predictive Quantizing Systems (DPCM) for the Transmission<br />

of Television<br />

Signals " , Bell System Tech. J., may-june 1966, p689-719.<br />

[PENN-93] PENNEBAKER W.B., MITCHEL J.L. : " JPEG Still Image Data Compression<br />

Standard " , New York : van Nostrand Reinhold, 1993, 638p.<br />

[PROS-94] PROST R., BURDEAU J-L., GUILLOTEAU S., GOUTTE R. : " Regularized<br />

Myopic Image<br />

DeconVol ution. Application to Aperture Synthesis in Radio Astronomy " ,<br />

EURIPCO-94, Edinburgh Scotland UK, Proc. Vol 1 Theories & Applications, 1994,<br />

p307-310.<br />

[PROS-97] PROST R., DING Y., BASKURT A.. : " JPEG Dequantization Array for<br />

Regularized De<strong>compression</strong> " , IEEE Trans. Image Proc., 1997, Vol 6, N° 6, p883-888.<br />

[RABB-91a] RABBANI M., JONES P.W. : " Digital Image Compression Techniques " ,<br />

Bellingham (WA) : SPIE Optical Engineering Press, 1991, 221p.<br />

[RABB-91b] RABBANI M., JONES P.W. : " Image Compression Techniques for Medical<br />

Diagnostic<br />

Imaging Systems " , Journal of Digital Imaging, 1991,Vol 4, N° 2, p65-78.<br />

[RAO -90] RAO K.R., YIP P. : " Discrete Cosine Transform - Algorithms, Advantages,<br />

Applications " , New York : Academic Press, 1990, 490p.<br />

[REIB-84] REIBER J.H.C., KOOIJMAN C.J., SLAGER C.J., et al. : " Coronary Artery<br />

Dimension from<br />

Cineangiograms : Methodology and Validation of a Computer Assisted<br />

Analysis Procedure" , IEEE Trans. Medical Imaginig, 1984,Vol MI-3, p131-144.<br />

- 227 -


[REIB-89] REIBER J.H.C., ZWET VAN DER P.M.J., LAND VON C.D., et al. : " On-Line<br />

Quantification of<br />

Coronary Arteriograms with the DCI System " , Medicamundi, 1989,Vol 34,<br />

N° 3, p89-98.<br />

[REIB-94] REIBER J.H.C., KONING G., LAND VON C.D., ZWET VAN DER P.M.J. : "<br />

Why and How<br />

should QCA Systems be Validated ?" in "Progress in Quantitative Coronary<br />

Arteriography " , Dordrecht NL : Kluwer Academic Publishers, 1994, p33-48.<br />

[RIGO-96] RIGOLIN V.H., ROBIOLO P.A., SPERO L.A., HARRAWOOD B.P., MORRIS<br />

K.G., FORTIN<br />

D.F., BAKER W.A., BASHORE T.M., CUSMA J.T. : " Compression of Digital<br />

Coronary<br />

Angiograms does not Affect Visual or Quantitative Assessment of Coronary<br />

Artery<br />

Stenosis Severity " , Am. J. of Cardiol., 1996, Vol 78, p131-135.<br />

[RISK-89] RISKIN E.A., LOOKABAUGH T.D., CHOU P.A., GRAY R.M. : " Variable<br />

Rate Vector<br />

Quantization for Medical Image Compression With Application to<br />

Progressive Transmission" ,<br />

Proc. SPIE, 1989, Vol 1091, p110-120.<br />

[RISK-90] RISKIN E.A., LOOKABAUGH T.D., CHOU P.A., GRAY R.M. : " Variable<br />

Rate Vector<br />

Quantization for Medical Image Compression " , IEEE Trans. Medical<br />

Imaginig, 1990,Vol 9,<br />

p290-298.<br />

[RISS-76] RISSANEN J.J. : " Generalized Kraft Inequality and Arithmetic Coding " , IBM<br />

J. Res. Dev.,<br />

1976,Vol 20, p198-203.<br />

[ROMP-91]<br />

Subband<br />

ROMPELMAN O. : " Medical Image Compression : Possible Applications of<br />

Coding" , Boston : Kluwer, 1991, p319-352.<br />

[ROOS-88] ROOS P., et al. : " Reversible Intraframe Compression of Medical Images " ,<br />

IEEE Trans. on<br />

Medical Imaging, 1988,Vol 7, N° 4, p328-336.<br />

[ROOS-91] ROOS P., VIEGEVER M.A. : " Reversible Image Data Compression Based<br />

on HINT<br />

Decorrelation and Arithmetic Coding " , SPIE Medical Imaging, 1991,Vol<br />

1444, p283-290.<br />

[SAKR-77]<br />

Image<br />

SAKRISON D.J. : " On the Role of the Observer and a Distortion Measure in<br />

Transmission " , IEEE Trans. Com., 1977,Vol COM-25, N° 11, p1251-1267.<br />

- 228 -


[SANM-78] SANMARCO M.E., BROOKS S.H., BLANKENHORN D.H. : " Reproductibility<br />

of a Consensus<br />

Panel in the Interpretation of Coronary Angiograms " , Am. Heart J., 1978,Vol<br />

96, N° 4, p430-437.<br />

[SAYR-92] SAYRE J.W., ABERLE D.R., BOECHAT M.I., HALL T.R., HUANG H.K., HO<br />

B.K. : " Effect of<br />

Data Compression on Diagnostic Accuracy in Digital Hand and Chest<br />

Radiography " , SPIE<br />

Medical Imaging, 1992,Vol 1653, p232-240.<br />

[SCHI-70] SCHINDLER H.R. : " Delta Modulation " , IEEE Spectrum, 1970,Vol 7, p69-<br />

78.<br />

[SCOB-84] SCOBLIONKO D.P., BROWN B.G., MITTEN S., CALDWELL J.H.,<br />

KENNEDY J.W.,<br />

BOLSON E.L., DODGE H.T. : " A New Digital Electronic<br />

Caliper for Measurement of Coronary Arterial Stenosis : Comparison with Visual<br />

Estimates and Computer-Assisted Measurements " , American Journal of<br />

Cardiology, 1984,Vol 53, p689-693.<br />

[SEGA-76] SEGALL A. : " Bit Allocation and Encoding for Vector Sources " , IEEE<br />

Trans. Inform.<br />

Theory, 1976,Vol IT-22, N° 2, p162-169.<br />

[SENA-95] SENANE H., SAADANE A., BARBA D. : " Image Coding in the Context of a<br />

Psychovisual<br />

Image Representation with Vector Quantization " , Proc. IEEE International<br />

Conference on Image Processing ICIP-95, Washington, October 23-26 1995, Vol 1,<br />

p97-100.<br />

[SHAN-48] SHANNON C.E. : " A Mathematical Theory of Communication " , Bell System<br />

Technical Journal, 1948, Vol 27, N° 3, p379-423.<br />

[STEE-75] STEELE R. : " Delta Modulation Systems " , New York : John Wiley, 1975,<br />

320p.<br />

[SWET-79] SWETS J.A. : " ROC Analysis Applied to the Evaluation of Medical Imaging<br />

Techniques " ,<br />

Investigative Radiology, 1979,Vol 14, N° 2, p109-121.<br />

[SWET-80] SWETS J.A. : " The Relative Operating Characteristic in Psychology " ,<br />

Science, 1980,Vol<br />

182, p990-1000.<br />

[TRAS-84] TRASK N., CALIFF R.M., CONLEY M.J., KONG Y., PETER R., LEE K.L.,<br />

HACKEL D.B.,<br />

WAGNER G.S. : " Accuracy and Interobserver Variability of Coronary<br />

Cineangiography :<br />

A Comparison With Postmortem Evaluation " , J. AM. COL. CARDIOL.,<br />

1984,Vol 3, N° 5, p1145-1154.<br />

- 229 -


[VAS -85] VAS R., EIGLER N., MIYAZONO C., PFAFF J.M., RESSER K.J., WEISS M.,<br />

NIVATPUMIN T., WHITING J., FORRESTER J. : " Digital Quantification Eliminates<br />

Intraobserver and<br />

Interobserver Variability in the Evaluation of Coronary Artery Stenosis " ,<br />

American<br />

Journal of Cardiology, 1985,Vol 56, p718-723.<br />

[VOGE-88] VOGEL R.A., LEFREE M.T., MANCINI G.B.J. : " Comparison of 35 mm Cine<br />

Film and Digital<br />

Radiographic Imaging for Quantitative Coronary Arteriography " , Progress in<br />

Digital<br />

Angiocardiography, 1988, p159-171.<br />

[WITT-87] WITTEN I.H., NEAL R.M., CLEARY J.G. : " Arithmetic Coding for Data<br />

Compression " ,<br />

Communications of the ACM, 1987,Vol 30, N° 6, p520-540.<br />

[WONG-95] WONG S., ZAREMBA L., GOODEN D., HUANG H.K. : " Radiological Image<br />

Compression -<br />

A Review " , Proceedings of the IEEE, 1995,Vol 83, N° 2, p194-219.<br />

[WOOD-86] WOODS J.W., O'NEIL S.D. : " Sub-band Coding of Images " , IEEE Trans.<br />

Acoust. Speech<br />

Signal Processing, 1986,Vol 34, N° 5, p1278-1288.<br />

[YOUN-92] YOUNG R.W., KINGSBURY N.G. : " Video Compresion Using Lapped<br />

Transform for Motion<br />

Estimation/Compensation and Coding " , SPIE Visual Com. & Im. Proc.,<br />

1992, p276-288.<br />

[ZIV -77] ZIV J., LEMPEL A. : " A Universal Algorithm for Sequential Data<br />

Compression " , IEEE<br />

Trans. Inform. Theory, 1977, Vol 23, N° 3, p337-343.<br />

[ZIV -78] ZIV J., LEMPEL A. : " Compression of Individual Sequences via Variable-<br />

Rate Coding " ,<br />

IEEE Trans. Inform. Theory, 1978, Vol 24, N° 5, p530-536.<br />

Références soumises ou à paraître :<br />

[BERE-97] BERETTA P.V., PROST R. : “Robustness of Uniform Quantizers to a<br />

Mismatched Statistical Model “, Va être soumis à Signal Processing.<br />

[DING-96] DING Y., PROST R., BASKURT A., BERETTA P.V. : " JPEG Scheme<br />

Improvement : Blocking Artefacts Reduction and Robustness to Post-Processing " ,<br />

Soumis à Sig. Proc. : Im. Com.,1996.<br />

[KIRK-97]<br />

KIRKEEIDE R.L., BERETTA P.V., ANDERSON H.V., SMALLING R.W.,<br />

- 230 -


SCHROTH G.,<br />

GOULD K.L., HAAS H.P.A., ZWART P. : " Lossy Data<br />

Compression does not Alter Visual Interpretation of Digital Coronary Arteriograms " ,<br />

Va être soumis à Circulation.<br />

- 231 -


ANNEXES<br />

Questionnaires diagnostics des évaluations<br />

- 229 -


Viewing Session<br />

Session / Case _/_ Date<br />

MD<br />

start<br />

Tech<br />

End<br />

Ventriculogram<br />

The Vcntriculogram is:<br />

LV Hypcrtrophy:<br />

Vcntriculogram Image Quality:<br />

Regional Abnormalities:<br />

Normal Abnormal Abscnt<br />

No<br />

YCS<br />

Good Fair Poor<br />

Anterior<br />

Apical<br />

In fer ior<br />

Later al<br />

Scptal<br />

Abs<br />

Nor Akin Hypo Dysk Aneur<br />

Lvgram Comments<br />

Arteriogram<br />

The coronary artcriogram is:<br />

Coronary Dominance:<br />

Artcriogram Image Quality:<br />

Normal<br />

Right<br />

Good<br />

Left<br />

Fair<br />

Abnormal<br />

Absent<br />

Balanced<br />

Poor<br />

Cgram Comments<br />

Form 2: Philips/UT Image Compression Study: MD reviews 1


Coronary Segments<br />

RCode CAD Collat Calc Spasm Comment<br />

RCA pro<br />

RCA mid<br />

RCA dis<br />

Codes<br />

Review Codes CAD TIMI Flows Collateral Perfusion<br />

OK -Done<br />

Abs - Absent (anat)<br />

NA - Not Able<br />

(Visualization)<br />

Nor -Normal 0 - No Flow 0 - None<br />

Irr. - Irregular. mild 1 - Low Flow l-Poor<br />

Mild - Mild Sten (


FOLIO ADMINISTRATIF<br />

THESE SOUTENUE DEVANT L'INSTITUT NATIONAL DES SCIENCES APPLIQUEES DE LYON<br />

NOM : BEAUREPAIRE épouse BERETTA DATE de soutenance :<br />

Prénoms : Patricia Véronique le 21 novembre 1997<br />

TITRE : Compression d’image appliquée <strong>aux</strong> <strong>angiographies</strong> <strong>cardiaques</strong> :<br />

aspects algorithmiques, évaluation de la qualité diagnostique<br />

NATURE : Doctorat N° d'ordre : 97 ISAL 0107<br />

Formation doctorale : Génie Biologique et Médical<br />

Code B.I.U. Lyon : T 50/210/19 / et bis CLASSE :<br />

RESUME :<br />

La <strong>compression</strong> <strong>d'images</strong> avec perte présente aujourd'hui un intérêt majeur pour l'archivage et la communication des<br />

<strong>angiographies</strong> <strong>cardiaques</strong>.<br />

Notre travail porte sur les aspects algorithmiques d'une technique de <strong>compression</strong> adaptée à cette modalité d'imagerie<br />

médicale, et sur la validation de la qualité diagnostique <strong>d'images</strong> comprimées.<br />

Dans un schéma de <strong>compression</strong> à base de la transformation cosinus discrète de l’image (Full-Frame DCT) nous avons<br />

principalement étudié deux aspects : l'adaptivité et la robustesse de la quantification scalaire des coefficients du plan de la<br />

DCT d'une part, et la prise en compte de post traitements d'autre part :<br />

• Une étude théorique sur l'erreur de quantification nous a permis de déduire des règles pratiques pour définir des<br />

quantifieurs uniformes robustes <strong>aux</strong> variations des propriétés statistiques des images.<br />

• L'incorporation dans le domaine DCT d'un filtre de renforcement de contour nous a permis de développer un schéma<br />

de <strong>compression</strong> évitant le rehaussement d'artefacts générés par la combinaison de la <strong>compression</strong> et du post<br />

traitement.<br />

Ces deux aspects algorithmiques ont une portée générale, ils sont applicables à d'autres méthodes de <strong>compression</strong>.<br />

La validation de la qualité diagnostique <strong>d'images</strong> médicales comprimées ne peut pas être, actuellement, basée sur des<br />

paramètres mathématiques, mais uniquement sur une évaluation par des experts médic<strong>aux</strong>.<br />

Nous avons conduit des campagnes d'évaluation de la qualité diagnostique avec trois méthodes de <strong>compression</strong> à un<br />

t<strong>aux</strong> maximum de 12:1 : le standard JPEG, le standard MPEG, et MLOT, une méthode dédiée développée par les<br />

laboratoires Philips.<br />

• Les deux premières campagnes d'évaluations ont porté sur l'interprétation visuelle diagnostique d’examens<br />

angiographiques complets, avec et sans <strong>compression</strong>.<br />

• La troisième a porté sur les résultats de mesures quantitatives automatisées de sténoses coronaires.<br />

Nous avons pu observer que, dans les conditions définies ci-dessus, la <strong>compression</strong> n’augmente pas significativement la<br />

variabilité des interprétations et des mesures, et préserve globalement la qualité diagnostique de l’image. .<br />

Les résultats de ces expériences sont très prometteurs car ils attestent que la <strong>compression</strong> est acceptable pour le travail<br />

du clinicien. Il existe un vaste champ d'application de la <strong>compression</strong> pour les <strong>angiographies</strong> <strong>cardiaques</strong> en développant<br />

des algorithmes dédiés ou en se basant sur des standards, en identifiant à l’aide d’évaluations cliniques leurs limites<br />

respectives d’application.<br />

MOTS-CLES :<br />

Laboratoire de recherche :<br />

Directeur de thèse :<br />

Président du jury :<br />

Composition du jury :<br />

<strong>compression</strong>, évaluation, angiographie cardiaque<br />

CREATIS<br />

Rémy PROST<br />

Pr M. AMIEL<br />

Pr M. AMIEL, Pr D. BARBA, Pr M. BERTRAND<br />

Pr R. GOUTTE, Dr H. HAAS, Pr. M. LAMURE, Pr. R. PROST

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!