compression d'images appliquee aux angiographies cardiaques
compression d'images appliquee aux angiographies cardiaques
compression d'images appliquee aux angiographies cardiaques
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
N° d’ordre 97 ISAL 0107 Année 1997<br />
THESE<br />
Présentée<br />
DEVANT L’INSTITUT NATIONAL DE SCIENCES<br />
APPLIQUEES DE LYON<br />
pour obtenir<br />
LE GRADE DE DOCTEUR<br />
FORMATION DOCTORALE: GENIE BIOLOGIQUE ET MEDICAL<br />
ECOLE DOCTORALE DES SCIENCES POUR L’INGENIEUR DE LYON: Electronique,<br />
Electrotechnique, Automatique<br />
PAR<br />
PATRICIA BEAUREPAIRE, EPOUSE BERETTA<br />
Ingénieur de l’Université de Technologie de Compiègne<br />
Génie Biologique et Médical - Promotion 1987<br />
COMPRESSION D’IMAGES APPLIQUEE AUX<br />
ANGIOGRAPHIES CARDIAQUES:<br />
ASPECTS ALGORITHMIQUES,<br />
EVALUATION DE LA QUALITE DIAGNOSTIQUE<br />
Soutenue le 21 novembre 1997 devant la commission d’examen<br />
Jury:<br />
Pr M. Amiel<br />
Pr D. Barba Rapporteur<br />
Pr M. Bertrand Rapporteur<br />
Pr R. Goutte<br />
Dr H. Haas<br />
Pr. M. Lamure Rapporteur<br />
Pr. R. Prost Directeur de thèse
REMERCIEMENTS<br />
Le présent travail n’a pu aboutir que grâce au soutien et à l’aide d’un nombre conséquent de<br />
personnes que j’ai eu la chance de trouver sur mon parcours depuis 1991.<br />
Tout a commencé par la compréhension de mes motivations par deux personnes, au même<br />
moment et dans des contextes différents.<br />
• Monsieur le Professeur Amiel, codirecteur du Laboratoire CREATIS à Lyon (alors appelé<br />
LTSU), a tout de suite accepté de m’aider à trouver un cadre pour un DEA et une thèse. Je<br />
lui suis reconnaissante de m’avoir ouvert les portes de ses équipes de recherche.<br />
• Monsieur Vandelle, de la Société Philips Systèmes Médic<strong>aux</strong> à Paris, a soutenu ma<br />
transition entre une fonction technico-commerciale et des investigations cliniques et<br />
scientifiques. Il a réalisé que le fil conducteur était l’imagerie médicale, en faisant évoluer<br />
mon centre d’intérêt de l’utilisateur au concepteur. Je le remercie d’avoir initié les<br />
démarches qui m’ont conduite à participer à un projet de recherche au sein des structures<br />
internationales de Philips Medical Systems (PMS) en Hollande, et qui ont permis la mise en<br />
place d’une convention Cifre.<br />
Une convention Cifre comprend trois partenaires: un laboratoire universitaire, un industriel, et<br />
un étudiant en thèse.<br />
• Le laboratoire universitaire est le laboratoire CREATIS, abrité par l’INSA de Lyon et par<br />
l’Hôpital Neuro-Cardiologique de Lyon. Je remercie les Professeurs Amiel et Goutte pour<br />
leur accueil dans leur laboratoire, pour leur participation à de nombreuses discussions sur<br />
mon travail, et pour leur participation à mon jury de thèse.<br />
• L’industriel est la Société Philips Systèmes Médic<strong>aux</strong>, dont le siège français est à Paris. Je<br />
remercie Monsieur Philippe Soly pour son soutien continu et le lien qu’il m’a permis de<br />
garder avec la société, tout en étant basée dans un autre contexte. Le Docteur Hein Haas,<br />
a été le coordinateur, depuis la Hollande, du projet PMS de <strong>compression</strong>. Je lui dois une<br />
grande partie de mes progrès au cours de ces années, grâce à son talent pour gérer un<br />
projet complexe, à son soutien logistique, à sa rigueur pour atteindre les objectifs fixés, <strong>aux</strong><br />
contacts internation<strong>aux</strong> dont il m’a fait bénéficier, et grâce au temps et <strong>aux</strong> conseils<br />
consacrés à mes trav<strong>aux</strong>.<br />
• Il est inutile de présenter l’étudiant(e) en thèse. Mais une thèse est peu de chose sans un<br />
bon directeur de thèse. Je tiens à exprimer ma sincère gratitude au Professeur Rémy Prost<br />
pour avoir encadré mon DEA et ma thèse. Sa créativité scientifique m’a constamment<br />
gardée en éveil. Il m’a beaucoup apporté tant au niveau théorique (il faut dire qu’il y avait du<br />
chemin à parcourir!), qu’au niveau de soutiens concrets pour faire avancer mes trav<strong>aux</strong>.
Je tiens à exprimer ma reconnaissance à Monsieur le Professeur Dominique Barba, de<br />
l’IRESTE à Nantes,<br />
et à Monsieur le Professeur Michel Lamure, de l’URA 394, Université Claude Bernard de Lyon<br />
pour avoir bien voulu s’intéresser à ce travail et en être les rapporteurs.<br />
Je suis particulièrement heureuse que Monsieur le Professeur Michel Bertrand, de l’Hôpital<br />
Cardiologique de Lille, ait accepté de me faire bénéficier de son ultime soutien en étant<br />
rapporteur. Je garde une nostalgie de mon séjour de deux ans dans son Service<br />
d’Hémodynamique, à cause de l’ambiance de travail, la gentillesse et l’efficacité que j’y ai<br />
trouvées.<br />
A l’équipe de l’Hôpital Cardiologique de Lyon:<br />
Ricardo Roriz et Guy Durand de Gévigné pour m’avoir initiée à la coronarographie et avoir<br />
contribué <strong>aux</strong> idées de bases des protocoles d’évaluation,<br />
Gérard Finet, Thierry Moll.<br />
Et au collègues du B13: Claire Baldy, Emmanuelle Canet, Christian Renaudin, Ferial Tlemsani,<br />
A Renée.<br />
A l’équipe de Creatis:<br />
Bernard et Daniel pour le temps passé sur mes problèmes informatiques,<br />
Atilla Baskurt, Olivier Baudin, Hugues Benoît Catin, Christophe Odet, Marc Robini, Nicolas<br />
Rougnon-Glasson et tous ceux qui m’ont donné des coups de main.<br />
A “la grand famille” du Centre Hémodynamique de Lille:<br />
Merci de m’avoir si chaleureusement accueillie, de m’avoir autant aidée et fait rire.<br />
A Eric van Belle pour sa participation en tant qu’observateur de l’évaluation diagnostique,<br />
à Eugène Mac Fadden pour tout ce temps passé à améliorer le contenu et la langue de mes<br />
rédactions en anglais,<br />
à Christophe Bauters, au Pr Jean Marc Lablanche,<br />
à Michel, Jean Philippe pour le temps passé avec mes fichiers ou mes photos et à Jean Paul<br />
pour son aide avec le prototype de CD<br />
et à Catherine, Claudine, Sylvette, et toute l’équipe<br />
Many thanks to the <strong>compression</strong> project team :<br />
Paul Zwart from, Philips Medical Systems X-ray Pre-development, who untiringly provided<br />
tapes, tools, time, ideas and logic to support me from beginning and after the end.<br />
Hein Haas, who is invited to read my warm French comments earlier in these<br />
acknowledgments.<br />
Marcel Breeuwer, Richard Heusdens, René Klein Gunnewick, Peter van Otterloo, from Philips<br />
Research, for sharing so much of their knowledge.<br />
I am grateful to the Hermann/UT team of Houston for their participation in the <strong>compression</strong><br />
evaluation study.<br />
I was honored that Professor Gould, Smalling, Anderson and Schroth accepted to participate in<br />
the reading sessions, and gave their valuable advice on the study.<br />
It has been a chance for me to work with Professor Richard Kirkeeide. Many thanks for all the<br />
efforts to meet the schedule with viewing sessions, and for the lengthy discussions.<br />
I have been privileged to be associated with the LKEB for the QCA evaluation. I am grateful to<br />
Professor Hans Reiber and Doctor Gerald Koning for their support and valuable work.<br />
Je voudrais exprimer mes sincères remerciements à Monsieur le Professeur Adeleine, du<br />
Laboratoire d’Informatique Médicale des Hospices Civils de Lyon, pour m’avoir offert son
temps, ses explications et m’avoir aidée dans mes analyses de données. Cette aide a été<br />
d’une grande valeur ajoutée. Merci à Madame Canova.<br />
Many thanks to my current colleagues, who brought their little touch to this work:<br />
Ruud ten Caat, Ruud Weterings, Tim Beuman and my colleagues from Philips Medical<br />
Systems CardioVascular in Best.<br />
A tous mes amis, et à Odile qui a suivi de près le feuilleton de la thèse.<br />
A tous ceux que je n’ai pas cités ici et que j’ai rencontrés pendant ce travail.
Enfin, je dois tout à ma famille qui m’a soutenue dans tous mes efforts.<br />
A mes parents, mon meilleur tremplin dans la vie.<br />
A ma grand-mère dont je suis fière.<br />
Aux quatre générations qui tissent leurs liens.<br />
A mes be<strong>aux</strong>-parents, à qui ce nom convient à merveille.<br />
A tous mes proches,<br />
Pour qu’ils ne leur vienne jamais l’idée de comprimer<br />
les images de coeur qu’ils ont dans la tête<br />
A Yves,<br />
et à son prochain succès<br />
ce travail lui est dû<br />
cette thèse lui est dédiée
ENGLISH SUMMARY<br />
Image <strong>compression</strong> is key for archiving and communication of digital cardiac angiograms.<br />
We studied some algorithm aspects of a <strong>compression</strong> technique adapted to such images, and validated the<br />
diagnostic quality of compressed images.<br />
In a <strong>compression</strong> scheme based on the Discrete Cosine Transform, we focused on two topics:<br />
- the adaptivity and robustness of scalar quantizers,<br />
- the effect of post-processing in combination with <strong>compression</strong>.<br />
These algorithmic problems are general and can be applied to other <strong>compression</strong> methods.<br />
It is not possible to validate the diagnostic quality of compressed medical images based on mathematics<br />
parameters. An evaluation with medical experts is needed.<br />
We present experiments in which the diagnostic quality of three <strong>compression</strong> techniques were assessed with a<br />
<strong>compression</strong> ratio of 12:1: the JPEG standard, the MPEG standard, and a dedicated method developed in Philips<br />
Laboratories, the so-called MLOT. We assessed visual interpretation and quantitative analysis performed on noncompressed<br />
and compressed images from patient studies.<br />
We found that the observer variability of visual interpretation and of quantitative analysis is not statistically<br />
significantly modified by <strong>compression</strong>. In our experimental conditions, <strong>compression</strong> does not significantly alter the<br />
diagnostic quality.<br />
Our results are very promising. They show that image <strong>compression</strong> is acceptable for the clinical work. There is a<br />
vast field of applications for the <strong>compression</strong> of cardiac angiograms. Either dedicated algorithms can be developed<br />
and optimum results can be reached; or standard algorithms can be applied. Clinical evaluations are key to<br />
determine the boundaries within which any <strong>compression</strong> method can be used for medical applications.<br />
RESUME EN FRANCAIS<br />
La <strong>compression</strong> <strong>d'images</strong> avec perte présente aujourd'hui un intérêt majeur pour l'archivage et la communication<br />
des <strong>angiographies</strong> <strong>cardiaques</strong>.<br />
Notre travail porte sur les aspects algorithmiques d'une technique de <strong>compression</strong> adaptée à cette modalité<br />
d'imagerie médicale, et sur la validation de la qualité diagnostique <strong>d'images</strong> comprimées.<br />
Dans un schéma de <strong>compression</strong> à base de la transformation cosinus discrète de l’image (Full-Frame DCT) nous<br />
avons principalement étudié deux aspects : l'adaptivité et la robustesse de la quantification scalaire des coefficients<br />
du plan de le DCT d'une part, et la prise en compte de post traitements d'autre part.<br />
Ces deux aspects algorithmiques ont une portée générale, ils sont applicables à d'autres méthodes de<br />
<strong>compression</strong>.<br />
La validation de la qualité diagnostique <strong>d'images</strong> médicales comprimées ne peut pas être, actuellement, basée sur<br />
des paramètres mathématiques, mais uniquement sur une évaluation par des experts médic<strong>aux</strong>.<br />
Nous avons conduit des campagnes d'évaluation de la qualité diagnostique avec trois méthodes de <strong>compression</strong> à<br />
un t<strong>aux</strong> maximum de 12:1 : le standard JPEG, le standard MPEG, et MLOT, une méthode dédiée développée par<br />
les laboratoires Philips.<br />
Nous avons pu observer que, dans les conditions définies ci-dessus, la <strong>compression</strong> n’augmente pas la variabilité<br />
des interprétations visuelles et des mesures quantitatives de façon statistiquement significative. Dans nos<br />
conditions expérimentales, la qualité diagnostique de l’image comprimée est préservée .<br />
Globalement, les résultats de ces expériences sont très prometteurs car ils attestent que la <strong>compression</strong> est<br />
acceptable pour le travail du clinicien. Il existe un vaste champ d'applications de la <strong>compression</strong> pour les<br />
<strong>angiographies</strong> <strong>cardiaques</strong> en développant des algorithmes dédiés supérieurs <strong>aux</strong> standards, en identifiant à l’aide<br />
d’évaluations cliniques les limites d’application de des algorithmes standards ou dédiés.
TABLE DES MATIERES<br />
REMERCIEMENTS............................................................................................................. 8<br />
INTRODUCTION............................................................................................................... 18<br />
CADRE DE TRAVAIL ....................................................................................................... 24<br />
PARTIE I : COMPRESSION D'ANGIOGRAPHIES CARDIAQUES :<br />
PROBLEMES ALGORITHMIQUES ET ILLUSTRATION AVEC LA FULL-FRAME<br />
DCT 29<br />
CHAPITRE I-1 ETUDE BIBLIOGRAPHIQUE DES METHODES DE COMPRESSION<br />
D'IMAGES ................................................................................................................. 30<br />
1. Généralités sur la <strong>compression</strong> <strong>d'images</strong> ................................................................. 31<br />
1.1. Contraintes et applications d'un système de <strong>compression</strong>............................ 31<br />
1.2. Mesures de performance............................................................................... 32<br />
1.2.1. T<strong>aux</strong> de <strong>compression</strong>..................................................................... 32<br />
1.2.2.Entropie .......................................................................................... 32<br />
1.3. Mesures de distorsion ................................................................................... 33<br />
2. Principales méthodes de <strong>compression</strong> d'image........................................................ 34<br />
2.1. Classification des méthodes de <strong>compression</strong> ............................................... 34<br />
2.1.1. Méthodes avec ou sans perte........................................................ 34<br />
2.1.2. Méthodes par pixels, groupes de pixels, ou image entière ............ 34<br />
2.1.3. Méthodes intra- et inter- images .................................................... 34<br />
2.1.4. Méthodes adaptives, non adaptives .............................................. 35<br />
2.1.5. Méthodes spatiales et méthodes par transformation ..................... 35<br />
2.2. Méthodes sans perte..................................................................................... 45<br />
2.2.1. Méthodes différentielles et prédictives........................................... 35<br />
2.2.2. Méthodes par plages (Runlength coding) ...................................... 36<br />
2.2.3. Codeurs entropiques...................................................................... 36<br />
2.2.4. Méthodes par dictionnaire adaptif (Lempel-Ziv)............................. 38<br />
2.2.5. Codage arithmétique...................................................................... 38<br />
2.3. Méthodes avec pertes ................................................................................... 39<br />
2.3.1. Sous-échantillonnage .................................................................... 39<br />
2.3.2. Quantification scalaire.................................................................... 39<br />
2.3.3. Quantification vectorielle................................................................ 39<br />
2.3.4. Méthodes par transformation......................................................... 40<br />
2.3.5. Codage sous-bandes..................................................................... 44<br />
2.3.6. Ondelettes ..................................................................................... 45<br />
2.4. Autres méthodes ........................................................................................... 45<br />
2.4.1. Méthodes par contour.................................................................... 45<br />
2.4.2. Méthodes texturales....................................................................... 45<br />
2.4.3. Fractales ........................................................................................ 46<br />
2.5. Standard pour les images fixes : JPEG......................................................... 46<br />
2.5.1. Principes génér<strong>aux</strong> ........................................................................ 46<br />
2.5.2. Descriptif résumé et illustré de l'algorithme JPEG avec perte ....... 46<br />
2.6. Standard pour séquences <strong>d'images</strong> : MPEG................................................. 50<br />
2.6.1. Principes génér<strong>aux</strong> ........................................................................ 50
2.6.2. Descriptif résumé de l'algorithme MPEG ....................................... 51<br />
2.6.3. Princip<strong>aux</strong> artéfacts ....................................................................... 52<br />
2.7. Méthode développée par Philips : MLOT ...................................................... 53<br />
CHAPITRE I-2 GENERALITES SUR LES IMAGES MEDICALES ET ANGIOGRAPHIQUES :<br />
ACQUISITION, COMPRESSION ET STANDARDISATION..................... 56<br />
1. Compression des images médicales ........................................................................ 57<br />
1.1. Tendance en radiologie................................................................................. 57<br />
1.2. Tendance en cardiologie ............................................................................... 58<br />
2. Standards <strong>d'images</strong> médicales ................................................................................. 59<br />
2.1. Pourquoi un standard .................................................................................... 59<br />
2.2. Historique des standards ACR-NEMA et DICOM.......................................... 59<br />
2.3. DICOM et la <strong>compression</strong> ............................................................................. 59<br />
3. Standards médic<strong>aux</strong> et standards industriels ........................................................... 60<br />
4. Principe et particularité de l'angiographie cardiaque................................................. 61<br />
5. Quelques propriétés des images d'<strong>angiographies</strong> <strong>cardiaques</strong>.................................. 63<br />
CHAPITRE I-3 ALLOCATION DES BITS DANS LA TECHNIQUE FULL FRAME DCT .. 67<br />
1. Introduction ............................................................................................................... 68<br />
2. Coding of the DCT Coefficients ................................................................................ 69<br />
2.1. Full Frame DCT coding scheme.................................................................... 69<br />
2.2. Normalized DCT coefficents.......................................................................... 70<br />
2.3. Zonal splitting of the DCT plane .................................................................... 70<br />
2.4. Uniform optimal quantizer.............................................................................. 72<br />
2.5. Integer bit allocation ...................................................................................... 74<br />
2.6. Coding of the quantized DCT coefficients ..................................................... 75<br />
3. Experimental results and discussion......................................................................... 75<br />
3.1. Experiments................................................................................................... 75<br />
3.2. Discussion ..................................................................................................... 76<br />
3.3. Perspectives .................................................................................................. 78<br />
4. Conclusion ................................................................................................................ 78<br />
CHAPITRE I-4 COMPRESSION FULL FRAME DCT ET RENFORCEMENT DE CONTOUR<br />
80<br />
1. Introduction ............................................................................................................... 82<br />
2. Should the raw image or the processed image be compressed? ............................. 82<br />
2.1. Edge enhancement filtering of digital cardiac angiograms ............................ 82<br />
2.2. Edge enhancement after data <strong>compression</strong>.................................................. 84<br />
2.3. Edge enhancement before data <strong>compression</strong>............................................... 84<br />
2.4. integration of the edge enhancement in the <strong>compression</strong> /<br />
de<strong>compression</strong> process................................................................................. 85<br />
2.5. Integration of de-enhancement in the de<strong>compression</strong> scheme ..................<br />
by inverse filtering.......................................................................................... 86<br />
2.6. Improvement of the de-enhancement of compressed images ....................<br />
by regularization ............................................................................................ 86<br />
3. Full Frame DCT coding and directional quantization ................................................ 88<br />
3.1. Block Diagram ............................................................................................... 88<br />
3.2. Full Frame DCT and zonal splitting ............................................................... 88<br />
3.3. Bit allocation, quantization and coding .......................................................... 89<br />
4. Experimental results and discussion......................................................................... 90<br />
4.1. Results from simulations of the <strong>compression</strong> ................................................ 90<br />
4.2. Results on coded images .............................................................................. 91<br />
5. Conclusion ................................................................................................................ 93
CHAPITRE I-5 ETUDE THEORIQUE DE LA ROBUSTESSE DU QUANTIFICATEUR<br />
UNIFORME OPTIMUM ........................................................................... 96<br />
1. Introduction ............................................................................................................... 97<br />
2. Matched uniform quantizers with generalized Gaussian distributions....................... 99<br />
2.1. Notation ......................................................................................................... 99<br />
2.2. Mean Square Error of uniform quantizers with GG pdf................................ 100<br />
2.3. Minimum-MSE uniform quantizer ................................................................ 103<br />
2.4. Entropy of uniform quantizers with GG pdf.................................................. 105<br />
2.5. Entropy-constrained uniform quantizer with GG pdf.................................... 107<br />
3. Mismatched uniform quantizers .............................................................................. 109<br />
3.1. Mismatched relative to the shape................................................................ 109<br />
3.1.1. Minimum-MSE uniform quantizers............................................... 110<br />
3.1.2. Entropy-constrained uniform quantizers ...................................... 111<br />
3.2. Mismatch relative to the variance ................................................................ 112<br />
3.2.1. Minimum-MSE uniform quantizers............................................... 112<br />
3.2.2. Entropy-constrained uniform quantizers ...................................... 114<br />
4. Discussion and conclusion...................................................................................... 114<br />
CHAPITRE I-6 APPLICATION DE L'ETUDE DE LA ROBUSTESSE DU<br />
QUANTIFICATEUR UNIFORME A LA COMPRESSION D'IMAGES PAR<br />
FULL-FRAME-DCT ................................................................................ 116<br />
1. Introduction ............................................................................................................. 117<br />
2. Ensemble <strong>d'images</strong> test.......................................................................................... 117<br />
3. Méthode de <strong>compression</strong>........................................................................................ 118<br />
3.1. FFDCT......................................................................................................... 118<br />
3.2. Découpage circulaire................................................................................... 118<br />
3.3. Evaluation des paramètres de la distribution des régions ........................... 119<br />
3.4. Allocation marginale et quantificateur ‘midtread’ uniforme .......................... 122<br />
3.5. Calcul du t<strong>aux</strong> de <strong>compression</strong> ................................................................... 122<br />
4. Résultats ............................................................................................................... 122<br />
4.1. Apport du quantificateur optimisé par rapport au quantificateur<br />
non optimisé ................................................................................................ 122<br />
4.2. Vérification de la stabilité des caractéristiques statistiques des images<br />
d'une même séquence associée à la robustesse du quantificateur. ........... 125<br />
4.3. Quantificateur modélisé à partir d'un ensemble <strong>d'images</strong> :<br />
effet de la non-adaptation............................................................................ 126<br />
5. Discussion............................................................................................................... 130<br />
CHAPITRE I-7 CONCLUSION DE LA PARTIE COMPRESSION .................................. 131<br />
PARTIE II : EVALUATION DE LA QUALITE D'ANGIOGRAPHIES CARDIAQUES<br />
COMPRIMEES...........................................................................................136<br />
CHAPITRE II-1 ETUDE BIBILOGRAPHIQUE DES METHODES D'EVALUATION D'IMAGES<br />
COMPRIMEES ET PROPOSITION D'UNE NOUVELLE APPROCHE ADAPTEE<br />
AUX EXAMENS ANGIOGRAPHIQUES ................................................. 137<br />
1. Bibliographie sur l'évaluation <strong>d'images</strong> comprimées............................................... 138<br />
1.1. Introduction.................................................................................................. 138<br />
1.2. Liste des principales méthodes d'évaluation ............................................... 138<br />
1.3. Quantification objective de la qualité par mesures de type SNR................. 139
1.4. Appréciation visuelle subjective de la qualité d'image ................................. 139<br />
1.5. Indices diagnostics de la performance du couple observateur/test<br />
diagnostic ...................................................................................................... 141<br />
1.5.1. Notion de "gold standard" ............................................................ 141<br />
1.5.2. Indices diagnostics : sensibiliité, spécificité, PVP, PVN............... 141<br />
1.6. Fidilité diagnostique par la méthode ROC................................................... 142<br />
1.6.1. Historique..................................................................................... 142<br />
1.6.2. Principe........................................................................................ 143<br />
1.6.3. Etudes de <strong>compression</strong> <strong>d'images</strong> radiologiques à base<br />
de méthode ROC......................................................................... 145<br />
1.7. Fidélité diagnostique par d'autres méthodes ............................................... 145<br />
2. Protocole expérimental de nos évaluations diagnostiques ..................................... 146<br />
2.1. Choix du type d'examen .............................................................................. 146<br />
2.2. Tâche diagnostique ..................................................................................... 147<br />
2.2.1. Tâche d'interprétation visuelle uniquement.................................. 147<br />
2.2.2. Ventriculographie......................................................................... 147<br />
2.2.3. Coronarographie.......................................................................... 149<br />
2.3. Protocole expérimental................................................................................ 152<br />
3. Princip<strong>aux</strong> outils statistiques utilisés ....................................................................... 153<br />
3.1. Méthodologie basée sur la concordance..................................................... 153<br />
3.1.1. Type de concordances évaluées ................................................. 153<br />
3.1.2. Reproductibilité des observateurs dans l'interprétation ................<br />
de coronarographies..................................................................... 154<br />
3.2. Estimation statistique de la concordance .................................................... 155<br />
3.2.1. Concordance par test de kappa................................................... 155<br />
3.2.2. Coefficient de corrélation de concordance de Lin........................ 156<br />
3.2.3.Graphiques des différences en fonction des moyennes ............... 159<br />
3.2.4. Analyse de la variance................................................................. 159<br />
CHAPITRE II-2 PREMIERE ETUDE D'EVALUATION DIAGNOSTIQUE ....................... 161<br />
1. Introduction ............................................................................................................. 162<br />
2. Materials & methods ............................................................................................... 163<br />
2.1. Patient selection .......................................................................................... 163<br />
2.2. Image selection ........................................................................................... 163<br />
2.3. Image processing ........................................................................................ 163<br />
2.4. Observers and viewing sessions ................................................................. 164<br />
2.5. Diagnostic task ............................................................................................ 165<br />
3. Statistical analysis................................................................................................... 165<br />
3.1. Introduction.................................................................................................. 165<br />
3.2. Analysis of the LV interpretations ................................................................ 165<br />
3.3. Analysis of the coronary angiogram interpretations..................................... 166<br />
4. Results ............................................................................................................... 166<br />
4.1. Image quality judgements............................................................................ 166<br />
4.2. Left ventricle interpretations ........................................................................ 167<br />
4.2.1. Introduction .................................................................................. 167<br />
4.2.2. Inter-observer agreement ............................................................ 167<br />
4.2.3. Intra-observer agreement ............................................................ 169<br />
4.3. Coronary arteriogram interpretations........................................................... 170<br />
4.3.1. A score for coronary branches..................................................... 170<br />
4.3.2. Inter-observer agreement ............................................................ 171<br />
4.3.3. Intra-observer agreement ............................................................ 172<br />
5. Conclusion .............................................................................................................. 173<br />
CHAPITRE II-3 DEUXIEME ETUDE D'EVALUATION DIAGNOSTIQUE ....................... 175
1. Introduction ............................................................................................................. 176<br />
2. Methods ............................................................................................................... 177<br />
2.1. Angiography ................................................................................................ 177<br />
2.2. Images......................................................................................................... 178<br />
2.2.1. Images selection and transfer...................................................... 178<br />
2.2.2. Image treatments......................................................................... 178<br />
2.2.3. Film review................................................................................... 179<br />
2.3. Data collected during review........................................................................ 179<br />
2.3.1. Segment classification ................................................................. 179<br />
2.3.2. Scoring sheet............................................................................... 180<br />
2.4. Data analysis ............................................................................................... 180<br />
3. Results ............................................................................................................... 181<br />
3.1. Ventriculograms........................................................................................... 181<br />
3.1.1. Side by side comparisons (O-J-L)................................................ 181<br />
3.1.2. LV-gram quality and docs comments on perceptual quality......... 182<br />
3.1.3. Location of LV abnormalities ....................................................... 182<br />
3.1.4. Distribution of abnormalities per image treatment ...................... 183<br />
3.1.5. Agreement tables......................................................................... 183<br />
3.2. Arteriograms ................................................................................................ 184<br />
3.2.1. Side by side comparison (O-J-L) ................................................. 184<br />
3.2.2. Coronary arteriograms quality and comments ............................. 185<br />
3.2.3. Location of coronary arteries abnormalities ................................. 185<br />
3.2.4. Distribution of abnormalities per image treatment ....................... 186<br />
3.2.5. Differences of scores between image treatments........................ 186<br />
4. Discussion............................................................................................................... 188<br />
4.1. Major findings .............................................................................................. 188<br />
4.2. Discussion of issues related to the method ................................................. 189<br />
4.2.1. Interpretation of complete cases.................................................. 189<br />
4.2.2. Gold standard .............................................................................. 189<br />
4.2.3. Variability of observers' visual interpretation................................ 189<br />
4.3. Need for complementary studies................................................................. 190<br />
CHAPITRE II-4 MESURES QUANTITATIVES SUR LES IMAGES COMPRIMEES....... 191<br />
1. Etude bibliographique des méthodes d'analyse quantitative des coronaires.......... 192<br />
1.1. Brève description de l'analyse quantitative.................................................. 192<br />
1.2. Historique .................................................................................................... 192<br />
1.3. Système QCA des appareils Philips............................................................ 192<br />
1.4. Precision et limitations du système ............................................................. 194<br />
2. Méthodes pour tester un système QCA.................................................................. 195<br />
3. Trav<strong>aux</strong> de la littérature sur la QCA avec <strong>compression</strong>.......................................... 195<br />
4. Méthode de notre étude de QCA appliquée sur des images comprimées.............. 196<br />
4.1. Protocole expérimental................................................................................ 196<br />
4.2. Valeurs mesurées et analysées .................................................................. 197<br />
5. Résultats ............................................................................................................... 198<br />
5.1. Comparaisons inter-<strong>compression</strong>................................................................ 198<br />
5.1.1.Graphes des différences par rapport <strong>aux</strong> moyennes.................... 198<br />
5.1.2. Coefficient de concordance de Lin .............................................. 200<br />
5.2. Comparaisons intra-<strong>compression</strong>................................................................ 202<br />
5.2.1. Graphes des différences par rapport <strong>aux</strong> moyennes................... 202<br />
5.2.2. Coefficients concordance de Lin.................................................. 205<br />
5.2.3. Coefficient de variations............................................................... 205<br />
5.3. Analyse de la variance ................................................................................ 206<br />
6. Discussion............................................................................................................... 208
6.1. Résultats des analyses de données............................................................ 208<br />
6.2. Aspects méthodologiques du protocole expérimental ................................. 209<br />
6.3. Robustesse de la QCA à la <strong>compression</strong>.................................................... 209<br />
7. Conclusion .............................................................................................................. 209<br />
CHAPITRE II-5 CONCLUSION DE LA PARTIE EVALUATION ..................................... 210<br />
1. Objet des évaluations ............................................................................................. 211<br />
2. Qualité subjective.................................................................................................... 211<br />
2.1. Comparaison de JPEG, MPEG et MLOT .................................................... 211<br />
2.2. Visibilité de la présence de la <strong>compression</strong> selon les observateurs............ 211<br />
2.3. Effet des post-traitements ........................................................................... 212<br />
3. Evaluations diagnostiques ...................................................................................... 212<br />
3.1. Conditions expérimentales .......................................................................... 212<br />
3.2. Méthode statistique et variabilité des observateurs..................................... 212<br />
3.3. Princip<strong>aux</strong> résultats ..................................................................................... 213<br />
4. Evaluation QCA ...................................................................................................... 213<br />
5. Perpectives ............................................................................................................. 214<br />
BILAN ET PERSPECTIVES ........................................................................................... 215<br />
REFERENCES BIBLIOGRAPHIQUE ............................................................................. 219<br />
ANNEXE ............................................................................................................... 229<br />
Questionnaires diagnostics des évaluations
INTRODUCTION<br />
- 13 -
- 14 -
Problématique liée au remplacement du ciné-film<br />
Ce travail s'inscrit dans la perspective du remplacement du film de radio-cinéma, actuel support<br />
universel pour la visualisation et l'archivage des <strong>angiographies</strong> <strong>cardiaques</strong>, par un support<br />
entièrement numérique.<br />
L'angiographie cardiaque est une modalité d'imagerie cardiaque à base de rayons X qui permet<br />
de visualiser les cavités et les vaisse<strong>aux</strong> du cœur. Au cours d'un examen, un cathéter est<br />
introduit en général depuis l'aine et amené par le réseau vasculaire jusqu'<strong>aux</strong> ventricules ou à<br />
l'ostium (embouchure) des artères coronaires. D'où le nom de cathétérisme cardiaque donné à<br />
l'ensemble de cette procédure. Un produit de contraste opaque <strong>aux</strong> rayons X est injecté<br />
sélectivement alors qu'une séquence <strong>d'images</strong> est réalisée. On visualise ainsi l'anatomie de<br />
cavités et artères du cœur, tout en évaluant leur dynamique. On recherche principalement des<br />
défauts de contraction du ventricule gauche, et des rétrécissements ou sténoses des artères<br />
coronaires.<br />
L'angiographie cardiaque reste un examen invasif, pratiqué en dernier lieu pour compléter une<br />
série de tests afin de confirmer ou de poser un diagnostic et une thérapeutique. Cette série de<br />
tests comprend examens cliniques, ECG 1 d'effort, imagerie par médecine nucléaire,<br />
échocardiographie. Bien que l'imagerie par angiographie cardiaque ne soit pas d'une fiabilité<br />
absolue, elle est encore la référence pour juger de pathologies <strong>cardiaques</strong>, notamment pour les<br />
maladies coronaires. Cet examen revêt une importance capitale en occident notamment, où les<br />
maladies <strong>cardiaques</strong> sont une cause majeure de mortalité.<br />
Le film 35-mm présente des qualités qui ont établi dans les faits son statut de support standard.<br />
La qualité d'image est excellente, surtout en ce qui concerne la résolution spatiale: l'oeil est loin<br />
de pouvoir distinguer le plus petit détail disponible sur ce support argentique. La durabilité d'un<br />
film est inégalée: on peut encore visionner les examens réalisés <strong>aux</strong> tout débuts de<br />
l'angiographie cardiaque il y a plus de vingt ans. Le film de radio-cinéma est utilisé partout, ce<br />
standard est échangé entre les services cliniques des établissements hospitaliers, entre de<br />
nombreux établissements pour des recherches multi-centriques au niveau national ou<br />
international.<br />
Pourquoi remplacer un tel "étalon or"?<br />
L'archivage et la gestion des bobines de radio-cinéma 35-mm est toujours une difficulté pour<br />
les services hospitaliers concernés. Le film génère un coût non négligeable, dû au support<br />
vierge, au développement de type photographique (impliquant matériel et personnel), et au<br />
stockage. Ce coût est estimé à 100 dollars en moyenne par film <strong>aux</strong> Etats-Unis [NISS-94]. Le<br />
stockage demande espace et organisation. Bien que la durée légale pendant laquelle un film<br />
doive être conservé en France soit de dix ans, il n'est probablement pas évident pour tous les<br />
établissements de ressortir un examen après un tel laps de temps. Autre handicap, la<br />
duplication d'un film ne préserve pas sa qualité originale. Par conséquent, lorsqu’un service<br />
envoie un film à un autre, il ne dispose plus de son archive sur le patient.<br />
Les techniques d'imagerie numérique ont fait leur entrée il y a dix ans déjà dans les salles de<br />
cathétérisme. L'apport de ces techniques a été considérable. Tout d'abord les traitements<br />
numériques permettent d'améliorer la visibilité des vaisse<strong>aux</strong> et facilitent l'interprétation des<br />
images. Bien que la résolution spatiale d'une image numérique soit inférieure à celle d'un film<br />
35-mm, le gain en résolution de contraste rehausse nettement la qualité diagnostique.<br />
Deuxième point, des logiciels de mesure apportent une information plus précise qu'avant sur la<br />
contractilité du muscle cardiaque et la taille des vaisse<strong>aux</strong>, grâce à des calculs basés sur les<br />
pixels. Troisième point, l'avènement des images numériques et de leur corollaire le temps réel<br />
1 ECG: ElectroCardioGramme<br />
- 15 -
a permis l'essor de procédures interventionnelles, dont les fameux "ballonnages" ou<br />
angioplasties. La possibilité de visionner de nouveau immédiatement une séquence, d’agrandir<br />
(zoom) un vaisseau permet de juger instantanément du résultat après le gonflage d'un<br />
ballonnet. Quatrième point, la duplication d'une image numérique est parfaite. Enfin, on<br />
commence à bénéficier des technologies liées <strong>aux</strong> autoroutes de l'information pour transmettre<br />
les images d'un service ou d'un site hospitalier à un autre (télé-cardiologie). L'intérêt d'un<br />
archivage numérique est certain, et les cardiologues envisagent tout naturellement de travailler<br />
sans film dès que possible.<br />
Apport de l’angiographie cardiaque numérique<br />
Le support final des <strong>angiographies</strong> reste encore souvent aujourd'hui le film de radio-cinéma.<br />
L'intérêt d'une solution entièrement numérique est incontesté. Cependant, on atteint les limites<br />
des technologies actuelles, du moins à des coûts acceptables. Il y a deux pierres<br />
d'achoppement. La première réside dans la capacité des disques informatiques. Un examen<br />
typique d'angiographie cardiaque comprend au minimum une douzaine de séquences pour voir<br />
le ventricule gauche et les artères coronaires sous différents angles. Réalisées à 12,5 ou 25<br />
images par secondes (15 ou 30 im/sec <strong>aux</strong> Etats-Unis), afin de suivre la dynamique cardiaque,<br />
l'ensemble de ces séquences totalise facilement 2000 à 3000 images, pour un seul examen.<br />
En terme d'espace disque, cela correspond à 500 à 800 MO (Mega-octets), avec le format<br />
habituel <strong>d'images</strong> de 512x512 pixels codés sur 8 bits. Sur un système d'angiographie<br />
numérique, on arrive maintenant à stocker le travail d’un à quelques jours. Ensuite, au fur et à<br />
mesure que la journée avance, les premiers examens sont écrasés. Deuxième difficulté<br />
technologique vis à vis d'une solution numérique: la visualisation dynamique. Pour visualiser de<br />
nouveau un examen à la cadence nécessaire, il faut disposer d’une rapidité d’accès au médium<br />
de stockage (à travers un réseau, ou sur un support comme le CD) qui n’est pas encore<br />
possible sur les images brutes dans l’état actuel de la technologie.<br />
Intérêt de la <strong>compression</strong> d’image<br />
Pour contourner les deux difficultés technologiques majeures posées par l'archivage numérique<br />
des <strong>angiographies</strong> <strong>cardiaques</strong>, à savoir la capacité de stockage et la visualisation à cadence<br />
élevée sur des supports standards tels que le CD ou à travers des rése<strong>aux</strong> informatiques, une<br />
solution s'impose: la <strong>compression</strong> d'image.<br />
Par des techniques combinant des recettes astucieuses avec des théories mathématiques<br />
avancées, on parvient à réduire l'espace disque nécessaire à une image. On stocke un<br />
ensemble binaire codé. Avant de pouvoir visualiser l'image, il faut lui appliquer le processus<br />
inverse pour obtenir à nouveau un ensemble de pixels visibles. Le processus ou l'algorithme<br />
permettant de passer des pixels origin<strong>aux</strong> à un ensemble binaire codé correspondent à l'étape<br />
de <strong>compression</strong> d'image; le processus ou l'algorithme permettant de retrouver ensuite une<br />
image sous forme de pixels correspond à l'étape de dé<strong>compression</strong>. En toute rigueur, l'image<br />
comprimée (appelée aussi compressée) est un ensemble binaire codé, et l'image décomprimée<br />
(ou décompressée) est l'ensemble de pixels que l'on a reconstruit à partir de l'ensemble binaire<br />
codé. Dans la pratique, on parle souvent d'image comprimée pour désigner une image qui a<br />
subi les deux étapes de <strong>compression</strong> et dé<strong>compression</strong>.<br />
On distingue deux types de <strong>compression</strong> de donnée, selon qu'il est possible ou non de<br />
retrouver exactement l'information de départ: la <strong>compression</strong> sans perte, et la <strong>compression</strong><br />
avec perte.<br />
La <strong>compression</strong> sans perte est complètement réversible, aucune perte d’information n’est<br />
introduite par les processus de <strong>compression</strong>/dé<strong>compression</strong>. Les t<strong>aux</strong> de <strong>compression</strong> que l’on<br />
peut atteindre sont limités. Pour les images médicales, ils sont de l’ordre de 2 à 3:1 [ROOS-91].<br />
Un t<strong>aux</strong> de <strong>compression</strong> de 2:1 correspond à une réduction par un facteur 2 de l’espace disque<br />
occupé par l’image.<br />
- 16 -
La <strong>compression</strong> avec perte introduit une distorsion irréversible. Elle seule permet d’atteindre les<br />
t<strong>aux</strong> de <strong>compression</strong> important. Selon la méthode de <strong>compression</strong>, selon les propriétés de<br />
l’image de départ, selon le t<strong>aux</strong> de <strong>compression</strong>, la distorsion est plus ou moins importante, et<br />
plus ou moins visible.<br />
L'idée de la <strong>compression</strong> avec perte commence à pouvoir être évoquée devant la communauté<br />
médicale; elle n'était pas du tout acceptée lorsque ce travail a commencé. La crainte d’une<br />
perte d’information diagnostique constituait un frein psychologique et légal majeur. La présente<br />
thèse fait partie des trav<strong>aux</strong> montrant qu’une perte d’information au sens technique n’est pas<br />
forcément associée à une perte de qualité au sens diagnostic.<br />
Cahier des charges du projet dans lequel s’insère le présent travail<br />
Le présent travail s’inscrit dans le cadre d’un projet multidisciplinaire coordonné par une équipe<br />
de recherche de la Société Philips Medical Systems <strong>aux</strong> Pays-Bas. De ce fait, les images<br />
utilisées dans nos trav<strong>aux</strong> proviennent de systèmes d’angiographie cardiaque numérique<br />
Philips. Le projet a porté sur la mise au point de méthodes de <strong>compression</strong> appropriées <strong>aux</strong><br />
examens d’angiographie cardiaque, et sur leur validation dans des conditions cliniques. Dans<br />
l’absolu, les images comprimées avec la ou les méthodes retenues devaient pouvoir remplacer<br />
complètement les images originales. Le but ultime était de réaliser une <strong>compression</strong> temps réel<br />
pendant l’acquisition.<br />
Le cahier des charges de la méthode de <strong>compression</strong> était le suivant:<br />
- possibilité de contrôler avec précision le t<strong>aux</strong> de <strong>compression</strong>, afin que chaque image occupe<br />
un espace disque fixe et connu à l’avance<br />
- possibilité d’accéder à chaque image individuellement<br />
- obtention d’une qualité visuelle propice au diagnostic pour un t<strong>aux</strong> de 8 à 12:1<br />
- absence d’artefacts de blocs tels que ceux introduits par les standards JPEG et MPEG<br />
- robustesse visuelle <strong>aux</strong> post-traitements, notamment à un traitement de renforcement de<br />
contours employé en angiographie cardiaque<br />
- possibilité de réaliser l’algorithme de <strong>compression</strong> en hardware<br />
Le cahier des charges de la validation clinique était le suivant:<br />
- évaluer la qualité visuelle (cosmétique)<br />
- évaluer si l’interprétation diagnostique visuelle reste inchangée avec la <strong>compression</strong><br />
- évaluer si le résultat des mesures quantitatives reste inchangé avec la <strong>compression</strong><br />
- comparer les performances d’algorithmes dédiés (mis au point durant ce projet), et<br />
d’algorithmes standards tels que JPEG et MPEG.<br />
Objet de nos trav<strong>aux</strong><br />
Nos trav<strong>aux</strong> sont constitués de deux parties principales. La première partie traite de notre<br />
contribution en matière d’algorithme de <strong>compression</strong>. La deuxième partie traite de nos études<br />
d’évaluation diagnostique, sur lesquelles a porté une part majoritaire de nos efforts.<br />
Le travail de <strong>compression</strong> a essentiellement visé à élucider des aspects algorithmiques<br />
origin<strong>aux</strong>, selon des questions suscitées par les particularités des images d’angiographie<br />
cardiaque. La mise au point d’une méthode complète n’a pas été l’objectif principal, compte<br />
tenu du temps à consacrer <strong>aux</strong> études d’évaluation.<br />
Nous avons choisi d’illustrer les aspects algorithmiques que nous avons développés en<br />
travaillant dans le cadre d’une méthode de <strong>compression</strong> par transformation à base de Full-<br />
Frame DCT. Cette méthode proposée dans le domaine médical par [LO-85] et [CHAN-89]<br />
présentait au début de nos trav<strong>aux</strong> (c’est à dire en 1991) plusieurs avantages:<br />
- absence d’artefacts de bloc du fait du traitement pleine image (Full-Frame)<br />
- 17 -
- possibilité d’intégrer les post traitements dans le processus de <strong>compression</strong><br />
- faculté d’utiliser une adaptation au système visuel humain<br />
- existence d’un hardware performant ([HO-91]).<br />
Les résultats sur les aspects algorithmiques de <strong>compression</strong> abordés dans cette thèse ont une<br />
portée plus générale que leur simple application à la <strong>compression</strong> par Full-Frame DCT. Ils<br />
peuvent aisément être étendus, à d’autres méthodes par transformation notamment.<br />
Le travail d’évaluation a consisté en plusieurs études. Les algorithmes évalués ont été: les<br />
standards JPEG et MPEG, et une méthode mise au point par les laboratoires du groupe<br />
Philips, dénotée MLOT. Malheureusement, nous n’avons pas pu inclure les images<br />
comprimées par Full-Frame DCT dans ces campagnes, pour des raisons pratiques.<br />
Nous avons réalisé trois campagnes d’évaluation: deux campagnes à partir de l’interprétation<br />
visuelle diagnostique (dénotées “évaluations diagnostiques”), et une campagne à partir de<br />
mesures quantitatives assistées par logiciel (dénotée “évaluation QCA 2 ”).<br />
Contenu de ce mémoire<br />
En préliminaire, nous présenterons le contexte général de notre thèse. Celle-ci a été réalisée<br />
dans le cadre d’une convention Cifre avec la Société Philips Systèmes Médic<strong>aux</strong> et le<br />
Laboratoire Creatis. Les équipes industrielles, universitaires et hospitalières impliquées dans<br />
nos études seront brièvement présentées dans ce chapitre.<br />
La première partie de ce mémoire est consacrée au thème de la <strong>compression</strong>. Elle comprend<br />
plusieurs chapitres.<br />
Une revue des méthodes de <strong>compression</strong> d’image sera donnée dans le chapitre II-1. On y<br />
abordera des notations, et des notions générales telles que les mesures de performance et de<br />
distorsion. On y trouvera une explication du mécanisme des principales méthodes de<br />
<strong>compression</strong> existantes, avec un peu plus de détail sur les méthodes que nous avons étudiées<br />
ou utilisées. Le chapitre II-2 abordera des généralités sur les images médicales numériques,<br />
sur les <strong>angiographies</strong> <strong>cardiaques</strong>, et évoquera les avantages et les inconvénients associés <strong>aux</strong><br />
formats d’images standards, que se soit les formats médic<strong>aux</strong> tels que DICOM, ou les formats<br />
de l’industrie de l’image tels que JPEG.<br />
Les quatre chapitres suivants seront consacrés à nos développements en matière de<br />
quantification et de <strong>compression</strong> à base de Full-Frame DCT. Le premier thème est l’allocation<br />
de bits (chapitre I-3). Une fois l’image transformée par Full-Frame DCT, une stratégie de<br />
répartition des bits doit être réalisée. Le deuxième thème est la combinaison <strong>compression</strong> et<br />
renforcement (chapitre I-4). Le renforcement de contour a pour inconvénient de renforcer les<br />
artefacts de <strong>compression</strong>, pas seulement par le bord des vaisse<strong>aux</strong>! Nous aborderons des<br />
stratégies pour minimiser cet inconvénient. Nous verrons aussi comment il est possible de faire<br />
d’une pierre deux coups, en effectuant le renforcement au cours du processus de <strong>compression</strong>.<br />
Le troisième thème est celui de l’adaptativité du quantificateur (chapitre I-5). Le quantificateur<br />
étudié est le quantificateur scalaire uniforme. Nous avons mené une étude théorique de<br />
l’impact d’une mauvaise adaptation des paramètres utilisés dans le quantificateur par rapport<br />
<strong>aux</strong> paramètres de la distribution réelle du signal à quantifier. Nous avons validé cette étude<br />
théorique par une expérimentation à partir d’images (chapitre I-6). Pour finir, le chapitre I-7<br />
donnera une synthèse sur la partie <strong>compression</strong>.<br />
La deuxième partie de ce mémoire est consacrée à l'évaluation. Elle comprend elle aussi<br />
plusieurs chapitres.<br />
Le chapitre II-1 est une analyse bibliographique sur les méthodes d’évaluation de la qualité<br />
cosmétique et diagnostique d’images comprimées. Nous y expliquons aussi en quoi consistent<br />
les tâches d’interprétations visuelles qui conduisent à un diagnostic sur les examens<br />
2 QCA: de l’anglais Quantitative Coronary Analysis<br />
- 18 -
d’<strong>angiographies</strong> <strong>cardiaques</strong>. Nous avons mis au point un protocole expérimental et une analyse<br />
statistique qui s’adapte au plus près à ces tâches cliniques.<br />
Les chapitres II-2 et II-3 décrivent les deux campagnes d’évaluation diagnostiques (méthode,<br />
résultats et discussions). Il a été demandé à des experts médic<strong>aux</strong> d’effectuer une<br />
interprétation visuelle sur des <strong>angiographies</strong> <strong>cardiaques</strong> originales et comprimées. Cette<br />
interprétation consiste à trouver et classifier des anormalités sur les segments de ventricule<br />
gauche et sur les segments de coronaires. Nous avons cherché à quantifier statistiquement le<br />
degré d’accord entre les interprétations sur les images originales et comprimées, et à évaluer si<br />
cet accord est significativement modifié par la <strong>compression</strong>.<br />
La première évaluation diagnostique s’est déroulée à l’Hôpital Cardiologique de Lille, avec les<br />
méthodes MPEG et MLOT, à un t<strong>aux</strong> de 12:1. Nous avons comparé les interprétations visuelles<br />
de deux cardiologues sur des examens d’angiographie origin<strong>aux</strong> et comprimés.<br />
La deuxième évaluation subjective s’est déroulée au Hermann Hospital à Houston (Texas,<br />
USA), avec les méthodes JPEG et MLOT, à un t<strong>aux</strong> de 12:1. Nous avons comparé les<br />
interprétations visuelles de quatre cardiologues sur des examens d’angiographie origin<strong>aux</strong> et<br />
comprimés.<br />
Le chapitre II-4 est consacré à l’évaluation QCA. Nous y introduirons la méthode de mesure sur<br />
laquelle a porté l’étude. Nous résumerons les rares trav<strong>aux</strong> d’évaluation de <strong>compression</strong> et<br />
QCA. Nous expliquerons notre protocole expérimental, les outils statistiques utilisés, donnerons<br />
les résultats et leur interprétation. La campagne d'évaluation QCA s'est déroulée à l'AZL de<br />
Leiden.<br />
Le chapitre II-5 est une synthèse sur l’évaluation.<br />
Une synthèse et conclusion générale terminera ce mémoire.<br />
- 19 -
CADRE DE TRAVAIL<br />
- 20 -
- 21 -
Cadre général<br />
Ce travail de thèse a été réalisé dans le cadre d’une convention CIFRE impliquant le<br />
Laboratoire CREATIS et la Société Philips Systèmes Médic<strong>aux</strong>. Les études présentées dans ce<br />
mémoires s’insèrent dans un projet de recherche industrielle piloté depuis les Pays-Bas par le<br />
groupe Pre-Development de la division Cardio-Vasculaire internationale de la Société Philips<br />
Medical Systems (PMS). Le but du projet est de tester dans des conditions cliniques l’effet de<br />
la <strong>compression</strong> d’images sur des <strong>angiographies</strong> <strong>cardiaques</strong>. Les méthodes de <strong>compression</strong><br />
concernées sont des standards existants et des méthodes développées spécifiquement. Les<br />
retombées attendues concernent la réalisation de systèmes d’angiographie cardiaque<br />
complètement digit<strong>aux</strong>, ce qui reste un défi technologique pour le stockage et la communication<br />
des images compte tenu de la taille et du nombre d’images par examen.<br />
Pour réaliser les objectifs fixés, il a été nécessaire de s’insérer dans un contexte<br />
pluridisciplinaire de médecins et d’ingénieurs. Afin de diversifier les sources d’images et de<br />
pouvoir consulter les experts de plusieurs centres, une coopération avec plusieurs sites a été<br />
mise en place:<br />
• le Laboratoire Creatis pour des questions algorithmiques en <strong>compression</strong> d’image<br />
appliquées <strong>aux</strong> <strong>angiographies</strong> <strong>cardiaques</strong>, et pour la mise au point des protocoles<br />
d’évaluation.<br />
• le Laboratoire de Recherche NatLab du groupe Philips <strong>aux</strong> Pays-Bas où a été mis au point<br />
un algorithme spécifique testé dans la cadre de la présente thèse, appelé MLOT<br />
• l’Hôpital Cardiologique de Lyon pour des études pilotes d’évaluation clinique d’images<br />
comprimées<br />
• l’Hôpital Cardiologique de Lille pour une campagne d’évaluation portant sur deux méthodes<br />
de <strong>compression</strong> (le standard MPEG et la méthode spécifique MLOT)<br />
• le Hermann Hospital et l’Université du Texas à Houston pour une campagne d’évaluation<br />
portant sur deux méthodes de <strong>compression</strong> (le standard JPEG et la méthode spécifique<br />
MLOT)<br />
• l’AZL de Leiden <strong>aux</strong> Pays-Bas pour une campagne de mesures quantitatives sur des images<br />
comprimées par deux méthodes (le standard JPEG et la méthode spécifique MLOT)<br />
Convention CIFRE<br />
Le système des conventions CIFRE a été mis au point par le Ministère de la Recherche<br />
français en vue de faciliter les coopérations entre les laboratoires publiques de recherche et les<br />
entreprises privées. Les conventions CIFRE sont gérées par l’Association Nationale pour la<br />
Recherche Technique (ANRT) et comprennent trois partenaires: un laboratoire universitaire de<br />
recherche, un industriel, et un étudiant en thèse. L’étudiant effectue sa thèse dans le cadre du<br />
laboratoire, tout en étant salarié de l’entreprise. Un contrat de coopération lie le laboratoire et<br />
l’entreprise. L’entreprise prend des engagements vis à vis de l’ANRT et de l'étudiant, et perçoit<br />
une subvention pour couvrir une partie des dépenses salariales de celui-ci.<br />
Laboratoire Creatis<br />
Le laboratoire CREATIS (Centre de REcherche et d’Applications en Traitement de l’Image et<br />
du Signal) est une Unité Mixte de Recherche du Centre National de la Recherche Scientifique:<br />
l’UMR 5515. L’ancienne appellation de cette unité était au début de ce travail: Laboratoire de<br />
Traitement du Signal et des Ultra-Sons (LTSU). Creatis est affilié à l’Institut National de la<br />
Santé et de la Recherche Médicale. Le laboratoire dépend de l’Institut National des Sciences<br />
Appliquées (INSA) de Lyon, et de l’Université Claude Bernard de Lyon. L’unité comprend une<br />
soixantaine de chercheurs à temps complet ou partiel, ainsi qu’une dizaine de membres de<br />
personnel technique. Les membres de Creatis se répartissent sur deux sites: l’INSA et l’Hôpital<br />
Neuro-Cardiologique Louis-Pradel.<br />
- 22 -
La spécificité de Creatis est de réunir au sein d’une même unité des chercheurs en sciences de<br />
la vie (radiologues, cardiologues, vétérinaires), et des chercheurs en sciences pour l’ingénieur<br />
(informaticiens, mathématiciens appliqués...).<br />
Les sujets de recherches sont principalement axés autour du traitement de l’image appliqué<br />
<strong>aux</strong> images médicales. Les trav<strong>aux</strong> sont organisés en thèmes scientifiques (axes de<br />
recherche), et projets médic<strong>aux</strong> (applications médicales spécifiques).<br />
Les thèmes scientifiques de l’unité sont:<br />
• Imagerie Dynamique,<br />
• Imagerie Volumique,<br />
• Formation de l’Image Ultrasonore.<br />
Les projets médic<strong>aux</strong> sont:<br />
• Imagerie fonctionnelle de l’ischémie myocardique<br />
• Imagerie morphologique et fonctionnelle des vaisse<strong>aux</strong><br />
• Radiologie quantitative de la structure osseuse: structure du réseau trabéculaire<br />
• Traitement des images IRM de sclérose en plaques: corrélation avec le retentissement<br />
fonctionnel<br />
• Aide au diagnostic des pathologies du sein.<br />
Société Philips Medical Systems<br />
La Société Philips Medical Systems est l’un des grands constructeurs mondi<strong>aux</strong> d’imagerie<br />
médicale. Sa gamme de produits comprend les systèmes de radiologie conventionnels et<br />
numériques, la scanographie, la résonance magnétique, l'échographie. Les systèmes vers<br />
lesquels le présent travail est principalement orienté sont les systèmes d’angiographie<br />
cardiaque. Philips est leader mondial dans ce domaine avec un parc d’environ 2000 machines<br />
installées, soit 40% du total.<br />
Philips Medical Systems est une division du groupe Philips, dont le siège est à Eindhoven <strong>aux</strong><br />
Pays-Bas. Le groupe Philips compte environ 230000 personnes et PMS environ 9000.<br />
La structure française de PMS a principalement une activité de vente et après-vente. Dans le<br />
cadre d’études et de recherche avec des établissements hospitaliers, l’organisation nationale<br />
procure un support technique et logistique, ce qui a typiquement été le cas pour le bon<br />
déroulement de nos expériences pilotes et campagnes d’évaluation réalisées en France. PMS<br />
France est le partenaire industriel de cette convention Cifre.<br />
La totalité du projet de <strong>compression</strong> a été pilotée par le groupe "Pre-Development X-Ray" de<br />
PMS à Best, près de Eindhoven, <strong>aux</strong> Pays-Bas. Le site de Best, compte environ 2000<br />
personne. Il abrite le siège de PMS et l’un des centres importants de fabrication, notamment<br />
des gammes de radiologie numérique. Le groupe "Pre-Development X-Ray" s’occupe de tout<br />
projet en amont du développement, c’est à dire de la mise au point et de l’évaluation de<br />
nouvelles technologies ayant un potentiel d’application dans les futurs produits. La mise au<br />
point et le test de méthodes de <strong>compression</strong>, l’évaluation du potentiel technologique et médical<br />
de ces méthodes fait typiquement partie de ses activités. Au début de ce travail, ce groupe<br />
comptait environ 8 personnes. Il en compte aujourd’hui une vingtaine, plus quelques élèves<br />
ingénieurs en stage.<br />
Le laboratoire NatLab est l’un de cinq laboratoires de recherche du groupe Philips. Il est situé à<br />
Eindhoven. Une de ses équipes, le groupe Digital Signal Processing développe de nouvelles<br />
applications pour les systèmes de communications audio et vidéo. Par exemple, il a mis au<br />
point la <strong>compression</strong> utilisée par Philips en télévision haute définition et pour les cassettes<br />
DCC. PMS a impliqué ce groupe dans le développement d’un algorithme de <strong>compression</strong><br />
- 23 -
adapté <strong>aux</strong> images médicales, avec comme principale application l’angiographie cardiaque. Ce<br />
travail a débouché sur l’algorithme MLOT qui a fait l’objet des évaluations présentées dans ce<br />
mémoire.<br />
La structure de PMS <strong>aux</strong> USA a également été impliquée pour coordonner les contacts avec<br />
des équipes hospitalo-universitaires. Il était prévu au début du projet de participer à une étude<br />
multi-centrique en radiologie pilotée par l’UCLA et utilisant une méthode de <strong>compression</strong> à<br />
base de Full-Frame DCT. Cette étude n’a finalement pas vu le jour. En revanche, PMS-USA a<br />
procuré son soutien pour l’évaluation que nous avons réalisé à Houston.<br />
Hôpital Cardiologique de Lille<br />
L’hôpital Cardiologique de Lille fait partie de la dizaine d’hôpit<strong>aux</strong> français dont les soins sont<br />
dédiés uniquement à cette spécialité. Notre première campagne d’évaluation diagnostique s’y<br />
est déroulée, au sein du Département d’Hémodynamique. Ce service compte trois salles<br />
d’<strong>angiographies</strong> <strong>cardiaques</strong>, dont deux numériques. Il réalise 3500 examens d’<strong>angiographies</strong><br />
<strong>cardiaques</strong> par an, dont 1000 interventions. Ces examens sont réalisés par une équipe<br />
d’environ six cardiologues à pleins temps, et de nombreux vacataires. L’activité de recherche<br />
clinique de ce centre est très intense et implique chacun des membres du personnel. Cette<br />
particularité a été très propice au bon déroulement de notre étude et de projets corollaires qui<br />
se sont déroulés durant mon séjour à Lille. Les thèmes de recherche sont axés autour du<br />
diagnostic et du traitement des maladies coronariennes. Ils concernent les nouve<strong>aux</strong> dispositifs<br />
d’imagerie, le matériel interventionnel, les traitements médicamenteux associés <strong>aux</strong> prothèses<br />
endo-vasculaires... Le Département d’Hémodynamique est “core laboratory” dans de nombreux<br />
protocoles de recherche clinique multi-centriques impliquant des mesures quantitatives sur les<br />
films d’<strong>angiographies</strong>.<br />
Hermann Hospital / University of Texas<br />
Le Hermann Hospital de Houston <strong>aux</strong> Etats-Unis est un hôpital privé à but non lucratif. Il est<br />
situé dans le plus grand complexe médical des USA, appelé le Texas Medical Center (un<br />
conglomérat d’établissements hospitaliers dont la densité et la taille nous sont inconnus en<br />
Europe). Il est le centre de formation (“teaching hospital”) pour l’University of Texas Medical<br />
School. Le centre d’hémodynamique (“cath lab”) compte trois salles d’<strong>angiographies</strong><br />
<strong>cardiaques</strong> et réalise environ 1200 examens par ans. Une équipe de médecins est responsable<br />
du service médical en même temps que de l’activité de formation et de recherche. Les thèmes<br />
princip<strong>aux</strong> d’investigations concernent le diagnostic et le traitement de l’infarctus du myocarde<br />
et de l’angor instable. Les activités de recherche concernent les développements et l’évaluation<br />
de nouvelles modalités d’imagerie, et développement et l’évaluation de médicaments, de<br />
matériels interventionnels.<br />
AZL de Leiden<br />
Le “Laboratory for Clinical Experimental Image Processing” (abréviation hollandaise: LKEB) fait<br />
partie de l’Hôpital Universitaire de Leiden (abréviation hollandaise: AZL). Il est constitué d’une<br />
équipe d’une trentaine de personnes de formation scientifique et technique. Ses axes de<br />
recherche et développement concernent le traitement d’image en radiologie et cardiologie. Sa<br />
spécialité concerne les logiciels d’analyse quantitative en angiographie <strong>cardiaques</strong>. Les<br />
logiciels de mesures quantitatives des ventricules gauches et des artères coronaires<br />
disponibles sur les systèmes Philips ont été mis au point et évalués par le LKEB. Les autres<br />
thèmes d’analyse quantitative étudiés concernent par exemple la résonance magnétique et<br />
les ultrasons.<br />
- 24 -
PARTIE I<br />
Compression d’<strong>angiographies</strong><br />
<strong>cardiaques</strong>:<br />
problèmes algorithmiques et illustration<br />
avec la Full-Frame DCT<br />
- 29 -
CHAPITRE I-1<br />
ETUDE BIBLIOGRAPHIQUE DES<br />
METHODES DE COMPRESSION<br />
D’IMAGES<br />
- 30 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
1. Généralités sur la <strong>compression</strong> d’images<br />
1.1. Contraintes et applications d’un système de <strong>compression</strong><br />
La <strong>compression</strong> d’une image numérique permet de réduire le nombre de bits qu’elle<br />
occupe. Les deux principes qui interviennent pour atteindre cet objectif sont la réduction<br />
de la redondance (n'introduisant pas de perte), et la représentation approximative de<br />
l’information contenue dans l’image (introduisant une perte).<br />
Une image numérique est une matrice composée d’échantillons élémentaires appelés<br />
pixels (1) . Nous appellerons M le nombre de lignes de l’image, et N le nombre de colonnes.<br />
La position d’un pixel sur la matrice image sera indiquée par son indice de ligne m∈[0,M[,<br />
et son indice de colonne n∈[0,N[. A chaque pixel d’une image monochrome est associé<br />
une valeur numérique à laquelle correspond un niveau de gris. En général, le nombre de<br />
nive<strong>aux</strong> de gris est une puissance de deux. Par exemple, une image dont les pixels ont<br />
des nive<strong>aux</strong> de gris représentés avec des nombres allant de 0 à 255, soit 256 valeurs<br />
possibles, est codée sur 8 bits par pixel (bpp (2) ). Notons que par convention le niveau de<br />
gris ‘0’ correspond à du noir, et le niveau ‘255’ à du blanc. Le nombre de bits par pixels R<br />
(3) est appelé ‘débit’. On notera R o le débit de l’image originale avant <strong>compression</strong>, et R c<br />
son débit après <strong>compression</strong>.<br />
L’image originale est une matrice de pixels qui occupe au total:<br />
B o =M.N.R o bits.<br />
L’image comprimée est une suite de bits qui occupe B c bits. On voit que R c = Bc ( M. N)<br />
correspond au nombre de bits moyens ramené au nombre de pixels. Cependant l’image<br />
comprimée n’est généralement pas physiquement composée de pixels. La dé<strong>compression</strong><br />
est nécessaire pour représenter l'image décomprimée sous forme de pixels visibles.<br />
L’image décomprimée occupe alors la même place que l’image originale soit B o bits, mais<br />
elle peut avoir subi une distorsion due à la <strong>compression</strong>. Par abus de langage, nous<br />
appellerons souvent par la suite ‘image comprimée’ une image qui aura en réalité subi<br />
successivement l’opération de <strong>compression</strong> et l’opération inverse de dé<strong>compression</strong>.<br />
La <strong>compression</strong> d’images peut s’employer avec des contraintes et des attentes très<br />
différentes, selon l’utilisation à laquelle les images sont destinées. On peut vouloir réduire<br />
le nombre de bits d’une image avec une contrainte sur la capacité de stockage, la vitesse<br />
de transmission, le temps d’accès depuis un médium de stockage, etc... On peut prévoir<br />
d’utiliser l’image décomprimée pour des applications de loisir, du traitement d’image, de la<br />
recherche visuelle rapide dans une base <strong>d'images</strong>, du diagnostic médical, etc...<br />
Toute la problématique de la <strong>compression</strong> d’image consiste à satisfaire les<br />
contraintes technologiques, techniques ou financières <strong>aux</strong>quelles on est confronté,<br />
tout en obtenant la qualité requise de l'image décomprimée pour l’application<br />
désirée.<br />
1 pixel : abréviation de l’anglais "picture element"<br />
2 bpp : abréviation de "bit par pixel"<br />
3 R : de l'anglais "rate", débit<br />
- 31 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
1.2. Mesures de performance<br />
1.2.1. T<strong>aux</strong> de <strong>compression</strong><br />
En plus du débit R c , une mesure courante pour déterminer le degré de <strong>compression</strong><br />
obtenu est le t<strong>aux</strong> de <strong>compression</strong> CR (1) . Il est défini par:<br />
CR =<br />
nombre de bits de l'image originale<br />
nombre de bits de l'image comprimée =<br />
R<br />
R<br />
o<br />
c<br />
(I-1.1)<br />
Pour une même méthode de <strong>compression</strong> et un même CR réalisés sur des images<br />
distinctes, la qualité obtenue peut être très variable d’une image à l’autre. Les propriétés<br />
statistiques des images originales jouent un rôle prépondérant dans le résultat obtenu.<br />
Par exemple avec une image sur-échantillonnée, donc très redondante, il est facile<br />
d’obtenir des t<strong>aux</strong> élevés. La théorie de l’information donne une limite théorique au CR<br />
maximal qu’il est possible d’obtenir sans distorsion pour toute méthode de <strong>compression</strong><br />
sur une image donnée.<br />
1.2.2. Entropie<br />
L’entropie est une grandeur qui caractérise la quantité d’information que contient une<br />
image. Par exemple une image dont tous les pixels ont la même valeur contient très peu<br />
d’information car elle est extrêmement redondante, son entropie est faible. En revanche,<br />
une image dont tous les pixels ont une valeur aléatoire contient beaucoup d’information,<br />
son entropie est forte. Ceci est comparable à l’entropie en thermodynamique qui croit<br />
avec le désordre.<br />
En pratique, l’entropie d’une image numérique est inversement liée à la probabilité<br />
d’apparition des nive<strong>aux</strong> de gris dans l’image. Plus une valeur de gris k est rare, plus sa<br />
probabilité d’apparition p(k) est faible, et cela contribue à une entropie globale plus<br />
grande. Par définition, l’entropie d'ordre zéro H 0 est donnée par:<br />
L’utilisation du logarithme de base deux fait de H 0 le nombre de bits moyen par pixel<br />
R<br />
2 −1<br />
H 0 = - ∑ pk ( ).log pk ( ) bpp (I-1.2)<br />
2<br />
k = 0<br />
nécessaire pour coder toute l’information contenue dans l’image. Une image codée avec<br />
R bits par pixels a en fait presque toujours une entropie d'ordre zéro inférieure à R. Dans<br />
sa théorie de l’information applicable à tout signal y compris les images, Shannon a<br />
démontré un théorème qui indique qu’il est possible de coder (comprimer) un signal<br />
d’entropie H avec H bpp, tout en obtenant une distorsion arbitrairement faible [SHAN-48].<br />
Par conséquent, l’entropie H 0 d’une image originale fournit le débit minimal qu’il est<br />
possible d’atteindre par <strong>compression</strong> pixel par pixel sans dégrader l’image, et par là<br />
même un t<strong>aux</strong> de <strong>compression</strong> sans perte maximal.<br />
1.3. Mesures de distorsion<br />
La distorsion (D) est l’erreur introduite par l’opération de <strong>compression</strong>, due au fait<br />
qu’éventuellement l’image reconstruite n’est pas exactement identique à l’image originale.<br />
1 CR : de l'anglais "<strong>compression</strong> ratio" (t<strong>aux</strong> de <strong>compression</strong>)<br />
- 32 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
La mesure de distorsion utilisée généralement en <strong>compression</strong> d’image est l’erreur<br />
quadratique moyenne MSE (1) . Cette grandeur est définie par la moyenne des écarts au<br />
carré e 2<br />
entre le pixel (m,n) de l’image originale I(m,n), et le pixel (m,n) de l’image<br />
mn<br />
reconstruite Î(m,n)<br />
MSE =<br />
1<br />
MN .<br />
M −1<br />
N −1<br />
^<br />
2<br />
∑∑ [ Imn ( , ) − Imn ( , )]<br />
(I-1.3)<br />
m=<br />
0 n=<br />
0<br />
On référence cette erreur par rapport à la dynamique de l’image en décibels. On obtient<br />
un rapport signal sur bruit crête pour une image dont le maximum est 2 R -1 dénoté PSNR<br />
(peak SNR). Si le minimum de l’image est nul (image bien cadrée) on obtient le rapport<br />
signal sur bruit crête à crête noté PPSNR (peak to peak SNR (2) )<br />
Lorsque la reconstruction est parfaite, la MSE est nulle et le PPSNR tend vers l’infini.<br />
2 1<br />
PSNR ou PPSNR = 10.log 10<br />
. ( R − )<br />
MSE<br />
2<br />
dB<br />
(I-1.4)<br />
Ces mesures de distorsion sont objectives et simples à calculer. Certaines méthodes de<br />
<strong>compression</strong> recherchent le meilleur compromis entre la performance et la distorsion, et<br />
optimisent des courbes t<strong>aux</strong>-distorsion ou R(D) (3) . Cette approche sera utilisée dans le<br />
chapitre I-6.<br />
L’inconvénient de la MSE est qu’elle ne rend pas compte de la perte de qualité visuelle<br />
engendrée par la <strong>compression</strong>. Si tous les pixels d’une image étaient translatés, l’erreur<br />
quadratique serait très élevée, alors que la qualité visuelle serait parfaitement bonne. De<br />
plus. la MSE est une mesure globale sur toute l’image, qui gomme les variations locales.<br />
Par exemple dans une image médicale, si des détails anatomiques importants sont<br />
dégradés par la <strong>compression</strong> et si la majeure partie du reste de l’image est fidèlement<br />
restituée, alors la MSE est relativement faible mais, pour l’expert médical, cette image a<br />
une qualité diagnostique médiocre.<br />
De très nombreuses recherches visent à trouver des mesures objectives de distorsion qui<br />
prédisent suffisamment bien la qualité perceptuelle. Ces trav<strong>aux</strong> ont apporté une<br />
connaissance sur les réponses du système visuel humain (dénoté HVS (4) ) à certaines<br />
formes de dégradation. Il est de plus nécessaire de valider la mesure de distorsion à<br />
l’utilisation et l’usage qui sera fait des images décomprimées. Ces études, même<br />
appliquées à l’imagerie médicale, n’ont pas encore abouti à une mesure de distorsion qui<br />
prédise de façon satisfaisante la qualité des images reconstruites en fonction de leur<br />
emploi pour une interprétation visuelle ou automatique, avec ou sans analyse quantitative<br />
(par exemple dans l’évaluation des sténoses). L’état de l’art consiste encore à se baser<br />
sur des mesures de distorsion lors du développement de la méthode de <strong>compression</strong>, et<br />
ensuite de le valider à l'aide d'observateurs par des comparaisons statistiques. Cette<br />
approche est largement utilisée dans notre travail.<br />
1 MSE : de l’anglais “Mean Square Error” (erreur quadratique moyenne)<br />
2 SNR : de l'anglais "Signal to Noise Ratio" (rapport signal sur bruit)<br />
3 R (D) : de l'anglais "Rate-Distorsion" (débit-distorsion)<br />
4 HVS : de l'anglais "Human Visual System" (système visuel humain)<br />
- 33 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
2. Principales méthodes de <strong>compression</strong> d’images<br />
Cette section donne une présentation des différentes méthodes courantes en<br />
<strong>compression</strong> <strong>d'images</strong>. Le lecteur familier de ces techniques peut se reporter directement<br />
à a section 2.5.6 sur la méthode MLOT.<br />
2.1. Classification des méthodes de <strong>compression</strong><br />
On peut établir une classification des principales méthodes de <strong>compression</strong> à l’aide de<br />
différents critères. Nous en donnons cinq dans ce qui suit. Puis nous introduirons dans les<br />
sections 2.2 et 2.3 les méthodes les plus courantes, en incluant les méthodes sur<br />
lesquelles a porté ce travail du point de vue des aspects algorithmique et de leur<br />
évaluation.<br />
2.1.1. Méthodes avec ou sans perte d’information<br />
Cette première classification s’intéresse à la présence ou non d’une distorsion ou perte<br />
d’information introduite par la <strong>compression</strong>. C’est la classification que nous utiliserons par<br />
la suite en 2.2 et 2.3 pour exposer les principales méthodes de <strong>compression</strong> rencontrées.<br />
Le t<strong>aux</strong> de <strong>compression</strong> (CR) généralement atteint par les méthodes sans perte sur des<br />
images médicales normalement échantillonnées est d'environ 2 ou 3 [ROOS-91], [LIEN-<br />
95], [NZOM-95].<br />
2.1.2. Méthodes par pixels, groupes de pixels, ou image entière<br />
Cette deuxième classification s’intéresse à la zone de travail de base sur laquelle<br />
s’appliquent les algorithmiques: des pixels individuels, des blocs de pixels, ou toute<br />
l’image. Pour citer quelques exemples:<br />
• codage individuel des pixels: méthodes sans perte par DPCM (1) [CUTL-52] et codage de<br />
Huffman [HUFF-52];<br />
• codage de blocs de pixels: les standards JPEG (2) [PENN-93] et MPEG (3) [LEGA-91]<br />
travaillent par blocs adjacents de 8x8 pixels, la quantification vectorielle [GERS-82];<br />
• codage de l’image entière: DCT (4) Full-Frame (étudiée dans cette thèse), codage<br />
<strong>d'images</strong> sous-bandes par filtrage [WOOD-86] ou décomposition sur une base<br />
d’ondelettes [BARL-94], [MALL-89].<br />
2.1.3. Méthodes intra- et inter-images<br />
Cette troisième classification s’applique <strong>aux</strong> séquences d’images (séries temporelles ou<br />
séries de coupes 3D). Les méthodes intra-images (intra-frame en anglais) effectuent la<br />
<strong>compression</strong> de chaque image individuellement. Les méthodes inter-images (inter-frame)<br />
exploitent la redondance entre les images successives. Le standard multimédia MPEG<br />
code des séquences d’images en détectant le mouvement d’une image à l’autre. Les<br />
zones fixes de l’image ne contiennent pas d’information supplémentaire, les zones<br />
mobiles contiennent une information qu’il faut coder.<br />
2.1.4. Méthodes adaptatives, non-adaptatives<br />
Cette quatrième classification indique si la méthode de <strong>compression</strong> est adaptative ou<br />
non. Une méthode non-adaptative applique les mêmes paramètres (bits alloués et<br />
1 DPCM : de l'anglais "Differential Pulse Code Modulation" (modulation par impulsion et codage<br />
différentielle)<br />
2 JPEG: de l'anglais "Joint Picture Expert Group", méthose standardisée de codage inter-image<br />
3 MPEG: de l'anglais "Motion Picture Expert Group", méthode standardiséé de codage multimédia<br />
4 DCT: de l'anglais "Discrete Cosine Transform" (transformée cosinus discrète)<br />
- 34 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
quantificateurs) de façon fixe, quel que soit l’ensemble de données à coder. Une méthode<br />
adaptative va modifier ses paramètres au fur et à mesure du codage, en s’adaptant <strong>aux</strong><br />
données d’entrée.<br />
2.1.5. Méthodes spatiales et méthodes par transformation<br />
La cinquième classification s’intéresse au domaine dans lequel s’effectuent les opérations<br />
de base de la <strong>compression</strong>. Une image peut être représentée de deux façons strictement<br />
équivalentes:<br />
• Dans le domaine spatial, dans lequel l’image est représentée sous forme de pixels.<br />
C’est le domaine accessible visuellement à l’observateur.<br />
• Dans un domaine fréquentiel, dans lequel l’image est représentée sous forme de<br />
coefficients de fréquences spatiales. Le passage d’un domaine à l’autre se fait par des<br />
transformations mathématiques totalement réversibles, telles que la transformation de<br />
Fourrier ou la transformation Cosinus. Intuitivement, une fréquence spatiale correspond<br />
au fait qu’un motif se reproduit régulièrement dans l’image, avec une certaine<br />
fréquence, comme par exemple un damier.<br />
Dans le domaine spatial, l’information contenue dans l’image est distribuée sur toute la<br />
matrice image. Dans le domaine des fréquences, l’information (qui est strictement<br />
équivalente) est généralement plus “concentrée”. De ce fait, il est approprié de construire<br />
un algorithme de <strong>compression</strong> sur les coefficients du plan des fréquences de l’image.<br />
Cette approche est largement utilisée, par exemple dans les méthodes standards JPEG et<br />
MPEG.<br />
2.2. Méthodes sans pertes<br />
Les méthodes sans pertes peuvent s’appliquer dans le domaine spatial, ou plus<br />
difficilement, dans le domaine des fréquences. Pour rester général, nous emploierons le<br />
terme symbole au lieu de pixel ou bien coefficient du domaine des fréquences, et la notion<br />
de séquence de symboles pour une image ou une partie d’image. Les termes réversible et<br />
irréversible seront employés respectivement comme synonymes de sans et avec perte.<br />
2.2.1. Méthodes différentielles et prédictives<br />
Ces méthodes exploitent la redondance entre un symbole et ses voisins, qui en général<br />
se ressemblent beaucoup. Par exemple, on code le premier symbole, on calcule la<br />
différence avec le second symbole et on code cette différence. Celle dernière nécessite<br />
moins de bits que les symboles eux-mêmes car cette différence est souvent faible. On<br />
code ensuite la différence entre le deuxième symbole et le troisième, etc...<br />
Dans des systèmes plus complexes et performants, on établit une fonction de prédiction<br />
qui permet d’estimer la valeur d’un symbole en fonction de la valeur des symboles voisins.<br />
On code alors l’erreur de prédiction, qui est l’écart entre la vraie valeur du symbole et la<br />
valeur prédite. La fonction de prédiction peut être plus ou moins complexe selon l’ordre de<br />
prédiction (nombre de symboles impliqués dans le calcul de prédiction), la topologie<br />
(position des symboles voisins utilisés dans le calcul), l’utilisation de pondération (poids<br />
affectés <strong>aux</strong> symboles du calcul de prédiction selon leur position relative par rapport au<br />
symbole prédit ou selon les propriétés statistiques de l’ensemble de symboles). La façon<br />
de coder les erreurs de prédiction est souvent basée sur la quantification scalaire, que<br />
nous verrons plus loin (section I-1|2-3-2). Le codage prédictif ainsi décrit correspond à la<br />
modulation par impulsion et codage différentielle (MICD, ou DPCM en anglais) [O’NEA-66]<br />
[NETR-77].<br />
- 35 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
L’efficacité d’une méthode prédictive est fortement liée à l’adéquation de la fonction de<br />
prédiction <strong>aux</strong> symboles à coder afin que les valeurs d’erreur de prédiction soient faibles.<br />
On peut rendre les méthodes différentielles et les méthodes prédictives irréversibles si on<br />
code les différences ou les erreurs de prédiction de façon approchée. Le débit maximal<br />
après codage dans le cas sans perte est égal à l’entropie de la séquence d’erreurs de<br />
prédiction.<br />
Dans ses systèmes numériques d’angiographie cardiaque, de type DCI ou Integris, la<br />
société Philips Medical Systems utilise depuis le début des années 90 un système basé<br />
sur la méthode DPCM pour le codage des images stockées sur disque dur. En raison des<br />
cadences d’acquisition et de visualisation très élevées en cardiologie (12.5 et 25 im/sec,<br />
voire 50 im/sec), le codage est réalisé par un matériel spécialisé. Un réglage de la<br />
machine, rend possible l’augmentation du t<strong>aux</strong> de <strong>compression</strong> au-dessus du seuil de<br />
réversibilité (environ 2:1) et permet ainsi de gagner encore plus d’espace disque. Cela se<br />
fait en allouant moins de bits pour coder l’erreur de prédiction.<br />
Une méthode bien connue de type différentielle ou prédictive est la modulation delta<br />
(DM (1) ) [SCHI-70] [STEE-75]. C’est la plus simple de ces méthodes. On transmet le<br />
premier symbole, et on prédit chaque symbole comme étant égal à son prédécesseur.<br />
L’erreur de prédiction est codée sur 1 bit en ne conservant que l’information sur le signe<br />
de cette erreur. On décode chaque symbole en l’augmentant ou le diminuant d’un pas fixe<br />
par rapport à son prédécesseur, selon que l’erreur de prédiction était positive ou négative.<br />
Cette méthode est de fait irréversible.<br />
2.2.2. Méthodes par plages (Runlength coding)<br />
Une plage est une succession de symboles ayant la même valeur. Pour chaque plage<br />
rencontrée dans la séquence, on code sa valeur et le nombre de symboles qu’elle<br />
comprend. Pour que cette méthode soit utile, il faut que la longueur moyenne des plages<br />
soit suffisamment élevée.<br />
Le Runlength Coding (RLC) est utilisé par les fax dont les images sont binaires. Il est<br />
aussi largement utilisé dans les méthodes par transformation, comme par exemple JPEG:<br />
après avoir calculé les coefficients du domaine des fréquences et les avoir quantifiés<br />
(tronqués ou arrondis), on obtient un grand nombre de valeurs nulles, qui se prêtent bien<br />
au RLC.<br />
2.2.3. Codeurs entropiques<br />
Le but du codage entropique est de s’approcher le plus possible de l’entropie H 0 (équation<br />
I-1-1) de la séquence de symboles, en affectant les codes les plus courts possibles <strong>aux</strong><br />
symboles de probabilité élevée et vice versa. Ces systèmes sont conçus de manière à ce<br />
que les codes résultants, bien que de longueur variable, puissent être décodés de façon<br />
unique.<br />
La première méthode de ce type a été l’algorithme de Shannon-Fano, résultant des<br />
réflexions sur la théorie de l’information de l’après-guerre. Après avoir classé par ordre de<br />
probabilité croissante les symboles, on les divise en deux parties dont la somme des<br />
probabilités est comparable. La première partie a un code débutant par 0, la deuxième<br />
partie par 1. On divise ensuite chaque partie de nouveau en deux et on rajoute de<br />
nouveau un 0 ou un 1, et ainsi de suite jusqu’à avoir des parties avec un seul symbole.<br />
Pour un symbole, le code résultant est constitué de la succession de 0 et 1 qui ont été<br />
affectés.<br />
1 DM: de l'anglais "Delta Modulation"<br />
- 36 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
Le codage de Huffman [HUFF-52] a rapidement remplacé le codage de Shannon-Fano<br />
car il est plus efficace. Le codage de Huffman a la particularité de produire des codes de<br />
préfixe unique, ce qui permet de les décoder sans ambiguïté. La façon de construire les<br />
codes binaires est différente de Shannon-Fano. On classe aussi par ordre de probabilité<br />
croissante les symboles. A l’inverse de la technique précédente, on part des deux derniers<br />
symboles dont la probabilité est la plus faible, et on les groupe en une partie à laquelle on<br />
affecte la probabilité résultante. On reclasse l’ensemble de probabilités obtenues et on<br />
regroupe de nouveau les parties de plus faible probabilité. On construit ainsi un arbre<br />
jusqu’à ce qu’il ne reste plus que deux probabilités. On part de celles-ci pour construire les<br />
codes binaires des symboles, comme illustré sur un exemple dans la Figure I-1.1.<br />
La table des codes doit être transmises avec les symboles codés, afin de l’utiliser pour le<br />
décodage.<br />
Pour une séquence de N symboles, un codeur de Huffman produit typiquement N codes<br />
dont la longueur est comprise entre 1 et N. En pratique, pour éviter les tables de codes<br />
trop longues lorsque N est grand, on utilise des tables tronquées. On choisit une valeur<br />
convenable de N 1
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
a) Construction de l'arbre binaire<br />
p 1 = 0.40 0.40 0.40 0.40<br />
p 2 = 0.20 0.20 1.00<br />
0.35<br />
p 3 = 0.15 0.15<br />
0.60<br />
p 4 = 0.15<br />
0.25 0.25<br />
p 5 = 0.10<br />
passe 1 passe 2 passe 3 passe 4<br />
0<br />
1<br />
0<br />
1<br />
b) Affectation des codes à<br />
l'arbre<br />
0<br />
0 .<br />
1<br />
1<br />
c) Table des codes résultants<br />
symbole probabilité code<br />
1 0.40 0<br />
2 0.20 100<br />
3 0.15 101<br />
4 0.15 110<br />
5 0.10 111<br />
Figure I-1.1 : Exemple de codage de Huffman pour des symboles de<br />
probabilité {0.40, 0.20, 0.15, 0.15, 0.10}<br />
2.2.4. Méthodes par dictionnaire adaptatif (Lempel-Ziv)<br />
Dans les méthodes par dictionnaire adaptatif, le codeur lit un groupe de symboles et<br />
recherche des équivalences avec des chaînes de symboles rencontrées dans un<br />
ensemble de symboles précédents. Le premier algorithme de ce type a été mis au point<br />
par Lempel et Ziv en 1977 [ZIV-77], et a donné lieu au programme LZ77. Celui-ci lit un flot<br />
de symboles et cherche des chaînes équivalentes dans une fenêtre de 4Ko précédant le<br />
flot d’entrée. Les équivalences sont remplacées par des codes. Les programmes PKZIP<br />
et Lharc sont basés sur le système LZ77. Lempel et Zip ont développé une nouvelle<br />
version de leur algorithme en 1978, LZ78, où le dictionnaire est construit à partir de tous<br />
les symboles précédemment rencontrés et non par une fenêtre.[ZIV-78] Le programme<br />
COMPRESS sous Unix utilise la méthode LZ78. Le succès de ces méthodes s’explique<br />
par la rapidité des calculs.<br />
2.2.5. Codage arithmétique<br />
Le codage arithmétique [RISS-76] [WITT-87] est un codage récent utilisant un modèle<br />
statistique, tout comme le codeur de Huffman. Contrairement à ce dernier, il produit un<br />
code pour une séquence de symboles tout entière, et non pas un code par symbole.<br />
Chaque nouveau symbole lu modifie de façon incrémentale le code de sortie. Ce code de<br />
sortie est un nombre à virgule flottante compris entre 0 et 1, dont le nombre de chiffres<br />
après la virgule correspond au nombre de symboles. Contrairement à Huffman, il n’est<br />
pas obligatoire que chaque code ait un nombre entier de bits. Par exemple un symbole de<br />
- 38 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
probabilité 0.9 a pour entropie 0.15, mais Huffman affectera probablement un code de un<br />
bit (ou plus), et la séquence codée aura un nombre de bits plus long qu’en théorie.<br />
Le codeur arithmétique est plus performant que le codeur de Huffman, mais il est plus<br />
complexe à implémenter.<br />
2.3. Méthodes avec pertes<br />
Tout comme les méthodes sans pertes, les méthodes avec pertes peuvent avoir pour<br />
domaine de travail le plan spatial ou le plan des fréquences.<br />
2.3.1. Sous-échantillonnage<br />
Le sous-échantillonnage consiste à ne conserver qu’une partie des données. Par<br />
exemple, si on ne stocke qu’un pixel de l’image sur deux, on obtient un CR de 4:1.<br />
L’image reconstruite s’obtient par interpolation, par exemple en remplaçant chaque pixel<br />
manquant par la moyenne de deux pixels adjacents. Cette méthode extrêmement simple<br />
est à employer avec précaution car la distorsion n’est pas contrôlée.<br />
2.3.2. Quantification scalaire<br />
La quantification scalaire consiste à remplacer un nombre très grand de symboles par un<br />
nombre restreint de codes. C’est une opération irréversible très largement employée en<br />
<strong>compression</strong>. Par exemple, le fait d’arrondir des nombres flottant à l’entier le plus proche<br />
est une quantification scalaire. En général, un quantificateur scalaire est une fonction en<br />
escalier. L’intervalle de toutes les valeurs possibles de symboles d’entrée est divisé en n<br />
intervalles adjacents appelés intervalles de décision. Chaque symbole appartient à l’un de<br />
ces intervalles, et sa valeur codée correspond au numéro de son intervalle. Tous les<br />
symboles d’entrée appartenant à un même intervalle sont codés et reconstruits avec la<br />
même valeur. La valeur reconstruite est déduite directement des bornes de l’intervalle<br />
d’entrée. Pour cela on essaie d’adapter le mieux possible la position des bornes des<br />
intervalles de décision et la règle de reconstruction <strong>aux</strong> propriétés de la séquence de<br />
symboles. Tout le problème consiste à minimiser la distorsion introduite par la<br />
quantification tout en restreignant au maximum le nombre de codes. Un rappel<br />
bibliographique sur la quantification scalaire et une étude du quantificateur scalaire<br />
uniforme sont donnés au chapitre I-6.<br />
2.3.3. Quantification vectorielle<br />
La quantification vectorielle [GERS-82] [GRAY-84] [GERS-92] découpe la matrice de<br />
symboles (pixels ou coefficients du plan des fréquences) en petits blocs. Chaque bloc est<br />
codé par son indice dans un dictionnaire de blocs types. Le codage consiste à repérer<br />
dans le dictionnaire des mots-codes disponibles celui qui ressemble le plus au bloc<br />
d’entrée. Le critère consiste en général à minimiser l’erreur quadratique. Le décodage<br />
consiste simplement à remplacer l’indice par le mot-code correspondant dans le<br />
dictionnaire. La création du dictionnaire de bloc types est une étape préalable et cruciale.<br />
Il est construit par apprentissage à l'aide d'un ensemble <strong>d'images</strong> type à comprimer, ou à<br />
l'aide d'un treillis qui utilise les propriétés de la distribution statistique des symboles à<br />
coder. Un dictionnaire n’est performant que pour la classe d’image avec laquelle il a été<br />
mis au point.<br />
• Principe général<br />
2.3.4. Méthodes par transformation<br />
- 39 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
Les méthodes par transformation figurent parmi les techniques de <strong>compression</strong> les plus<br />
employées. Elles permettent d’obtenir des t<strong>aux</strong> de <strong>compression</strong> élevés tous en<br />
conservant une bonne qualité d’image. Ce sont des méthodes qui font appel<br />
successivement à plusieurs principes de <strong>compression</strong>. Elles sont utilisées par des<br />
standards internation<strong>aux</strong> pour le codage des images fixes et de la vidéo (voir paragraphe<br />
I-2.5 sur JPEG et I-1.6 sur MPEG).<br />
Le principe de la <strong>compression</strong> par transformation est de décomposer les pixels fortement<br />
corrélés de l’image en ensembles de coefficients spectr<strong>aux</strong> partiellement décorrélés, dont<br />
l’énergie est concentrée dans un nombre restreint de coefficients. Ce compactage de<br />
l’énergie permet d’affecter en priorité <strong>aux</strong> coefficients spectr<strong>aux</strong> les plus énergétiques un<br />
nombre de bits plus élevé qu’<strong>aux</strong> autres.<br />
Les méthodes par transformation suivent le schéma de fonctionnement présenté dans la<br />
Figure I-1.2.<br />
Etape de <strong>compression</strong>:<br />
image<br />
originale<br />
division en<br />
blocs transformation quantification<br />
Codage<br />
entropique<br />
séquence de<br />
bits<br />
Etape de dé<strong>compression</strong>:<br />
séquence de<br />
bits<br />
décodage<br />
déquantification<br />
approchée<br />
transformation<br />
inverse<br />
recombinaison<br />
des blocs<br />
image<br />
reconstruite<br />
Figure I-1.2: Schéma de principe de la <strong>compression</strong> par transformation<br />
1. Division en blocs<br />
La première étape consiste à diviser l’image en blocs sur lesquels vont s’appliquer<br />
indépendamment les étapes suivantes. La principale raison de ce découpage est de<br />
limiter le nombre de pixels à traiter à la fois pour diminuer les temps de calcul et la<br />
complexité des circuits électroniques. Il peut résulter de cette division un effet visuel<br />
appelé effet de "blocs" : à des t<strong>aux</strong> élevés la frontière des blocs devient visible car ils ont<br />
été comprimés indépendamment. La taille des blocs est variable selon les méthodes. Elle<br />
est de 8x8 pour JPEG et MPEG. Il peut être intéressant de choisir une taille de bloc plus<br />
élevée, selon les images [DING-95]. Dans la méthode DCT Full-Frame, l’image n’est pas<br />
divisée en blocs.<br />
2. Transformation<br />
La deuxième étape consiste à appliquer une transformation mathématique à chaque bloc.<br />
Le but de cette transformation est de décorréler les pixels, ce qui a pour effet en général<br />
de redistribuer l’énergie de l’image dans un nombre restreint des coefficients transformés.<br />
De cette façon, un grand nombre de coefficients transformés ont des très faibles valeurs,<br />
et peuvent être supprimés ou se voir allouer un nombre très faible de bits lors de l’étape<br />
suivante de quantification. La transformation fait passer d’un espace de nombres entiers,<br />
les pixels, à un espace de nombres flottants (voire de complexes) qui sont les coefficients<br />
du plan des fréquences, aussi appelé coefficients spectr<strong>aux</strong>.<br />
Les deux motivations principales à l'utilisation d'une transformation sont:<br />
- 40 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
• l'obtention d'une représentation de l'image qui se prête bien à la quantification et au<br />
codage,<br />
• la possibilité d'ajuster les erreurs de quantification selon la sensibilité au système visuel<br />
humain.<br />
3. Quantification et codage<br />
La troisième étape est la quantification des coefficients transformés, afin de se ramener à<br />
un nombre limité de valeurs différentes. La quantification est souvent précédée d’une<br />
pondération psychovisuelle des coefficients, afin de préserver ceux <strong>aux</strong>quels l’oeil est le<br />
plus sensible. La quantification est la seule étape irréversible de tout le schéma de<br />
<strong>compression</strong> par transformation. Souvent, un quantificateur scalaire uniforme est<br />
employé. Un codage entropique est effectué sur les coefficients quantifiés, pour aboutir<br />
au flot binaire de sortie. En général, c’est le degré de quantification qui détermine le<br />
niveau de <strong>compression</strong> obtenu. Une quantification grossière donne une <strong>compression</strong><br />
importante mais introduit une forte dégradation.<br />
• Les transformations<br />
Les transformations utilisées en <strong>compression</strong> d’image sont des transformations<br />
orthogonales. Ce sont des opérations séparables, c’est à dire que l’opération en deux<br />
dimensions est équivalente à deux opérations successives à une dimension, l’une<br />
horizontalement puis l’autre verticalement. Elles sont totalement réversibles.<br />
L’écriture sous forme matricielle d’une transformation 1-D est la suivante:<br />
⎡.<br />
⎢<br />
⎢<br />
⎢<br />
⎢<br />
y = T x = ⎢<br />
⎢<br />
⎢<br />
⎢<br />
⎢<br />
⎣<br />
.<br />
A1<br />
A 1<br />
A1<br />
.<br />
⎤<br />
⎥<br />
⎥<br />
⎥<br />
⎥<br />
⎥ x<br />
⎥<br />
⎥<br />
⎥<br />
. ⎥<br />
⎦<br />
(I-1.5)<br />
où x est le vecteur Nx1 des pixels d’une ligne de l’image originale, T est la matrice bloc<br />
diagonale de transformation, y est le résultat de la transformation: un vecteur de Nx1<br />
coefficients. La matrice A 1 est un bloc de bxb coefficients. Les blocs A 1 de la diagonale de<br />
T ne se recouvrent pas ('non-overlap').<br />
x = T -1 y = T *T y<br />
(I-1.6)<br />
La transformation inverse s’écrit:<br />
En <strong>compression</strong> d’image, les matrices de transformations sont réelles et orthogonales,<br />
c’est à dire T -1 = T *T , où T -1 est la matrice inverse de T, et T *T est la matrice conjuguée<br />
transposée de T. Il résulte des propriétés des matrices que T est unitaire. La matrice de<br />
transformation T est aussi considérée comme un ensemble de vecteurs colonnes qui<br />
forment une base dans l’espace à N dimensions. Ces vecteurs sont unitaires et<br />
orthogon<strong>aux</strong>.<br />
Une autre façon de représenter la transformation est de considérer que chaque élément<br />
y(k) du vecteur des coefficients transformés est obtenu par une combinaison linéaire des<br />
valeurs x(m) de l’image et des vecteurs de la base (k et m = 1, ..., N). Cette représentation<br />
- 41 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
est illustrée en 1-D par la figure I-1.3 (a). Inversement, chaque vecteur de données x(m)<br />
est le fruit de la combinaison linéaire des vecteurs de la base et des coefficients y(k), k=1,<br />
N. La décomposition de x(m) est illustrée figure I-1.3 (b).<br />
La quantification distord les valeurs y(k) en valeurs y^<br />
(k). Les erreurs de quantification<br />
sont différentes d’un bloc à l’autre, et il se peut qu'une erreur positive soit introduite à la<br />
bordure d’un bloc alors qu’une erreur négative est introduite à la bordure adjacente du<br />
bloc voisin. Il en résulte une discontinuité entre les deux blocs de l’image reconstruite,<br />
comme le montre la figure I-1.3 (b).<br />
échantillons<br />
bloc<br />
bloc<br />
^<br />
Y 1,1 x<br />
^<br />
+<br />
Y 1,2 x<br />
+<br />
n<br />
n<br />
^<br />
Y 2,1 x<br />
^<br />
+<br />
Y 2,2 x<br />
+<br />
n<br />
n<br />
+<br />
Y 1,2 x<br />
+<br />
n<br />
n<br />
Y 2,1 x<br />
+<br />
Y 2,2 x<br />
+<br />
n<br />
n<br />
^ +<br />
Y 1,8 x<br />
^ +<br />
Y<br />
n 2,8 x<br />
discontinuité<br />
bloc 1<br />
bloc 2<br />
n<br />
Y 1,8<br />
+ x<br />
n<br />
Y 2,8<br />
+ x<br />
(a)<br />
n<br />
Echantillons reconstruits<br />
(b)<br />
n<br />
Figure I-1.3: Transformation par bloc, quantification et effet de bloc<br />
Il existe de très nombreuses transformations orthogonales: transformée de Karhunen-<br />
Loeve, de Hadamard, transformée sinus, cosinus. Nous n'évoquerons dans ce qui suit<br />
que les plus importantes pour le présent travail.<br />
• Transformation de Karhunen-Loeve<br />
La transformation de Karhunen-Loeve (KLT 1 ) est optimale en terme de compactage<br />
d’énergie. Si on décidait de ne garder qu’un nombre limité de coefficients transformés, les<br />
coefficients KLT sont ceux qui contiendraient la plus grande fraction de l’énergie totale par<br />
rapport à toutes les autres transformations possibles. Malheureusement la matrice de<br />
transformation de la KLT est une fonction de l’image et il faut calculer la matrice de<br />
covariance de l’image pour obtenir la matrice de transformation T. De plus il n’existe pas<br />
d’algorithme de calcul rapide de la KLT. Pour ces raisons, la KLT est très peu utilisée<br />
malgré sa supériorité théorique.<br />
1 KLT: de l'anglais "Karhunen-Loeve Transform"<br />
- 42 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
• Transformation Cosinus<br />
La transformation cosinus discrète (DCT 1 ) 1D d’un vecteur x de longueur N donne un<br />
autre vecteur y de N coefficients, selon la définition:<br />
Avec k = 1, 2, ..., N-1<br />
y(k) =<br />
N −1<br />
2 2 1<br />
N ck xm ( m+<br />
) k<br />
( ) ∑ ( )cos[ π ]<br />
2N<br />
m=<br />
0<br />
(I-1.7)<br />
c(0)=1/ 2<br />
c(k)=1 k ≠ 0<br />
La transformation cosinus discrète (DCT) d’un bloc x de NxN pixels donne un autre bloc X c<br />
de NxN coefficients, selon la définition:<br />
X c (k,l) =<br />
N −1<br />
N −1<br />
4 2 1 2 1<br />
2<br />
N ckl xmn ( m+ ) k ( n+<br />
) l<br />
( , ) ∑∑ ( , )cos[ π ]cos[ π ]<br />
(I-1.8)<br />
2N<br />
2N<br />
m=<br />
0<br />
n=<br />
0<br />
Avec k, l = 1, 2, ..., N-1<br />
c(0,0)=1/2<br />
c(0,l)=c(k,0)=1/ 2 pour k ≠ 0 et l ≠ 0<br />
c(k,l)=1 ailleurs<br />
Par convention pour toutes les transformations, on appelle composante continue DC 2 le<br />
coefficient X c (0,0). Ce coefficient est proportionnel au niveau de gris moyen de l’image ou<br />
du bloc avant transformation. On appelle composantes AC 3 toutes les autres valeurs.<br />
La transformation cosinus a été introduite par [AHME-74] et a fait l’objet de beaucoup<br />
d’études et d’applications de la <strong>compression</strong> dans tous les domaines d’imagerie, y<br />
compris le médical. Contrairement à la transformation KLT, la matrice de transformation<br />
DCT est complètement indépendante de l’image.<br />
L’efficacité de la DCT en terme de compactage d’énergie a été comparée à celle de la<br />
KLT par [CLAR-85] et [AKAN-92]. En pratique, pour les images montrant une forte<br />
corrélation inter-pixels, l’efficacité de la DCT est quasi-semblable à celle de la KLT. [RAO-<br />
90] a démontré l’équivalence asymptotique des deux transformations.<br />
Il existe de nombreux algorithmes rapides de calculs de la DCT, qui diminuent le nombre<br />
d’opérations nécessaires par rapport à une application brute de l’équation (I-1.7), souvent<br />
en passant par la FFT [MADI-78].<br />
La DCT peut être calculée sur des blocs de l’image (transformation par bloc), ou sur<br />
l’image tout entière (transformation Full-Frame).<br />
• Transformation LOT<br />
La transformation Lapped Orthogonal Transform (LOT) a été introduite pour pallier les<br />
effets de blocs qui apparaissent à faibles débits avec les méthodes à base de<br />
transformation par bloc. Les coefficients spectr<strong>aux</strong> sont calculés en utilisant une fenêtre<br />
de pixels qui déborde du bloc à calculer. Il ne s’agit pas de blocs qui se chevauchent,<br />
mais d’un mode de calcul qui utilise l’information contenue dans les pixels voisins du bloc<br />
1 DCT: de l'anglais "Discrete Cosine Transform"<br />
2 DC: de l'anglais "Direct Componant", composant continu<br />
3 AC: de l'anglais "Alternative Componant", composants alternatifs<br />
- 43 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
en cours. Ce sont les vecteurs de base de la transformation qui chevauchent les blocs<br />
voisins. Souvent, ce chevauchement est de 50%, c’est à dire que pour transformer un<br />
bloc de NxN pixels, les vecteurs de base utilisés ont une taille de (N+N/2)x(N+N/2). En<br />
choisissant les vecteurs de base pour qu’ils s’annulent à leurs extrémités, la quantification<br />
des coefficients LOT ne peut pas générer de discontinuité au niveau des bords des blocs.<br />
Ceci est illustré par la Figure I-1.8.<br />
La transformation LOT a été introduite par [CASS-89]. [MALV-89] a proposé une structure<br />
LOT qui peut se calculer à partir de la DCT, ce qui a permis la mise au point d'un<br />
algorithme rapide.<br />
2.3.5. Codage sous-bandes<br />
Le codage sous-bandes (SBC 1 ) utilise également une représentation assimilable à une<br />
représentation par transformation de l’image. Celle-ci est filtrée de façon à générer un<br />
ensemble de sous-images ou sous-bandes, qui contiennent chacune une gamme limitée<br />
des fréquences de l’image de départ. Les sous-images étant de bande de fréquence<br />
limitée, il est possible de les sous-échantillonner. La Figure I-1.4 montre la décomposition<br />
d’une image en quatre sous-bandes, la première correspondant <strong>aux</strong> basses fréquences<br />
(approximation de l'image), la deuxième <strong>aux</strong> hautes fréquences colonnes (détails<br />
horizont<strong>aux</strong>), la troisième <strong>aux</strong> hautes fréquences lignes (détails vertic<strong>aux</strong>), la quatrième<br />
<strong>aux</strong> hautes fréquences lignes et colonnes (détails diagon<strong>aux</strong>). Après décomposition en<br />
sous-bandes et sous-échantillonnage, les sous-images résultantes sont codées avec des<br />
stratégies adaptées à leur contenu énergétique. Tout comme les méthodes par<br />
transformation, on tend à privilégier les basses fréquences qui sont riches en énergie, et à<br />
coder plus grossièrement les hautes fréquences en prenant en compte la sensibilité de<br />
l’oeil humain. Les méthodes de codage couramment employées sur les sous-bandes sont<br />
la DPCM pour la sous-bande basse fréquence, et la quantification vectorielle pour les<br />
autres sous-bandes [BARL-94].<br />
Les deux éléments clés d'un schéma de codage sous-bandes sont:<br />
• Le choix des bancs de filtres pour la décomposition sous-bandes<br />
• Le choix de(s) la technique(s) de codage appliquée(s) <strong>aux</strong> sous-bandes.<br />
Un avantage du codage sous-bandes réside dans la possibilité de transmission<br />
progressive, qui permet de reconstruire l’image comprimée en basse résolution (la sousbande<br />
basse fréquence) et d’ajouter progressivement les sous-images de détail si<br />
l’utilisateur désire plus de finesse.<br />
1 SBC: de l’anglais “SubBand Coding”, codage sous-bande<br />
- 44 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
H 0<br />
H 1<br />
H 0<br />
H 1<br />
2<br />
2<br />
2<br />
2<br />
Bande 0<br />
Bande 1<br />
Bande 2<br />
Bande 3<br />
H 0 2<br />
x(n)<br />
H 1 2<br />
Figure I-1.4: Exemple de décomposition sous-bandes. H0: filtre passe bas, H1: filtre<br />
passe haut<br />
2.3.6. Ondelettes<br />
La décomposition en ondelettes est une extension de la décomposition en sous-bandes,<br />
avec une manière particulière de choisir les filtres. La décomposition en ondelettes aboutit<br />
à une image de détails, et une image basse résolution. Cette dernière est à nouveau<br />
décomposée en une image de détail et une image basse résolution, et ainsi de suite. Plus<br />
on avance dans la décomposition, plus l’échelle de “grossissement” est importante, et<br />
plus les fréquences sont basses. Les sous-images ainsi obtenues peuvent être codées<br />
avec des stratégies différentes. La méthode de décomposition en ondelettes présente des<br />
qualités dites de “régularité” des filtres de décomposition qui sont plus avantageuses que<br />
celles des filtres usuels de décomposition sous-bandes. De plus, les filtres générés par<br />
des ondelettes préservent l’avantage de transmission progressive. Ces atouts expliquent<br />
l’engouement que rencontrent actuellement les ondelettes dans la communauté<br />
universitaire de la <strong>compression</strong> des images.<br />
2.4. Autres méthodes<br />
2.4.1. Méthodes par contour<br />
La méthode par contour consiste à séparer l’image en deux images complémentaires: une<br />
image de contours (contenant les hautes fréquences) et une image de fond (contenant les<br />
basses fréquences). Une stratégie de codage appropriée est appliquée sur chacune de<br />
ces deux images.<br />
2.4.2. Méthodes texturales<br />
La méthode texturale consiste à repérer dans l’image des zones ayant des<br />
caractéristiques voisines, c’est à dire des textures semblables. On code le type de texture<br />
et ses paramètres caractéristiques. On reconstruit l’image en régénérant synthétiquement<br />
les textures.<br />
2.4.3. Fractales<br />
Les méthodes fractales reposent sur l’idée que l’ont peut identifier des objets<br />
mathématiques de type fractal dans l’image. Ceux-ci sont composés de façon récursive<br />
de copies d’eux-mêmes. Le codage fractale consiste à repérer des zones de l’image qui<br />
peuvent être déductibles par une transformation géométrique d’une autre zone de taille<br />
- 45 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
différente (dite zone père). Le fichier comprimé comporte les caractéristiques des pères et<br />
des transformations associées <strong>aux</strong> zones qu’il peut engendrer. Les temps de calculs pour<br />
la phase de <strong>compression</strong> sont extrêmement longs, alors que ceux de la phase de<br />
dé<strong>compression</strong> sont très courts [JACQ-93].<br />
2.5. Standard pour les images fixes: JPEG<br />
2.5.1. Principes génér<strong>aux</strong><br />
Dans la fin des années 80, le comité Joint Photographic Experts Group (JPEG) a<br />
sélectionné en tant que standard mondial pour le codage des images fixes en couleurs<br />
une méthode de <strong>compression</strong> basée sur un schéma par transformation DCT. La<br />
recommandation JPEG [PENN-93] comprend trois sections principales. La première<br />
concerne la ligne de base de l’algorithme de <strong>compression</strong> d’image avec perte, la<br />
deuxième est un ensemble de caractéristiques étendues pour élargir le champ<br />
d’application du standard (entrée à 12bpp, transmission progressive, codage<br />
arithmétique), la troisième spécifie de façon indépendante une méthode sans perte<br />
utilisant une méthode prédictive et adaptative de type DPCM en conjonction avec un<br />
codeur de Huffman. La présente section ne traite que de la ligne de base.<br />
2.5.2. Descriptif résumé et illustré de l'algorithme JPEG avec perte<br />
Les étapes de l’algorithme JPEG sont présentées ci-après.<br />
Etape 1. L’image est divisée en blocs de 8x8 pixels, chaque bloc est transformé par DCT.<br />
La formule de transformation DCT utilisée est:<br />
X c (k,l) = ckl 7 7<br />
( , )<br />
( 2m+ 1)<br />
k ( 2n+<br />
1) l<br />
∑∑ xmn ( , ) cos[ π ] cos[ π ]<br />
4 m= 0 n=<br />
0<br />
16<br />
16<br />
Prenons par exemple un bloc extrait de l’image LENA [RABB-91].<br />
Le bloc original est:<br />
xmn ( , ) =<br />
⎡139 144 149 153 155 155 155 155⎤<br />
⎢<br />
144 151 153 156 159 156 156 156<br />
⎥<br />
⎢<br />
⎥<br />
⎢150 155 160 163 158 156 156 156⎥<br />
⎢<br />
⎥<br />
⎢159 161 162 160 160 159 159 159⎥<br />
⎢159 160 161 162 162 155 155 155⎥<br />
⎢<br />
⎥<br />
⎢161 161 161 161 160 157 157 157⎥<br />
⎢162 162 161 163 162 157 157 157⎥<br />
⎢<br />
⎥<br />
⎣⎢<br />
162 162 161 161 163 158 158 158⎦⎥<br />
Sa transformée, après avoir arrondi les coefficients fréquentiels à l’entier le plus proche ,<br />
donne:<br />
- 46 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
⎡1260 −1 −12 −5 2 −2 −3 1 ⎤<br />
⎢<br />
−23 −17 −6 −3 −3 0 0 −1<br />
⎥<br />
⎢<br />
⎥<br />
⎢ −11 −9 −2 2 0 −1 −1 0 ⎥<br />
⎢<br />
⎥<br />
7 2 0 1 1 0 0 0<br />
X c (k,l) = ⎢ − −<br />
⎥<br />
⎢ −1 −1 1 2 0 −1 1 1 ⎥<br />
⎢<br />
⎥<br />
⎢ 2 0 2 0 −1 1 1 −1⎥<br />
⎢ −1 0 0 −1 0 2 1 −1⎥<br />
⎢<br />
⎥<br />
⎣⎢<br />
−3 2 −4 −2 2 1 −1 0 ⎦⎥<br />
On voit que la DCT a pour effet de concentrer l’information en très peu de coefficients<br />
fréquentiels correspondant <strong>aux</strong> basses fréquences, et que les autres coefficients de haute<br />
fréquence ont des valeurs très faibles.<br />
Etape 2. Les coefficients fréquentiels sont normalisés.<br />
Une matrice de normalisation composée d’entiers sur 8 bits est utilisée pour pondérer les<br />
coefficients. Chaque coefficient de la matrice transformée est divisé par la valeur<br />
correspondante de la matrice de normalisation. Les coefficients normalisés sont obtenus<br />
par la formule:<br />
⎡ X( k,<br />
l)<br />
⎤<br />
X( k, l)<br />
= int⎢<br />
⎥<br />
⎣qQk . ( , l)<br />
⎦<br />
<br />
Où X( k l)<br />
, est le coefficient DCT normalisé,<br />
int(x) est la fonction d'arrondi à l'entier le plus proche,<br />
X(k,l) est le coefficient DCT de position (k,l) du bloc,<br />
q est le pas de quantification,<br />
Q(k,l) est la matrice de normalisation.<br />
La normalisation est équivalente à une quantification scalaire.<br />
Le pas de quantification est une valeur entière qui sert à régler le degré de quantification<br />
du bloc. Plus le pas est grand, plus grande sont la <strong>compression</strong>, et aussi la distorsion.<br />
Dans les applications courantes du standard, les valeurs de q utilisées en pratique sont<br />
comprises entre 1 et environ 25. Le pas peut être modifié d'un bloc à l'autre afin d'adapter<br />
localement la <strong>compression</strong>, par exemple pour ajuster le t<strong>aux</strong> final sur l'image entière en<br />
régulant le débit local par un buffer de sortie du codeur.<br />
La matrice de normalisation sert à pondérer les coefficients DCT afin d'adapter le degré<br />
de quantification de chaque coefficient en fonction de la sensibilité du système visuel au<br />
bruit de quantification. Ainsi, l'œil nu est peu sensible au bruit introduit dans les hautes<br />
fréquences et les valeurs de Q(k,l) correspondant <strong>aux</strong> fréquences élevées seront plus<br />
fortes que pour les basses fréquences. Dans le cas d’une image couleur, par exemple<br />
RGB+L, 4 matrices différentes de normalisation différentes peuvent être utilisées pour les<br />
composantes couleur et luminance.<br />
Une des matrices de normalisation de la luminance fournie par le standard est:<br />
- 47 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
Qkl ( , ) =<br />
⎡16 11 10 16 24 40 51 61 ⎤<br />
⎢<br />
12 12 14 19 26 58 60 55<br />
⎥<br />
⎢<br />
⎥<br />
⎢14 13 16 24 40 57 69 56 ⎥<br />
⎢<br />
⎥<br />
⎢<br />
14 17 22 29 51 87 80 62<br />
⎥<br />
⎢18 22 37 56 68 109 103 77 ⎥<br />
⎢<br />
⎥<br />
⎢24 35 55 64 81 104 113 92 ⎥<br />
⎢49 64 78 87 103 121 120 101⎥<br />
⎢<br />
⎥<br />
⎣⎢<br />
72 92 95 98 112 100 103 99 ⎦⎥<br />
Dans notre exemple, les coefficients normalisés sont :<br />
⎡ 79 0 − 1 0 0 0 0 0⎤<br />
⎢<br />
−2 −1 0 0 0 0 0 0<br />
⎥<br />
⎢<br />
⎥<br />
⎢−1 −1 0 0 0 0 0 0⎥<br />
⎢<br />
⎥<br />
<br />
X ( C<br />
k , l )= ⎢<br />
0 0 0 0 0 0 0 0<br />
⎥<br />
⎢ 0 0 0 0 0 0 0 0⎥<br />
⎢<br />
⎥<br />
⎢ 0 0 0 0 0 0 0 0⎥<br />
⎢ 0 0 0 0 0 0 0 0⎥<br />
⎢<br />
⎥<br />
⎣⎢<br />
0 0 0 0 0 0 0 0⎦⎥<br />
La même matrice de normalisation est appliquée à tous les blocs de l’image. Elle est<br />
transmise avec les coefficients comprimés en tant que frais génér<strong>aux</strong> de codage. Le choix<br />
de la matrice de normalisation est laissé libre à l’utilisateur. Le comité JPEG a effectué un<br />
travail considérable en vue de trouver expérimentalement des matrices qui fournissent les<br />
meilleurs résultats possibles visuellement en pondérant les coefficients selon leur<br />
importance perceptuelle.<br />
Etape 3. Le coefficient DC normalisé est codé.<br />
Par un système de DPCM, le coefficient DC est codé en utilisant la valeur DC du bloc<br />
précédant. L’ensemble de coefficients DC de tous les blocs de l’image est ensuite codé<br />
par un codeur de Huffman.<br />
Etape 4. Les coefficients AC sont réarrangés par une méthode zigzag.<br />
L’énergie est concentrée dans les coefficients en haut à gauche de la matrice<br />
transformée. On réordonne les coefficients afin d’obtenir un vecteur 1D qui range<br />
approximativement les coefficients par ordre décroissant d’énergie. Comme de nombreux<br />
coefficients de X^<br />
correspondant <strong>aux</strong> fréquences élevées sont nuls on obtient des grandes<br />
plages de zéros, qui se prêtent bien au codage RLC.<br />
Le réarrangement zigzag se fait comme indiqué<br />
- 48 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
Figure I-1.5: Réarrangement zigzag des blocs normalisés JPEG.<br />
Dans l’exemple utilisé plus haut, le réarrangement zigzag aboutit au vecteur:<br />
[ 79 0 -2 -1 -1 -1 0 0 -1 EOB]<br />
Le symbole EOB 1 est place juste après la dernière valeur non nulle. Comme les blocs ont<br />
toujours 64 coefficients, il n’est pas nécessaire de préciser la longueur de la plage de<br />
zéros finissant le bloc réarrangé.<br />
Etape 5. Les vecteurs zigzags sont codés par RunLength et Huffman.<br />
Seuls les coefficients non nuls sont codés, mais d’une façon qui prend en compte le<br />
nombre de zéros qui les précèdent. Pour chacun de ces coefficients, on obtient un code<br />
composite fait de deux codes: un code de longueur fixe et un code de longueur variable.<br />
Le code de longueur fixe est composé de 8 bits, sa représentation binaire est<br />
‘ZZZZCCCC’. Les quatre bits de poids fort ZZZZ servent à représenter la longueur de la<br />
plage de zéros qui précède le symbole courant, les quatre bits de poids faible CCCC<br />
servent à représenter la catégorie dont fait partie la valeur absolue du coefficient. La<br />
catégorie c est l’intervalle délimité par des puissances de deux dont fait partie le<br />
coefficient. Pour une valeur absolue de coefficient appartenant à l’intervalle [2 c-1 et 2 c -1],<br />
la catégorie est c. Dans la norme JPEG, la valeur maximale de c est 10. Le code de<br />
longueur variable sert à préciser le signe du coefficient et sa position dans l’intervalle. Ce<br />
code a donc une longueur c.<br />
Dans notre exemple, le coefficient -2 est précédé de un zéro: ZZZZ=0001. Il a une valeur<br />
absolue comprise entre 2 2-1 =2 et 2 2 -1=3, donc sa catégorie est c=2, et se représente en<br />
binaire par CCCC=0010. Il a un signe négatif (représenté par un bit ‘0’ par convention) et<br />
il est la première valeur de l’intervalle [2,3]. Donc le code de longueur variable est 01.<br />
Les codes de longueur fixe sont codés par un codeur de Huffman, afin de gagner encore<br />
en <strong>compression</strong>.<br />
Pour coder une plage de zéros dont la longueur est supérieure ou égale à seize<br />
(ZZZZ=1111), on utilise un code ZZZZCCCC=11110000, et un ou plusieurs autres codes<br />
composites.<br />
L’ensemble de bits produits en mettant bout à bout tous les codes d’un bloc suit la<br />
syntaxe:<br />
1 EOB: symbole de fin de bloc, ‘End Of Bloc’ en anglais.<br />
- 49 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
code Huffman de la différence DC / code Huffman pour représenter ZZZZCCCC et code<br />
de longueur variable / ... / code Huffman pour représenter ZZZZCCCC et code de<br />
longueur variable / code Huffman pour EOB.<br />
Etape 6. Décodage.<br />
Le décodage se fait en appliquant les opérations inverses: décodage Huffman et RLC,<br />
réarrangement inverse du zigzag, dénormalisation par multiplication avec la matrice Q,<br />
DCT inverse.<br />
2.6. Standard pour séquences d’images: MPEG<br />
2.6.1. Principes génér<strong>aux</strong>.<br />
Le groupe de travail Moving Pictures Experts Group (MPEG) a publié au début des<br />
années 90 un standard pour la vidéo qui comprend le codage des séquences d’images<br />
couleur et du son associe. La présente section ne s’intéresse qu’au codage d’images noir<br />
et blanc.<br />
Le schéma général de l’algorithme MPEG est le suivant:<br />
image<br />
originale<br />
compensation<br />
de mouvement<br />
transformation<br />
par bloc<br />
quantification<br />
et codage<br />
séquence<br />
de bits<br />
Figure I-1.6 : Principe simplifié du codage MPEG<br />
La méthode MPEG tire profit de la ressemblance des images successives dans une<br />
séquence d'image. La première hypothèse de base est que chaque image contient des<br />
objets en mouvement, dont la position peut être prédite par leur position dans l'image<br />
précédente par simple translation des pixels. Dans la méthode MPEG, l'image est<br />
découpée en zone de 16x16 pixels, les objets, dont on estime le mouvement. La<br />
deuxième hypothèse est que l'intensité lumineuse d'un objet en mouvement reste la<br />
même d'une image à l'autre.<br />
Dans chaque image, on distingue trois types de zones :<br />
• Les zones fixes, ne contenant aucune information à transmettre par rapport à l'image<br />
précédente,<br />
• Les zones compensables, qui se déduisent de l'image précédente par un vecteur de<br />
déplacement, et éventuellement une erreur de compensation grossièrement quantifiée<br />
(dans ce cas, il y a eu prédiction de la zone),<br />
• Les zones non compensables, pour lesquelles on transmet la différence pixel à pixel<br />
par rapport à l'image précédente.<br />
Il y a plusieurs façons de prédire une zone de l'image par estimation de mouvement :<br />
• La prédiction peut se faire à partir d'une image précédente (prédiction avant),<br />
• La prédiction peut se faire par interpolation (moyenne) entre l'image précédente et<br />
l'image suivante (prédiction bidirectionnelle).<br />
Le codage MPEG permet pour une même séquence d'image de choisir un<br />
ordonnancement des images spécifiant lesquelles feront l'objet d'une prédiction avant ou<br />
bidirectionnelle. Le standard définit trois types <strong>d'images</strong> :<br />
- 50 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
• Les images I ou Intra-codées : elles sont codées indépendamment des autres à un<br />
faible t<strong>aux</strong>. Elles fournissent la référence pour les compensations de mouvement et<br />
prédiction.<br />
• Les images P ou Prédites : elles sont codées avec compensation de mouvement et<br />
prédiction à partir d'une image antérieure de type I ou P. Leur t<strong>aux</strong> de <strong>compression</strong> est<br />
supérieur à celui des images I.<br />
• Les images B ou Bidirectionnelles : elles sont codées avec compensation de<br />
mouvement et interpolation par rapport à une image précédente et une image suivante.<br />
Leur t<strong>aux</strong> de <strong>compression</strong> est le plus important. Elles ne sont jamais utilisées comme<br />
référence à une prédiction.<br />
L'utilisateur est libre de choisir l'ordonnancement des trois types d'image selon son<br />
application. La présence <strong>d'images</strong> B augmente le t<strong>aux</strong> de <strong>compression</strong> mais implique lors<br />
du décodage de reconstruire des images postérieures à l'image courante.<br />
1<br />
2<br />
I<br />
B<br />
B<br />
P<br />
B<br />
B<br />
Prédictions bidirectionnelles<br />
3<br />
P<br />
4<br />
I<br />
Prédictions avant<br />
5<br />
6<br />
7<br />
8<br />
Figure I-1.7 : Exemple d'ordonnancement <strong>d'images</strong> dans une séquence MPEG. I :<br />
image Intra-codée, P: image Prédite, B : image interpolée Bidirectionnelle<br />
2.6.2. Descriptif résumé de l'algorithme MPEG.<br />
Etape 1. Choix de l'ordonnancement des images dans la séquence.<br />
Etape 2. Quantification des images P.<br />
L'image P (notée xt ( + τ )) à coder (par exemple l'image numéro 4 de la Figure I-1.7) est<br />
divisée en zones de 16x16 pixels appelées macroblocs. On se fixe une étendue maximale<br />
( me, ne) par rapport au centre du macrobloc autour de laquelle on recherchera un<br />
macrobloc similaire mais translaté dans l'image précédente (notée x(t)) utilisée pour la<br />
prédiction. Cela revient à trouver le vecteur translation ( mm, nn) qui minimise l'erreur<br />
quadratique :<br />
15<br />
15<br />
[ ]<br />
2<br />
D = ∑∑ xmnt ( 0 0<br />
+ τ ) − xm ( + mm0n+<br />
nm0t)<br />
, avec m m
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
pixels correspondants. Ce macrobloc erreur est quantifié par une méthode similaire à<br />
JPEG, par transformation DCT de blocs de 8x8 pixels, puis quantification. Le standard<br />
MPEG propose plusieurs matrices de normalisation qui ont fait l'objet de tests<br />
psychovisuels moins extensifs que pour les matrices JPEG elles-mêmes. L'une des<br />
matrices de normalisation proposée est donnée ci-après. Elle fait apparaître que les<br />
coefficients de normalisations sont plus faibles que pour JPEG car ils sont destinés à des<br />
blocs d'erreurs dont les valeurs sont faibles.<br />
Qkl ( , ) =<br />
⎡ 8 16 19 22 26 27 29 34⎤<br />
⎢<br />
16 16 22 24 27 29 34 37<br />
⎥<br />
⎢<br />
⎥<br />
⎢19 22 26 27 29 34 34 38⎥<br />
⎢<br />
⎥<br />
⎢22 22 26 27 29 34 37 40⎥<br />
⎢22 26 27 29 32 35 40 48⎥<br />
⎢<br />
⎥<br />
⎢26 27 29 32 35 40 48 58⎥<br />
⎢26 27 29 34 38 46 56 69⎥<br />
⎢<br />
⎥<br />
⎣⎢<br />
27 29 35 38 46 56 69 83⎦⎥<br />
Après quantification, le macrobloc compensé est reconstruit lors de l'opération de codage<br />
elle-même. On cherche à savoir si la compensation de mouvement est réellement plus<br />
utile que de coder directement le macrobloc. Pour cela on compare la variance du<br />
macrobloc avec la variance du macrobloc compensé quantifié. La variance la plus faible<br />
indique la méthode de codage à choisir. Par conséquent, l'image P une fois codée sera<br />
composée de macroblocs compensés quantifiés, et de macroblocs directement<br />
quantifiés.<br />
Etape 3. Quantification des images B.<br />
On cherche le macrobloc le plus proche du macrobloc courant de l'image B à la fois dans<br />
l'image de référence précédente et l'image de référence suivante. Le macrobloc<br />
compensé est composé des valeurs de pixel moyennes entre les deux macroblocs de<br />
référence trouvés. Le reste de la compensation est identique à ce qui a été<br />
précédemment décrit pour les images P.<br />
Etape 4. Quantification des images I.<br />
Les images I sont quantifiées selon un principe similaire à la norme JPEG.<br />
Etape 5. Codage.<br />
Le codage des images quantifiées est très proche de celui de JPEG :réarrangement<br />
zigzag, DPCM sur les coefficients continus, RLC et Huffman sur les coefficients AC. La<br />
syntaxe du flot de bits final dépend du type de l'image. Elle comprend un indicateur du<br />
type d'image, un indicateur du type de macrobloc (compensé ou non), un codage<br />
différentiel du vecteur mouvement (si applicable), le code de l'erreur de compensation ou<br />
du bloc.<br />
2.6.3. Princip<strong>aux</strong> artefacts.<br />
Les images comprimées par la méthode MPEG présentent des artefacts de blocs à des<br />
t<strong>aux</strong> de <strong>compression</strong> élevés, tout comme la méthode JPEG. En effet, la quantification des<br />
erreurs après compensation de mouvement est également basée sur la quantification de<br />
bloc DCT 8x8.<br />
- 52 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
Visualisées individuellement, les images d'une séquence MPEG peuvent apparaître<br />
irrégulières dans leur qualité visuelle de part le fait que toutes ne sont pas codées de la<br />
même façon. (I, P, B)<br />
2.7. Méthode développée par Philips: MLOT<br />
En vue du travail d'évaluation <strong>d'images</strong> d'<strong>angiographies</strong> <strong>cardiaques</strong> comprimées qui fait<br />
l'objet de la partie II de la présente thèse, un algorithme spécifique a été mis au point par<br />
les laboratoires de la société Philips. Les contraintes et objectifs préalables à la mise au<br />
point de l'algorithme sont donnés dans le cahier des charges décrit l’introduction générale<br />
de ce mémoire. La raison majeure qui a motivé le développement d'une méthode<br />
spécifique, plutôt que l'utilisation des standards JPEG ou MPEG a été le problème des<br />
artefacts de blocs. L'algorithme mis au point par Philips sera dénoté MLOT dans la suite<br />
de cette thèse. Il s'agit d'une méthode intra-image.<br />
^<br />
Y 1,1<br />
^<br />
+<br />
Y 1,2<br />
+<br />
x<br />
x<br />
n<br />
n<br />
^<br />
Y 2,1<br />
^<br />
+<br />
Y 2,2<br />
+<br />
x<br />
x<br />
n<br />
n<br />
Y<br />
^<br />
+<br />
1,8 x<br />
Y<br />
^ +<br />
2,8<br />
n<br />
= =<br />
x<br />
n<br />
n<br />
+<br />
n<br />
échantillons reconstruits<br />
n<br />
Figure I-1.8: Absence d'effet de bloc par la transformation Lapped Orthogonal<br />
Transform<br />
- 53 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
Les étapes de l'algorithme sont données ci-après. Le schéma général est le même que<br />
celui d'une méthode par transformation donnée en Figure I-1.2.<br />
Etape 1. Transformation par une fonction dérivée de la LOT : la MLT.<br />
Afin d'éviter les artefacts de blocs, il est nécessaire que les vecteurs de base de la<br />
transformation convergent progressivement vers zéro à leurs extrémités (Figure I-1.8).<br />
Cela n'est pas possible avec une transformation par blocs adjacents si la contrainte de<br />
réversibilité doit être conservée. Une classe de transformation qui permet d'éliminer les<br />
artefacts de blocs est la classe des Overlap Transforms. Un recouvrement de 50% des<br />
vecteurs de base est un bon choix en pratique. Au-delà, il se produit un artefact appelé<br />
'ringing effect' lorsque la quantification est importante. La représentation matricielle d'une<br />
telle 50%-Overlap Transform en 1D est :<br />
⎡.<br />
⎤<br />
⎢<br />
.<br />
⎥<br />
⎢<br />
⎥<br />
⎢ AA<br />
1 2<br />
⎥<br />
⎢<br />
⎥<br />
y = Tx = ⎢<br />
AA<br />
1 2<br />
⎥x<br />
(I-1.9)<br />
⎢<br />
AA ⎥<br />
1 2<br />
⎢<br />
⎥<br />
⎢<br />
. ⎥<br />
⎢<br />
⎥<br />
⎣<br />
. ⎦<br />
En appliquant les contraintes imposées sur T par la propriété de réversibilité, et en<br />
appliquant une deuxième propriété avantageuse appelée linéarité de phase (pour obtenir<br />
des vecteurs de base symétrique en vue de respecter la réponse symétrique du HVS), on<br />
obtient une transformation dérivée des vecteurs de base de la DCT et de la DST 1 [MALV-<br />
90]. Mais les vecteurs de base de cette LOT, bien que nettement améliorés par rapport à<br />
la DCT, ne convergent pas parfaitement vers zéro à leurs extrémités. [YOUN-92] propose<br />
de modifier les facteurs d'échelle c(k,l) de certains vecteurs de base de la DCT employée<br />
pour calculer ceux de la transformation LOT. Il en résulte une nouvelle transformation<br />
appelée Modified Lot Transform (MLT). La MLT est parfaitement réversible, ses vecteurs<br />
de base convergent progressivement vers zéro, mais elle n'est pas orthogonale.<br />
Cependant, elle possède les caractéristiques de décorrélation nécessaires à la<br />
<strong>compression</strong> et s'avère très appropriée. Bien que pour coder un bloc de b pixels des<br />
vecteurs de base de longueur 2b soient nécessaires, le nombre d'opérations pour calculer<br />
une MLT n'est pas de 50% supérieur à celui d'une DCT mais seulement de 25% [MALV-<br />
90], [BREE-95]. Le calcul de la MLT utilisé dans l'algorithme MLOT est conduit de façon à<br />
donner des coefficients spectr<strong>aux</strong> entiers.<br />
Le choix de la taille b de blocs se fait en fonction des propriétés de stationnarité des<br />
images à coder.<br />
Etape 2. Quantification et codage.<br />
La méthode MLOT fait appel à un quantificateur à zone morte 'dead-zone' dont les<br />
caractéristiques sont données dans [BREE-94]. Ce quantificateur est très proche du<br />
quantificateur uniforme à transition centrée 'midtread' (voir chapitre I-6). Il quantifie à zéro<br />
toutes les valeurs dans une zone morte autour de l’origine. En pratique, il s'agit de<br />
coefficients faibles et l'erreur de quantification introduite n'est pas perceptible. En<br />
revanche le gain en entropie est intéressant.<br />
1 DST : transformation sinus discrète, de l'anglais Discrete sine Transform. Cette transformation est de la<br />
même famille que la DCT.<br />
- 54 -
Chapitre I-1: Etude bibiographique des méthodes de <strong>compression</strong> d’images<br />
Les coefficients quantifiés sont pondérés en fonction du HVS par multiplication avec une<br />
matrice dérivée des trav<strong>aux</strong> de [SAKR-77]. La méthode MLOT utilise en option une<br />
deuxième pondération adaptée <strong>aux</strong> post-traitements des <strong>angiographies</strong> coronaires.<br />
Les coefficients quantifiés et pondérés sont réarrangés par un balayage zigzag, puis<br />
codés. Les coefficients continus sont codés séparément par un nombre de bits fixe. Les<br />
coefficients AC sont codés par une combinaison de RLC et VLE similaire à l'algorithme<br />
MPEG-2.<br />
Etape 3. Variante pour la transmission progressive.<br />
Pour pouvoir reconstruire une image basse résolution (basse qualité) à partir d'une partie<br />
seulement du flot de bits de l'image comprimée, un codage hiérarchique a été employé.<br />
Lors de l'opération de balayage zigzag d'un bloc quantifié, les coefficients réordonnés sont<br />
divisés en segments. Dans la méthode MLOT, quatre segments ont été définis, le premier<br />
correspondant <strong>aux</strong> basses fréquences, et les autres <strong>aux</strong> fréquences moyennes et neutres.<br />
En ne reconstruisant pour chaque bloc que le premier segment, on obtient une image<br />
basse résolution, que l'on peut progressivement affiner en reconstruisant les segments<br />
suivants.<br />
Etape 4. Contrôle du t<strong>aux</strong> de <strong>compression</strong>.<br />
Afin d'obtenir avec précision la taille finale souhaitée pour l'image comprimée, une courbe<br />
d'évolution du nombre de bits engendré par le codage successif des segments et des<br />
blocs est déterminée à priori. La quantification du premier segment du premier bloc est<br />
réalisée avec un pas de quantification prédéfini. Le nombre de bits produits est comparé<br />
avec un nombre cible correspondant à la courbe d'évolution attendue. Le pas de<br />
quantification du segment suivant est ajusté en fonction de l'adéquation constatée entre<br />
les nombres de bits réel et attendu.<br />
Etape 5. Variante pour la régénération du bruit de l'image.<br />
Lorsque le t<strong>aux</strong> de <strong>compression</strong> est élevé, la quantification supprime les hautes<br />
fréquences des blocs de l'image. Dans le cas des <strong>angiographies</strong> <strong>cardiaques</strong>, les images<br />
ont au départ un contenu en bruit important, dû à la nature quantique des rayons X.<br />
L'observateur est habitué à des images bruitées, et la <strong>compression</strong> a un effet de lissage<br />
de l'image qui peut dérouter, bien que l'information clinique ait été correctement<br />
préservée. Un système de régénération de bruit a été développé, et a fait l'objet d'un<br />
dépôt de brevet. Il s'agit de mesurer l'écart entre le spectre de puissance du bloc quantifié<br />
et du bloc original. Le bruit supprimé par la quantification est modélisé, et les paramètres<br />
de modélisation sont transmis avec le bloc codé. Lors de la reconstruction, le spectre du<br />
bruit modélisé est ajouté <strong>aux</strong> coefficients spectr<strong>aux</strong> avant la transmission inverse MLT.<br />
- 55 -
CHAPITRE I-2<br />
GENERALITES SUR LES<br />
IMAGES MEDICALES ET<br />
ANGIOGRAPHIQUES:<br />
ACQUISITION, COMPRESSION<br />
ET STANDARDISATION<br />
- 56 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
1. Compression des images médicales<br />
1.1. Tendance en radiologie<br />
L’imagerie médicale numérique ([NEWE-90]) concerne environ 30% des examens<br />
radiologiques. Elle recouvre une grande diversité dans les principes physiques mis en jeu<br />
(rayons-X, ultrasons, résonance magnétique nucléaire, émission de positron, médecine<br />
nucléaire) et dans les différentes applications médicales (radiographie d’urgence,<br />
procédures interventionnelles...). Une méthode de <strong>compression</strong> bien adaptée à l’une des<br />
modalités d’imagerie médicale ne l’est pas forcément pour une autre. Ou, tout au moins,<br />
une méthode peut demander des adaptations différentes selon les modalités.<br />
Une motivation majeure des recherches en <strong>compression</strong> d’images médicales vient de la<br />
proportion croissante d’examens acquis numériquement. Il faut les stocker, les<br />
communiquer et les visualiser malgré la masses de donnée requise. Les examens<br />
directement acquis numériquement sont par exemple le scanner, l’IRM, l’angiographie. La<br />
présence dans un même établissement de films conventionnels et d’images numériques<br />
pose des problèmes pratiques. La tendance est de numériser aussi les examens non<br />
digit<strong>aux</strong> à l’origine, en numérisant les films argentiques ou en utilisant des plaques de<br />
phosphore (systèmes CR 1 ) à la place des cassettes pour films traditionnels. Toutes les<br />
images numériques peuvent être archivées, communiquées et visualisées à l’aide de<br />
rése<strong>aux</strong> numériques tels que les PACS 2 . La viabilité économique des PACS a été difficile<br />
à prouver lors de leur introduction à la fin des années 80. Mais leur émergence et la<br />
tendance irréverssible vers les solutions numériques ont fortement motivé l’étude de la<br />
<strong>compression</strong> d’image.<br />
[RABB-91] explique de façon didactique quelques-unes des méthodes de <strong>compression</strong><br />
applicables à l’imagerie médicale. [WONG-95] passe en revue de façon exhaustive les<br />
motivations, contraintes, applications et trav<strong>aux</strong> de <strong>compression</strong> sur des images<br />
médicales.<br />
Il est frappant de constater le faible nombre d’études consacrées <strong>aux</strong> algorithmes<br />
standards tels que JPEG avant 1995. Au delà d’un t<strong>aux</strong> de 10:1, la communauté médicale<br />
et scientifique a eu tendance a considérer que les artefacts de blocs étaient rédhibitoires.<br />
Les méthodes de <strong>compression</strong> qui ont fait l’objet des princip<strong>aux</strong> développements et<br />
d’évaluation dans le médical sont énumérés ci-après.<br />
• La Full-Frame DCT<br />
Les trav<strong>aux</strong> de l’UCLA [LO-85], [CHAN-89], montrent que des images numériques de<br />
main et de poumon comprimées jusqu’à un t<strong>aux</strong> de 20:1 ne font pas l’objet de<br />
dégradation de performance diagnostique [SAYR-92].<br />
• La décomposition sous-bandes<br />
[ROMP-91], [AKRO-92], [MOLL-92], [AKRO-93].<br />
• Les ondelettes<br />
1 CR: Computed Radiography<br />
2 PACS: Picture Archiving and Communication System<br />
- 57 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
Cette technique fait actuellement l’objet d’un nombre important de publications. [MAND-<br />
92], [MAND-93] fait part de bons résultats visuels sur des images de résonance<br />
magnétiques. Parmi les trav<strong>aux</strong> récents, on peut citer [BRAD-97] sur des images de<br />
thorax.<br />
[BENO-97] applique une <strong>compression</strong> à base d’ondelette dans le cadre du projet Cardio-<br />
Média, qui a pour objectif la création d'un prototype de dossier coronarien sur carte<br />
optique afin de faciliter le suivi clinique des patients traités par angioplastie. L’algorithme<br />
présenté utilise une transformation en ondelettes et une quantification vectorielle adaptée<br />
des coefficients d'ondelettes. Son originalité repose sur la phase d'apprentissage qui<br />
permet de disposer d'un algorithme de <strong>compression</strong>/dé<strong>compression</strong> rapide adapté à la<br />
modalité médicale "angiographie". Une évaluation subjective par consensus de la qualité<br />
diagnostique des images comprimées a permis de retenir un t<strong>aux</strong> de <strong>compression</strong> de 12<br />
qui répond <strong>aux</strong> contraintes matérielles et médicales du projet.<br />
• La quantification vectorielle<br />
Stanford est un haut lieu de cette technique. Les trav<strong>aux</strong> publiés dans [RISK-89], [RISK-<br />
90], [COSM-93], [COSM-94], font état de bons résultats diagnostiques en scanner et en<br />
IRM jusqu’à des t<strong>aux</strong> de 30:1.<br />
[AKRO-92], [AKRO-93] a utilisé des blocs de formes variables pour s’adapter au<br />
propriétés d’images radiologiques.<br />
Actuellement, on cherche à évaluer les limites d’utilisation des méthodes standards. Bien<br />
que donnant des résultats moins bons que les méthodes citées précédemment, elles<br />
présentent l’avantage de disposer de logiciel et matériels commercialisés peu onéreux,<br />
disponibles sur des ordinateurs standards.<br />
Des trav<strong>aux</strong> récents visent à rendre JPEG plus adapté <strong>aux</strong> images médicales, [DING-95]<br />
[DING-96].<br />
Un certain effort commence à être perçu pour évaluer jusqu’à quel t<strong>aux</strong> JPEG fournit des<br />
résultats acceptables.<br />
1.2. Tendance en cardiologie<br />
L’intérêt porté par la communauté cardiologique à la <strong>compression</strong> d’image est plus récent<br />
qu’en radiologie. Cela provient peut-être du fait que l’archivage et l’utilisation de supports<br />
d’échanges tels que le Compact Disc n’est envisageable que depuis deux ou trois ans. Un<br />
examen volumineux en radiologie occupe environ 30 MO 3 , tandis qu’en cardiologie, un<br />
examen courant occupe plus de 500 Mo.<br />
Considérant d’emblé le problème de l’échange des images et de la compatibilité des<br />
media en cardiologie, les chercheurs, médecins et industriels portent une grande attention<br />
<strong>aux</strong> avantages des standards.<br />
Les princip<strong>aux</strong> trav<strong>aux</strong> de <strong>compression</strong> en cardiologies sont ceux sur les méthodes<br />
MLOT, JPEG et MPEG évalués dans cette thèse ([BREEU-94], [KONI-97], [KIRK-97]),<br />
ceux de [EPST-94] portant sur des simulations de thrombus, et ceux de [RIGO-96] portant<br />
sur les mesures quantitatives avec JPEG.<br />
3 Mo: Mega octet<br />
- 58 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
2. Standards d’images médicales<br />
2.1. Pourquoi un standard<br />
Le besoin d’un standard pour les images médicales est apparu avec l’essor des media<br />
numériques et des rése<strong>aux</strong> d’images. Les différents constructeurs d’imagers numériques<br />
avaient tous dans les années 80 des mises en oeuvre propriétaires. La communauté<br />
médicale a activement oeuvré à l’établissement d’un standard pour pouvoir échanger des<br />
examens numériques au sein d’un établissement, ou entre institutions. Même si un long<br />
chemin a été parcouru, l’inter-opérabilité entre machines n’est pas encore aujourd’hui une<br />
question complètement évidente en pratique.<br />
2.2. Historique des standards ACR-NEMA et DICOM<br />
En 1985, un comité composé de radiologues et d’ingénieurs, l’ACR-NEMA 4 , a crée le<br />
premier standard d’images médicales. Celui-ci était essentiellement basé sur un protocole<br />
pour échanger les images avec les informations qui lui sont associées (identification du<br />
patient et de l’examen, paramètres liés à l’acquisition ou à la visualisation de l’image).<br />
Malgré des mises à jour progressives, ce standard présentait quelques faiblesses et ne<br />
permettait pas toujours l’échange dans de bonnes conditions.<br />
En 1992-93, le standard ACR-NEMA a été modifié en profondeur pour déboucher sur le<br />
standard DICOM 3 5 [NEMA-96], [HIND-94]. L’apport capital de ce standard est lié à trois<br />
de ces caractéristiques fondamentales:<br />
• il repose sur un modèle de données, ce qui permet de lier les paramètres cliniques, les<br />
paramètres techniques et l’image avec une sémantique,<br />
• il est orienté objet, à chaque modalité d’imagerie correspond une IOD 6 qui spécifie<br />
l’objet-image et ses propriétés,<br />
• il intègre des services, ce qui permet de définir des règles pour communiquer, stocker,<br />
rechercher, imprimer un objet.<br />
Le format DICOM a maintenant deux volets: l’un axé sur les rése<strong>aux</strong>, l’autre axé sur les<br />
media. Pour le stockage sur un medium digital, chaque spécialité dispose d’un profile<br />
d’application 7 , qui associe un medium particulier avec une IOD. Par exemple en<br />
angiographie, le support standardisé pour l’échange est le Compact Disc.<br />
DICOM est donc un standard dont le champ d’application est plus vaste que la simple<br />
définition d’une syntaxe pour écrire un fichier, et dont la vocation est d’offrir une fondation<br />
<strong>aux</strong> fonctionnalités liées à l’échange des images entre systèmes hétérogènes (scanners,<br />
IRM, consoles de travail...).<br />
2.3. DICOM et la <strong>compression</strong><br />
La notion de <strong>compression</strong> a fait son apparition dès 1989, avec l’intégration de quelques<br />
champs de données dédiés à une <strong>compression</strong> éventuelle de l’image.<br />
Depuis, de nombreuses possibilité de coder les images ont été intégrées dans le<br />
standard, incluant <strong>compression</strong> avec et sans perte.<br />
4 ACR: American Colledge of Radiology, NEMA: National Electrical Manufacturers Association<br />
5 DICOM: Digital Imaging and COmmunication in Medicine<br />
6 IOD: Image Object Definition<br />
7 profile d’application, an anglais: application profile<br />
- 59 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
Mais introduire la <strong>compression</strong> dans un standard médical n’a d’intérêt que pour des<br />
applications le justifiant.<br />
Deux applications de la <strong>compression</strong> dans DICOM concernent à l’heure actuelle le<br />
stockage sur medium en échographie et en angiographie. Depuis quelques temps déjà,<br />
les constructeurs d’échographes proposent un archivage sur disque optique magnétique<br />
ou sur cassette numérique, et utilise un <strong>compression</strong> MPEG. Cette approche est<br />
conforme au standard. En 1995, le CD a été introduite comme le support standard<br />
d’échange en angiographie. Le CD cardiologique est basé sur une <strong>compression</strong> sans<br />
perte de type JPEG, et peut être étendu par du JPEG avec perte. Deux constructeurs<br />
(Philips et Siemens) ont opté pour cette extension. En sus des images codées sans perte,<br />
leurs disques contiennent les images codées avec perte, afin de pouvoir visualiser les<br />
images dynamiquement directement depuis le disque.<br />
Dans ces deux applications qui font appel à la <strong>compression</strong>, les examens sont constitués<br />
de séquences d’images: la quantité de donnée est importante, et la visualisation<br />
dynamique est nécessaire.<br />
3. Standards médic<strong>aux</strong> et standards industriels<br />
Il est vraisemblable que l’intégration de la <strong>compression</strong> dans le standard DICOM va<br />
s’intensifier dans les années à venir. La problématique d’un algorithme dédié au médical<br />
ou d’un standard de l’industrie informatique et grand public (tel que JPEG ou MPEG)<br />
devra être résolue.<br />
Là encore, l’approche des radiologues et des cardiologues diffèrent.<br />
L’ACR étudie actuellement la définition d’un nouvel algorithme de <strong>compression</strong>, le mieux<br />
adapté possible <strong>aux</strong> images médicales. Au moment de la rédaction de ce mémoire, un<br />
algorithme à base d’ondelettes est envisagé. Quant à l’ACC, évalue le champ<br />
d’application de JPEG sur l’interprétation visuelle et sur les mesures QCA.<br />
Pour des applications autres que les systèmes d’acquisition (angiographie, scanners,<br />
IRM), il est très peu probable que les constructeurs médic<strong>aux</strong> mettent en œuvre des<br />
algorithmes spécifiques. En particulier, pour les cartes électroniques qui sont nécessaires<br />
à certaines applications (dé<strong>compression</strong> temps réel), les coûts de développements sont<br />
trop élevés. Les investissements d’une réalisation matérielle ne sont pas en proportion<br />
avec la diffusion en petite série des systèmes médic<strong>aux</strong>. De plus, un matériel dédié est<br />
moins pratique pour l’utilisateur, qui doit mettre en place un configuration spécifique sur<br />
son ordinateur. Enfin, les technologies informatiques évoluent beaucoup plus vite que les<br />
cycles de vie des produits médic<strong>aux</strong>. L‘utilisation croissante de systèmes informatiques<br />
standards par les constructeurs d’imagerie laisse un champ plus important à l’utilisateur<br />
pour faire évoluer sa configuration.<br />
La paradigme de la méthode de <strong>compression</strong> médicale basée sur un algorithme<br />
spécifique ou un standard industriel a été au coeur de toutes les réflexions sous-jacentes<br />
à cette thèse. L’évolution des performances informatiques entre la conception de notre<br />
projet et la fin de sa réalisation a complètement bouleversé nos attentes vis à vis de la<br />
<strong>compression</strong> en angiographie cardiaque. Le projet était axé au départ sur la réalisation<br />
d’un matériel pour l’acquisition temps-réel des images au cours de l’examen. En effet, les<br />
disques durs suffisamment rapides pour un acquisition à 25 im/sec étaient alors<br />
extrêmement onéreux et l’évolution des prix et performances encore lente. Un simple<br />
ordinateur permettant une visualisation dynamique des <strong>angiographies</strong> valait alors environ<br />
un million de francs, à cause du disque dur temps réel. Un investissement lourd pour un<br />
système d’angiographie pouvait se justifier. Deux ans après le début du projet, la<br />
- 60 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
tendance était différente, le prix des disques temps réel commençait à chuter. En<br />
parallèle, l’accent était mis par les cliniciens sur les supports d’échange et sur les rése<strong>aux</strong>.<br />
L’application de la <strong>compression</strong> se déplaçait donc de l’acquisition vers la communication<br />
des images et leur visualisation dynamique. Les résultats des développements et des<br />
évaluations restaient donc encore un sujet d’intérêt primordial. Mais l’application s’était<br />
déplacée du système d’acquisition des images vers le support d’échange et la console de<br />
visualisation.<br />
4. Principe et particularités de l’angiographie cardiaque<br />
L’angiographie cardiaque est une modalité d’imagerie médicale à base de rayons X. Elle<br />
requiert un équipement sophistiqué à cause notamment de la cadence élevée nécessaire<br />
pour photographier le coeur en mouvement, et des positions de caméra complexes<br />
indispensables à l’appréciation sous plusieurs angles de vue de ces artères et cavités<br />
(Figure I-2. 1).<br />
Figure I-2. 1: Equipement d’angiographie cardiaque<br />
Un synoptique des éléments constituant la chaîne d’imagerie est donné à la Figure I-2. 2.<br />
Nous n’aborderons pas leurs caractéristiques en détail, mais traiterons de façon<br />
simplifiée, qualitative et non exhaustive de ceux qui ont un impact majeur sur les<br />
propriétés des images et éventuellement sur la <strong>compression</strong>.<br />
Tous les éléments de la chaîne jouent un rôle sur la propriété des images générées. Les<br />
phénomènes qui interviennent sont complexes. Les éléments ayant une influence<br />
significative dans le cadre de nos trav<strong>aux</strong> sont principalement le tube à rayons X , et le<br />
patient.<br />
Le tube à rayons X émet un faisceau de rayons X polychromatique par bombardement<br />
d’une anode par des électrons. La dose radiogène par image est faible en angiographie<br />
cardiaque. D’une part le tube radiogène est soumis à des charges thermiques énormes<br />
pour tenir des cadences de 25 à 50 im/sec., et d’autre part il y a des limites vis à vis de<br />
l’exposition du patient et du personnel. La dose est d’environ 8µR par image, ce qui est de<br />
loin inférieur à toutes les autres modalités par rayons-X. Les images d’<strong>angiographies</strong><br />
<strong>cardiaques</strong> sont très bruitées car peu de photons X participent à leur génération. Le<br />
rayonnement X a une nature quantique qui explique l’effet de “moutonnement quantique”<br />
observé sur les images.<br />
- 61 -
N A<br />
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
Les rayons X sont transmis à travers le corps du patient. Selon les tissus traversés, les<br />
rayons sont plus ou moins absorbés. Les os absorbent fortement les basses énergies et<br />
sont particulièrement visibles sur les radiographies. Les muscles ont une atténuation<br />
voisine de l’eau, et la graisse une atténuation un peu inférieure. Ni le coeur, ni les<br />
vaisse<strong>aux</strong> sanguins n’ont une atténuation suffisante pour être visibles en radiologie. Pour<br />
cette raison, il est indispensable d’injecter sélectivement un produit de contraste opaque<br />
<strong>aux</strong> rayons X au moment de l’acquisition des images. L’”épaisseur” (distance parcourue<br />
par les rayons X dans l’organisme) du patient a un impact majeur sur la qualité des<br />
images produites et la visibilité des vaisse<strong>aux</strong> <strong>cardiaques</strong>. Plus cette épaisseur est<br />
importante, moins il y aura de photons au niveau de l’amplificateur de luminance, et donc<br />
plus l’image sera bruitée. Pour un même patient, il y a des angles de vues obliques qui<br />
entraînent une épaisseur particulièrement importante. Il peut donc y avoir une variabilité<br />
assez importante dans le bruit des images selon la taille du patient, et selon les angles de<br />
vue sur un même patient.<br />
Tube radiogène<br />
Patient<br />
Amplificateur<br />
de<br />
luminance<br />
Caméra<br />
radio cinéma<br />
Miroir semitransparent<br />
Caméra TV<br />
CA N Processeur C<br />
Ecran de visualisation<br />
Disque<br />
Figure I-2. 2: Synoptique de la chaîne d’acquisition d’image en angiographie<br />
cardiaque numérisée.<br />
[LIEN-95] explique à l’aide d’une modélisation de la chaîne d’imagerie et<br />
d’expérimentation que l’entropie différentielle de l’image diminue si la dose X s’accroît.<br />
L’auteur montre aussi que l’entropie augmente avec le niveau de gris.<br />
Notons que la résolution spatiale engendrée par la matrice de l’image joue un rôle moins<br />
prépondérant qu’on ne pourrait le penser. La résolution la plus employée reste 512x512<br />
(et de plus en plus on évolue vers du 1024x1024). La notion de résolution spatiale<br />
correspond à la taille du plus fin détail que l’on peut distinguer. La résolution d’un système<br />
512x512 avec un champs d’amplificateur de luminance de 16cm est de 300µm environ.<br />
Elle est inférieure à la résolution du film de radio-cinéma qui est de 25 à 200µm selon la<br />
géométrie du système d’acquisition. Mais en pratique, la résolution en contraste est très<br />
- 62 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
importante en angiographie cardiaque. Un petit détail ne peut être perçu que si son niveau<br />
de gris est suffisamment différent de ce qui l’entoure, surtout si l’image est bruitée. En fait,<br />
l’apport de la numérisation en cardiologie tient principalement à l’amélioration du contraste<br />
des vaisse<strong>aux</strong>, et ce malgré une perte en résolution spatiale. Cette amélioration est due à<br />
des traitements numériques, en particulier de renforcement de contours.<br />
En <strong>compression</strong>, on constate que les images 1024x1024 n’ont pas une entropie de<br />
beaucoup plus faible que les images 512x512. Elles sont donc plus faciles à comprimer<br />
car elles contiennent plus de redondance.<br />
5. Quelques propriétés des images d’<strong>angiographies</strong><br />
<strong>cardiaques</strong><br />
[BREE-92] a observé les propriétés de quelques <strong>angiographies</strong> <strong>cardiaques</strong> en<br />
comparaison d’images vidéo typiques. Toutes les images testées étaient codées au<br />
départ avec 8bpp. Nous avons extrait quelques éléments de ce rapport.<br />
• Spectre de fréquences<br />
Le spectre de fréquences horizontales a été mesuré selon la formule:<br />
S h (k) = 10. log 10 [ 1 M<br />
∑ | Fl<br />
( i, k)| dB<br />
M i=<br />
1<br />
où F l (i,k) est le k ième élément de la FFT de la i ème ligne de l’image, et où k=1, ..., N/2<br />
Le spectre de fréquences verticales est défini de façon analogue.<br />
- 63 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
télévision<br />
angiographie<br />
angiographie<br />
télévision<br />
(a)<br />
(b)<br />
(c)<br />
(d)<br />
Figure I-2.3: Spectres de fréquences de deux images de télévision et trois<br />
<strong>angiographies</strong>. (a) et (b): <strong>angiographies</strong> non renforcées. (c) et (d): <strong>angiographies</strong><br />
renforcées. - d’après [BREEU-92]<br />
Les <strong>angiographies</strong> ont des spectres de caractéristique “passe-bas”, et leur énergie à<br />
presque toutes les fréquences est inférieure à celle des images TV. Le renforcement de<br />
contour rehausse les fréquences basses et moyennes, dont l’énergie reste inférieure à<br />
celle des images TV.<br />
Une <strong>compression</strong> qui supprime les basses et moyennes fréquences des <strong>angiographies</strong><br />
s’avérera peu appropriée car ces fréquences ont un contenu énergétique important pour<br />
de telles images, notamment avec le renforcement de contour.<br />
• Distance de corrélation<br />
La distance de corrélation entre deux sign<strong>aux</strong> x(n) et y(n) est définie par<br />
E[( x−<br />
E( x)).( y−<br />
E( y))]<br />
ρ =<br />
2 2<br />
E[( x−<br />
E( x)) ]. E( y−<br />
E( y)) ]<br />
où E est l’opérateur de l’espérance mathématique.<br />
- 64 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
(a)<br />
(b)<br />
(c)<br />
Figure I-2. 4: Corrélation entre pixels en fonction de leur distance horizontale et<br />
verticale. (a) Image de télévision. (b) Angiographie non renforcée. (c) Angiographie<br />
renforcée. - D’après [BREEU-92]<br />
La corrélation des <strong>angiographies</strong> est très élevée. A des distances de 20 pixels, elle est<br />
encore supérieure à 0.9, alors qu’elle est d’environ 0.5 sur une image de télévision. Le<br />
renforcement de contour diminue la corrélation, mais elle reste forte en comparaison<br />
d’une image TV (0.85 à 20 pixels).<br />
La <strong>compression</strong> par blocs de 8x8 semble peu appropriée <strong>aux</strong> <strong>angiographies</strong>. Une<br />
méthode avec des blocs plus large, ou en pleine image semble préférable.<br />
• Entropie<br />
L’entropie donne une indication du niveau maximal de <strong>compression</strong> sans perte.<br />
L’entropie spatiale (formule I-2.2) des <strong>angiographies</strong> est de l’ordre de 2.6 à 3.2 bpp. Les<br />
images de télévision ont une entropie bien supérieure, de l’ordre de 6 à 7 bpp. Après<br />
renforcement, les <strong>angiographies</strong> ont une entropie plus forte, de l’ordre de 4.7 à 5.7 bpp.<br />
On peut s’attendre à des t<strong>aux</strong> de <strong>compression</strong> sans perte de l’ordre de 2.5 à 3 sur les<br />
image non renforcées, et d'environ 1.5 sur les images renforcées.<br />
L’entropie temporelle peut être déterminée de façon analogue à l’entropie spatiale. On<br />
commence par déterminer l’histogramme des différences entre les pixels de même<br />
position sur des images successives dans une séquence, et on applique la formule I-2.2.<br />
Pour une image angiographique non renforcée, l’entropie temporelle est de 4.2, avec<br />
renforcement cette entropie devient 5.6, en comparaison l’entropie temporelle d’une<br />
image TV est de 6.1.<br />
- 65 -
Chapitre I-2: Généralités sur les images médicales et angiographiques<br />
• Conclusions<br />
Ces mesures sur les images donnent plusieurs indications:<br />
- Les <strong>angiographies</strong> contiennent peu d’information. Elles devraient pouvoir être<br />
comprimées à des t<strong>aux</strong> d’environ 8:1 avec une bonne qualité perceptuelle, compte tenu<br />
que les images TV peuvent l’être à un t<strong>aux</strong> de 4:1 environ.<br />
- Les <strong>angiographies</strong> non renforcées doivent pouvoir être comprimées à un t<strong>aux</strong> plus<br />
important que les <strong>angiographies</strong> renforcées.<br />
- La corrélation intra-images est plus importante que la corrélation inter-image. Compte<br />
tenu de cette remarque, des résultats d’entropie temporelle, et du fait que le déplacement<br />
des vaisse<strong>aux</strong> est très important d’une image à l’autre, il est peu probable que les<br />
méthodes inter-<strong>compression</strong> donnent de meilleurs résultats que les méthodes intraimages.<br />
Cette remarque a été validée par la suite avec l’emploi des standards MPEG et<br />
JPEG. Aucun bénéfice n’a été constaté avec MPEG.<br />
- La corrélation spatiale des <strong>angiographies</strong> est très élevée, suggérant qu’un découpage en<br />
blocs de 8x8 pixels est probablement inapproprié et que des blocs beaucoup plus larges<br />
ou une approche pleine image est préférable.<br />
Ces observations font partie des éléments importants pour sélectionner les méthodes<br />
FFDCT et MLOT comme candidates pour ce projet.<br />
- 66 -
CHAPITRE I-3<br />
ALLOCATION DES BITS DANS LA<br />
TECHNIQUE FULL FRAME DCT<br />
- 67 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
Présentation<br />
L’étape clé de toute méthode de <strong>compression</strong> avec perte contrôlée d’information est la<br />
quantification. Dans le cadre d’une méthode par transformation, les choix déterminants<br />
sont celui du quantificateur et celui de la stratégie d’allocation des bits. Le quantificateur<br />
scalaire est un bon candidat de par son efficacité et sa simplicité. Nous avons essayé<br />
d’améliorer l’allocation de bits proposée par [CHAN-89b] en développant une méthode<br />
plus adaptée <strong>aux</strong> <strong>angiographies</strong>. Nous avons découpé le plan de la DCT de l’image en<br />
zones circulaires. Ce type de découpage suit au mieux la répartition énergétique des<br />
coefficients DCT, et permet d’allouer un nombre fixe de bits à des zones d’énergie<br />
voisine. Nous nous sommes appuyés sur un modèle statistique de la distribution des<br />
coefficients dans ces régions pour prédire l’erreur de quantification dans un algorithme<br />
itératif d’allocation des bits. Ce modèle nous a de plus permis d’optimiser le pas de<br />
quantification.<br />
Ces trav<strong>aux</strong> ont fait l’objet de l’article [BERE-94], présenté à SPIE Medical Imaging, dont<br />
le texte est reproduit ci-dessous.<br />
Optimal Bit Allocation for Full Frame DCT coding schemes<br />
Application to Cardiac Angiography.<br />
ABSTRACT<br />
This paper reports on a lossy <strong>compression</strong> method applicable to cardiac angiography. Full<br />
Frame DCT coding has been investigated, using an optimized bit allocation and<br />
quantization scheme. We compared it to the standard JPEG method in the environment of<br />
a cardiac angiography system with dedicated visualization devices and post-processing.<br />
At a <strong>compression</strong> ratio 12:1, the image quality appeared to be better than the JPEG baseline<br />
<strong>compression</strong>. Owing to the principle of our method, no blocking effect is induced,<br />
whereas this is a critical drawback of the JPEG algorithm. Furthermore, the sharpness of<br />
fine details is better preserved.<br />
1 - INTRODUCTION<br />
Cine-film is still the most commonly used medium for recording and transmitting X-ray<br />
cardiac angiograms, despite the fact that digital systems are now widely spread. Indeed,<br />
the improvement of diagnosis and the development of interventional procedures - such as<br />
Percutaneous Transluminal Coronary Angioplasty - has been facilitated by digital<br />
enhanced displays and immediate reviewing. However in practice, except for some still<br />
image cases, full patient data cannot be digitally archived: the amount of digital data per<br />
patient is much too high: 1000 to 3000 images at a resolution of 512x512 pixels coded on<br />
8 bits per pixel (and up to 1024x1024x10 bits). Thus, image data <strong>compression</strong> is critical in<br />
the perspective of a fully digitized data handling scheme.<br />
The objective of this work is to reach a <strong>compression</strong> ratio (CR) of about 12:1. The method<br />
we propose here is a lossy <strong>compression</strong> scheme, seeing that for theoretical reasons<br />
lossless <strong>compression</strong> schemes can only achieve low <strong>compression</strong> ratios which do not<br />
- 68 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
fulfill our objective. Given the required CR, the whole problem is to find the best<br />
compromise between the information we accept to lose and the perceptual image quality<br />
as well as the accuracy of the diagnosis.<br />
Among lossy data <strong>compression</strong> techniques, block-based transform coding have become<br />
popular. The Joint Photographic Experts Group (JPEG) [1] of the International<br />
Standardization Organization (ISO) has standardized a <strong>compression</strong> scheme based on<br />
the Discrete Cosine Transform (DCT). It yields good image quality at high <strong>compression</strong><br />
ratios. Unfortunately, in the viewing conditions of a digital angiography system, artifacts<br />
induced by the block decomposition of the image become visible at <strong>compression</strong> ratios of<br />
8 to 12:1. Full Frame Discrete Cosine Transform (FF-DCT) is a good candidate to<br />
overcome the blocking effect.<br />
Section 2 describes the optimal bit allocation algorithm, quantization and coding schemes<br />
that we have considered for FF-DCT coding. Results are presented in Section 3. We<br />
compressed images from a digital cardiac angiography system and we compared the<br />
performance of our algorithm with the JPEG one.<br />
2-1 Full Frame DCT coding scheme<br />
2- CODING OF THE DCT COEFFICIENTS<br />
Some Full Frame DCT schemes have been reported for the coding of radiological images<br />
[2-4]. In our work, we have looked for an algorithm adapted to the statistical properties of<br />
the DCT of cardiac angiograms. Figure 1 shows the block diagram of a Full Frame DCT<br />
coding system.<br />
image<br />
Ö (pixels)<br />
Full Frame<br />
DCT<br />
coding<br />
quantization<br />
Ö Ö RLC/VLC Ö<br />
Ï<br />
compressed file<br />
(bits)<br />
number of bits<br />
step size<br />
lossless<br />
lossy<br />
lossless<br />
Figure 1 :Block diagram of a Full Frame DCT coding scheme<br />
In this kind of <strong>compression</strong> methods the pixel grey levels are first reversibly transformed to<br />
a frequency domain representation by FF-DCT. The quantization of the DCT coefficients<br />
is the key issue for achieving high <strong>compression</strong> ratios yet maintaining an acceptable<br />
image quality. Chan & al. [3] proposed to divide the DCT transformed image in a large<br />
number of rectangular zones. Their number of bits assigned to the coefficients of each<br />
zone was lowered from the DC to the high frequencies, with a decrease of one bit per<br />
zone.<br />
In our method, we have developed an optimal bit allocation and quantization method that<br />
minimizes the quantization error. We have proven that dividing the FF-DCT plane in<br />
circular zones leads towards an optimal approach for the <strong>compression</strong> of cardiac<br />
- 69 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
angiograms. A truncated Laplacian analytical model is used to design an optimal uniform<br />
quantizer. For an a priori number of bits per coefficient and with the observed dynamics<br />
and variance of a zone, the optimal quantization step is computed, together with the<br />
minimum quantization error. This evaluation is used in an integer bit allocation algorithm.<br />
We have chosen a bit allocation based on the theory of marginal analysis. After the<br />
quantization procedure, the remaining redundancy of the quantized DCT coefficients is<br />
reduced by Run Length Coding (RLC) and Variable Length Coding (VLC). In the next<br />
subsections, we will discribe in detail the steps of this <strong>compression</strong> scheme.<br />
2-2 Normalized DCT coefficients<br />
In the DCT-II transform formula [5] the dynamic range of the transformed coefficients is<br />
larger than that of the image pixel grey levels. Let "a" be the maximum pixel grey level in<br />
the image. If the image is properly scaled and coded with 8 bits per pixel, then a = 255.<br />
For an NxN image, it can be shown that the DCT coefficients X(k, l) are bounded as<br />
follows :<br />
X(0, 0) ≤ N . a<br />
- 2 N 2N .a ≤ X(0, l) and X(k, 0) ≤ . a k ≠ 0 and l ≠ 0<br />
2<br />
2<br />
- 2N . a ≤ X(k, l) ≤ 2N . a k ≠ 0 and l ≠ 0<br />
We divide each coefficient by the normalization matrix given thereafter in order to have the<br />
same dynamic range for all of the DCT coefficients :<br />
Q(k, l) = N k = 0 and l = 0<br />
= 4 N<br />
2<br />
k = 0 and l ≠ 0, or k ≠ 0 and l = 0<br />
= 4N k ≠ 0 and l ≠ 0<br />
This normalization is done just after the transform and is completely reversible. Clearly,<br />
the decoded DCT coefficients will be de-normalized in the de<strong>compression</strong> scheme.<br />
In practice, this operation is not necessary if we incorporate it in the FF-DCT and inverse<br />
FF-DCT algorithm. It can be noted that the maximum values of the normalized DCT<br />
coefficients are much smaller than their theoretical bound. Then, a small number of bits<br />
(less than 8 in our situation) can be allocated to the normalized DCT coefficients.<br />
- 70 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
2-3 Zonal splitting of the DCT plane<br />
In general, high values of the DCT coefficients are concentrated in low "frequency bands"<br />
of the DCT domain. We have observed the repartition in the DCT plane in the case of<br />
cardiac angiograms. The variance of each normalized DCT coefficient has been computed<br />
for an image series. The contour plot of these variances is given in Figure 2. It shows that<br />
the DCT coefficients are distributed in circular zones and dicrease from the DC to high<br />
frequencies. This dicrease is logarithmic.<br />
Figure 2 : Contour plot of the logarithm of the normalized variances σ 2 (k, l) / σ 2 (0, 0) of<br />
the DCT coefficients of a cardiac angiogram series. Plot levels are -10 dB, -20 dB, -30 dB,<br />
-40 dB.<br />
After dividing the previously shown variance map in circular zones, we observed how the<br />
variances themselves were distributed in the zones. The variance of the variances on a<br />
series of normalized DCT coefficients is very low in each circular zone. Only small peaks<br />
can be observed for some high frequencies. We concluded that a constant bit allocation<br />
and a constant quantization step can be applied to all the coefficients of a zone.<br />
Furthermore, it is interesting to preserve the directionality in the DCT plane. For this sake,<br />
the DCT plane has also been split in upper diagonal and lower diagonal sub-zones. They<br />
contain respectively the vertical and the horizontal frequency features. It can be noted that<br />
preserving directionality is the basic idea of subband coding and directional codeword in<br />
subband vector quantization [6].<br />
By allocating a small number of bits to sub-zones with a low variance, the <strong>compression</strong><br />
ratio can be increased. In practice, with zones positioned logarithmicly (511-256), (256-<br />
128), (128-64), (64-32)... the number of zones is small and some of them have a very<br />
large number of coefficients. It follows that the <strong>compression</strong> ratio is very difficult to control.<br />
For this reason we chose to divide the DCT plane in a linear way, as shown in Figure 3.<br />
- 71 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
012 4 8 16 32 64 ... 448 480 511<br />
Figure 3 : Circular and directional splitting of the DCT domain<br />
2-4 Uniform optimal quantizer<br />
The quantizer is a staircase function that maps many input values into a small number of<br />
output levels. We applied a uniform optimal quantizer to each zone. Let [m i - Ai, m i + Ai]<br />
be the range of the DCT coefficients of a zone "i", where m i is the mean value of that zone<br />
and A i is half the dynamic range. We denote the dynamic range D i = 2 A i and we have D i<br />
≤ a (see section 2-2). A value X(k, l) that lies in [m i + δ ij , m i + δ ij+1 ] is mapped into the<br />
reconstruction levels r ij, where δ ij is the set of increasing decision levels, j = -L i /2, ..., 1, ...,<br />
L i /2 - 1 and L i = 2 bi ; b i is the number of bits allocated to the quantizer of zone i . Given a<br />
fixed number of bits b i , the uniform quantizer is determined completely by the size of the<br />
quantizer step q i . This step size is constant for all values of j : q i = δ ij - δ ij-1 = r ij - r ij-1 .<br />
Thus a uniform quantizer can easily be implemented and a small amount of overhead<br />
data is needed for the coder: only the values b i , q i and m i of each zone have to be<br />
incorporated to the compressed file. Figure 4 shows the characteristic of our optimal<br />
uniform quantizer.<br />
OUTPUT<br />
X*<br />
(L/2 -1)qi + qi/2<br />
quantization<br />
step qi<br />
- L/2 qi + qi/2<br />
mean m i<br />
INPUT<br />
DCT coef. X<br />
of zone "i"<br />
Figure 4 : Characteristic of the optimum uniform quantizer<br />
- 72 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
In order to build an optimal quantizer we minimize the mean square distortion error. This<br />
error is given by :<br />
Ai<br />
ε 2,i = (X - X*) 2 p i (X) dX (1)<br />
∫<br />
− Ai<br />
where p i (X) is the probability distribution of the DCT coefficients in the zone "i" and<br />
X* the quantized value of X.<br />
The quantization error depends on the probability density of the normalized coefficients.<br />
The AC ones are usually modeled by a Laplacian density. This model is realistic for the<br />
high frequency zones where the variance of the DCT coefficients is small. However this<br />
approach is quite coarse for low frequencies where the variances reach high values. A<br />
better matched model is the truncated Laplacian density defined by :<br />
p i (X) = c i e -αi|X| (2)<br />
where<br />
c i = Erreur! [1- e -αiAi ] -1 (3)<br />
and the variance of the distribution is related to A i and αi by:<br />
σ 2,i = Erreur! [1 - A i . c i e -αiAi ( A i αi + 2 ) ]<br />
(4)<br />
We evaluate αi by solving equation (4). Then equation (2) is incorporated into (1). The<br />
distortion error is minimized by solving the following non-linear equation :<br />
Erreur! = 0<br />
The result is the optimal quantization step q i . Thus the quantization error of a zone i of n i<br />
coefficients can be evaluated by incorporating q i into (1), which results in the minimal<br />
error. The error of a zone becomes : E i = n i ε 2,i min<br />
Figure 5 shows the relevance of this model: we have plotted the quantization step q i and<br />
the resulting Peak to Peak Signal to Noise Ratio (PPSNR) versus the variance σ 2,i for a<br />
Laplacian (A i = infinite) and for a truncated Laplacian (A i = 2.5) distribution. The variances<br />
of this plot range from Erreur!*0.025 to Erreur!*0.25. The quantity Erreur! is the variance<br />
of a random variable uniformly distributed in the dynamic range. The values we observed<br />
in practice are in the range displayed in Figure 5. The improvement of the PPSNR gained<br />
by a truncated Laplacian model versus a non-truncated one is of about 1 dB in our<br />
situation.<br />
- 73 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
Figure 5 : Quantization step and PPSNR versus the variance of DCT coefficients for a<br />
Laplacian model (A i = infinite) and a truncated Laplacian model (A i = 2.5), with L i = 2 3 = 8<br />
quantization steps. The truncated Laplacian model is an improvement for cardiac<br />
angiograms.<br />
2-5 Integer bit allocation<br />
We have allocated the bits b i to each zone using the theory of marginal analysis [7]. The<br />
total number of bits allocated to the DCT plane is<br />
B = Erreur! x cr , where N is the size of the image, b is the number of bits per pixel, cr is<br />
the lossless <strong>compression</strong> ratio introduced by RLC/VLC. This <strong>compression</strong> ratio is<br />
evaluated experimentally. The allocation algorithm is the following :<br />
Start the allocation with b i = 0 for all the zones, i = 1 to Z (Z is the total number of<br />
zones).<br />
Compute q i , E (0),i = ε 2 (0),i min * n i i = 1 to Z<br />
Set k = 0<br />
loop : Allocate temporarily one supplementary bit to each zone<br />
Compute q i , E (k),i , i = 1 to Z<br />
Compute the marginal return ∆E i = E (k-1),i - E (k),i i = 1 to Z<br />
Allocate definitively the bit in the zone j where the marginal return is maximum :<br />
∆E j = max (∆E i ) , b j = b j + 1<br />
k = k + 1<br />
Continue to loop untill B bits have been allocated.<br />
In the final loop, the allocation of one supplementary bit to a zone with a large number of<br />
coefficients may exceed the total number of bits B. The resulting CR is less than<br />
expected. If it is needed to control precisely the CR, one must reduce B and start again<br />
the final allocation loop after splitting the zone that yielded an excess of bits. This process<br />
can be automated.<br />
2-6 Coding of the quantized DCT coefficients<br />
After quantization of the Full Frame DCT zones, the remaining redundancy is removed by<br />
Run Length Coding (RLC) and Variable Length Coding (VLC). We have used a coder<br />
- 74 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
derived from the JPEG baseline [1]. The coefficients of each zone are first formatted into a<br />
1D-vector using a zig-zag ordering suited to circular blocks as shown in Figure 6.<br />
6<br />
5<br />
Figure 6 : Example of zig-zag scanning of the Full Frame DCT circular and directional<br />
zones number 5 and 6<br />
Non-zero coefficients are described by two elements: firstly a composite 8-bits value and<br />
secondly a variable length value. We have chosen a composite value of the form<br />
"ZZZZZCCC" in binary notation. The three least significant bits define the category of the<br />
quantized coefficient. Three bits are sufficient for our AC coefficients. A quantized number<br />
of which the absolute value is in the range [2 k-1 , 2 k - 1[ belongs to the category k, with 0<br />
≤ k ≤ 7 . The five most significant bits are used for coding the number of zeros preceding<br />
the encoded coefficient. These 8-bits run length values are then the input of a modified<br />
Huffman coder. The second element of variable size specifies the sign of the value (1 bit)<br />
and its magnitude in its own category k (k-1 bits). Each coded value is a Huffman code<br />
followed by a k-bits second element. We have coded separately the DCT zones with this<br />
technique.<br />
3-1 Experiments<br />
3 EXPERIMENTAL RESULTS AND DISCUSSION<br />
We have applied our Full Frame DCT based coding scheme to 512x512x8bits images<br />
from a clinical cardiac angiography system. We focused on a test sequence of 24 images<br />
of a left coronary artery.<br />
The quantization and allocation procedure described in Sections 2-4 and 2-5 can be used<br />
in two different ways : either the optimal quantization step and the number of bits per zone<br />
are evaluated for each individual image, according the statistics of its DCT circular zones.<br />
Or an average statistic is evaluated from a set of images, and the same bit allocation and<br />
quantization steps are used for several images.<br />
The first approach (noted hereafter FF-DCT1) yields the best image quality but takes<br />
some computational time. The second approach (noted FF-DCT2) runs faster and<br />
requires less overhead data because the bit allocation and quantization steps are fixed for<br />
all angiograms.<br />
We have compressed images from our test series at a <strong>compression</strong> ratio close to 12:1<br />
with scheme FF-DCT1 and scheme FF-DCT2. An example of bit allocation and<br />
quantization steps is given in Table 1 for FF-DCT1. We compared the result with the<br />
JPEG coded images at the same <strong>compression</strong> ratio. The Root Mean Square Error<br />
- 75 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
(RMSE) and the PPSNR have been computed. Results are given in Table 2. We also<br />
compared the visual image quality on a black and white monitor. In order to stick to the<br />
clinical environment, an enhancement filter was applied to the images before the data<br />
<strong>compression</strong>. Indeed, angiographic images are always presented in an enhanced mode.<br />
The filter is an unsharp masking. This pre-enhancement is less favourable than<br />
compressing the raw images in terms of CR versus image quality. Indeed, enhancement<br />
increases medium frequencies.<br />
Zone<br />
"i"<br />
Position<br />
Number of coef. Nber of<br />
n i bits b i<br />
- 76 -<br />
Quant. step q i<br />
0 0-0 1 16 1.97e-3<br />
1 1-1 (vertical) 1 16 1.77e-4<br />
2 1-1 (horizontal) 1 16 8.94e-5<br />
3 2-3 (vertical) 5 5 1.33e-1<br />
4 2-3 (horizontal) 3 2 2.34e-1<br />
5 4-7 .. 18 4 1.18e-1<br />
6 4-7 .. 16 5 8.39e-2<br />
7 to 14 8-15/ 16-31/ 32-63/ 64-<br />
95<br />
77/ 71/ 300/ 289/ 1209/<br />
1186/ 2014/ 1991<br />
4 5.01e-2/ 5.51e-2/ 2.23e-2/ 2.49e-2/<br />
1.18e-2/ 1.38e-2/ 6.52e-3/ 6.82e-3<br />
15 to 18 96-127/128-159 2811/ 2789/ 3623/ 3600 3 7.45e-3/ 8.00e-3/ 5.33e-3/ 5.77e-3<br />
19 to 25 160-191/192-223/224-<br />
255/256-287<br />
4424/ 4401/ 5234/ 5212/<br />
6035/ 6012/ 6832<br />
2 6.05e-3/ 6.59e-3/ 5.29e-3/ 5.08e-3/<br />
4.31e-3/ 3.80e-3/ 3.67e-3<br />
26 to 30 256-287/ ... / 320-351 6810/ ... / 8419 1 4.17e-3/ 3.91e-3/ 3.64e-3/ 3.43e-3/<br />
3.17e-3<br />
31 to 38 352-383/ ... / 448-479 9253/ ... / 11639 0 -<br />
39, 40 480-511 40825/ 40652 2 1.96e-3/ 2.02e-3<br />
Table 1 : Example of allocated bits and optimal quantization steps with FF-DCT1 for a<br />
compressed coronary arteriogram (CR=12:1).<br />
Compressio<br />
n Ratio<br />
RMSE<br />
PPSNR (dB) VISUAL<br />
blocking<br />
effect<br />
QUALITY<br />
blur of small<br />
vessels<br />
JPEG 12 4.78 34 yes quite visible<br />
FF-DCT1 12 4.42 34.5 no just<br />
noticable<br />
FF-DCT2 11.5 11.9 26.0 no just<br />
noticable<br />
Table 2 : Measurements and observations from an image coded with JPEG, FF-DCT1,<br />
and FF-DCT2 (CR=12:1)<br />
3-2 Discussion<br />
At a <strong>compression</strong> ratio of about 12:1, the quality of Full Frame DCT coded images is very<br />
close to the originals. The perceived image quality is better than for the JPEG coded<br />
frames. The best PPSNR and visual quality results from FF-DCT1 scheme where the<br />
statistical data of individual images is incorporated in the quantization process.<br />
With FF-DCT2 scheme, where an average statistic from several images is used, the<br />
PPSNR is lower than that of JPEG coded images. However, there is almost no visual<br />
difference between the two types of DCT coded frames. Some unsharpness compared to<br />
the original is just noticable on small vessels. With JPEG however, the unsharpness is<br />
more visible and blocking effect is prominent. These conclusions are shown in Table 2.<br />
They confirm that PPSNR is not a sufficient measurement in order to compare<br />
compressed images and originals. Figure 7a displays an enlarged part of an original
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
image. The same part is shown in Figure 7b after JPEG. Figure 7c shows the FF-DCT1<br />
result. Figure 8a and 8b are the error images multiplied by 30 of JPEG and FF-DCT1<br />
respectively.<br />
(a)<br />
(b)<br />
(c)<br />
Figure 7: (a) Enlarged part of an original enhanced image - (b) enlarged part of a JPEG<br />
coded image (CR=12) - (c) enlarged part of a FF-DCT1 coded image (CR=12)<br />
(a)<br />
(b)<br />
Figure 8 : (a) error image x 30 of the JPEG coded image - (b) error image x 30 of the FF-<br />
DCT1 coded image<br />
- 77 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
3-3 Perspectives<br />
Promising results have emerged from our Full Frame DCT coding method and its optimal<br />
quantization.<br />
In the FF-DCT1 scheme, quantization step and number of bits are computed for each<br />
image. This yields a very satisfactory image for the target CR 12:1. Improvements will be<br />
implemented:<br />
- weighting of the Full Frame DCT coefficients regarding the Human Visual System<br />
sensitivity,<br />
- deeper study of the effect of the clinically used post-processing and especially edge<br />
enhancement.<br />
In FF-DCT2 scheme, an average statistics is used to build a fixed quantizer valid for all<br />
images. More experiments will be carried out in order to find the best possible one.<br />
Finally, we will chose between scheme 1 and 2 and perform a clinical evaluation of the<br />
perceptual and diagnostic image quality with a team of cardiologists.<br />
4- CONCLUSION<br />
For the coding of cardiac angiograms, conventional and standard <strong>compression</strong> methods<br />
do not fulfill our targets :<br />
- lossfree techniques do not yield sufficient <strong>compression</strong> ratios,<br />
- lossy standards, and especially JPEG, are block based and the image quality at<br />
<strong>compression</strong> ratios 12:1 suffers from two defects. Blocking artifacts are visible both in the<br />
background and on the edge of large vessels. Moreover, the sharpness of small vessels<br />
is not well preserved.<br />
In order to overcome these difficulties, we have optimized the bit allocation and<br />
quantization in the Full Frame DCT coding scheme. As indicated in the results, the<br />
proposed schemes out-performs the JPEG technique regarding perceptual quality at<br />
<strong>compression</strong> ratio 12:1. There is no blocking effect and the sharpness of fine details is<br />
better represented.<br />
AKNOWLEDGEMENTS<br />
We would like to thank Philips Medical Systems, Best, the Netherlands for its support and<br />
for its contribution to this work, especially Dr H. Haas, Dr P. Zwart, and Dr M. Breeuwer<br />
from Philips Research, Eindhoven, the Netherlands.<br />
REFERENCES<br />
- 78 -
Chapitre I-3: Allocation de bits avec la Full-Frame DCT<br />
[1] W.B. Pennebaker and J.L. Mitchell, JPEG Still Image Data Compression Standard,<br />
Van Nostrand Reinhold, 1993.<br />
[2] S.C. Lo and H.K. Huang, "Radiological Image Compression: Full-frame Bit Allocation<br />
Technique", Radiology, Vol. 155, pp 811-817, 1985.<br />
[3] K.K. Chan, S.L. Lou and H.K. Huang, "Radiological Image Compression Using Full-<br />
Frame Cosine Transform with Adaptive Bit-Allocation", Computerized Medical Imaging<br />
and Graphics, Vol. 13, N°2, pp153-159, 1989.<br />
[4] S.C. Lo & al., "Full-Frame Entropy Coding for Radiological Image Compression", SPIE<br />
Image Capture, Formatting, and Display 1991, Vol. 1444, pp 265-271, 1991.<br />
[5] K.R. Rao and P. Yip, Discrete Cosine Transform: Algorithms, Advantages, and<br />
Applications, Academic Press, 1990.<br />
[6] N. Akrout, C. Diab, R. Prost, R. Goutte, M. Amiel, "Subband Directional Vector<br />
Quantization in Radiological Image Compression", Proc SPIE Medical Imaging 1992,<br />
Vol.1653 (6), pp 203-212.<br />
[7] A. Segall, "Bit Allocation and Encoding for Vector Sources", IEEE Trans. Inform.<br />
Theory IT-22, n°2 pp 162-169, 1976.<br />
- 79 -
CHAPITRE I-4<br />
COMPRESSION FULL-FRAME DCT ET<br />
RENFORCEMENT DE CONTOUR<br />
- 80 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
Présentation<br />
Dans ce chapitre nous abordons la problématique du renforcement de contour et de la<br />
<strong>compression</strong>. Dans la pratique, il est nécessaire de pouvoir disposer à la fois de la version<br />
non renforcée et de la version renforcée de l’image. La version renforcée est celle<br />
préférée par les experts médic<strong>aux</strong> pour la visualisation. La version non renforcée sert<br />
principalement <strong>aux</strong> mesures quantitatives. Alors, faut-il comprimer l’image avant ou après<br />
le renforcement?<br />
Nous avons montré que l’on obtient de meilleurs résultats en comprimant l’image déjà<br />
renforcée, nous avons étudiés plusieurs stratégies basées sur le schéma renforcement<br />
puis <strong>compression</strong>. Tout d’abord, nous avons développé un renforcement directement<br />
dans le domaine DCT, afin de réaliser les deux opérations en même temps. Ensuite nous<br />
avons mis en place un filtre inverse de dé-renforcement de contour (également dans le<br />
domaine DCT), afin de pouvoir revenir à l’image non renforcée après la <strong>compression</strong>.<br />
Nous avons cherché à améliorer la qualité de l’image comprimée et dé-renforcée avec<br />
une méthode de restauration régularisée.<br />
Nous montrons qu’il existe un large éventail de possibilité d’adapter <strong>compression</strong> et posttraitements<br />
en vue d’optimiser la qualité des images pour une application donnée.<br />
Ces trav<strong>aux</strong> ont fait l’objet de l’article [BERE-95], présenté à SPIE Medical Imaging, dont<br />
le texte est reproduit ci-dessous.<br />
Unsharp Masking and its Inverse Processing Integrated<br />
in a Compression/De<strong>compression</strong> Scheme.<br />
Application to Cardiac Angiograms.<br />
ABSTRACT<br />
Image data <strong>compression</strong> can be useful for storage or transmission of cardiac<br />
angiograms. In clinical systems, images are recorded in a "raw" format, and are<br />
usually processed with an edge enhancement filter to improve the visibility of medical<br />
information. The raw images are needed for other processing including quantitative<br />
measurements, and their enhanced version is used for display. We report on a<br />
<strong>compression</strong> scheme based on Full-Frame DCT which allows the integration of<br />
enhancement in the codec. We investigated whether the raw or the enhanced image<br />
should be compressed. We studied an inverse filter and integrated it in the<br />
de<strong>compression</strong> process, so that a non-enhanced image can be derived after<br />
enhancement and <strong>compression</strong>. The de-enhancement filter acts as a low pass filter<br />
for the quantization noise. We proposed to improve the inverse filter using a<br />
regularized signal restoration technique.<br />
Keywords: Image <strong>compression</strong> and filtering, inverse filtering, optimal bit allocation,<br />
X-Ray medical images.<br />
1- INTRODUCTION<br />
- 81 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
Images of the heart and of the coronary arteries are usually assessed on cine-film<br />
recordings. Even in digital catheterization laboratories, images are still not stored in a<br />
digital format due to technological and financial constraints: a standard cardiac angiogram<br />
comprises at least 1000 to 3000 images, representing 250 to 750 Mega Bytes for 512x512<br />
pixel images coded in 8 bits. Lossy image data <strong>compression</strong> is necessary to achieve fully<br />
digitized archiving of cardiac angiography, to enable images transmission via networks, or<br />
to allow dynamic viewing from a storage medium at the required frame rate: 15 to 30<br />
frames per second.<br />
On Digital Cardiac Imaging Systems, images are enhanced in order to outline the contours<br />
of vessels and ventricles. Edge enhancement filters improve the visibility of the diagnostic<br />
information. Unsharp masking is a usual filtering technique for this purpose. In general,<br />
the cardiologist reviews enhanced images, while the raw images are stored on disk and<br />
used for quantitative analysis (measurement of vessel narrowing, left ventricle function).<br />
The objective of this work was to reach <strong>compression</strong> factors of about 12:1, with<br />
reconstructed images of good visual and diagnostic quality. We developed a <strong>compression</strong><br />
scheme conveniently allowing the incorporation of unsharp masking and its inverse filter.<br />
The <strong>compression</strong> algorithm is based on Full-Frame DCT [1]. Unsharp masking is usually<br />
processed in the pixel domain. We implemented it in the DCT domain. In the pixel domain,<br />
an inverse filtering for unsharp masking can be processed iteratively [2]. We propose a<br />
non iterative process in the DCT domain. The quality of the inverse filtered compressed<br />
image can be improved with incorporation of prior knowledge: both the quantization noise<br />
and the image regularity are measured and used in a regularized signal restoration<br />
technique [3].<br />
2- SHOULD THE RAW IMAGE OR THE PROCESSED IMAGE BE COMPRESSED?<br />
A major issue is the choice of the image to be compressed: the raw image or the filtered<br />
one. Section 2-1 will describe the edge enhancement filter as it is implemented in digital<br />
cardiac angiography systems. We worked with images from a clinical Philips Medical<br />
Systems catheterization laboratory equipped with a Digital Cardiac Imaging (DCI) system.<br />
A primary scheme for compressing the digital angiograms stored on disk, i.e. the raw<br />
images, will be discussed in section 2-2. In this scheme, the raw-compressed images<br />
have to be enhanced for reviewing. Instead, we propose in section 2-3 to compress the<br />
already enhanced images. It follows that a de-enhancement filter should be available for<br />
computing a de-enhanced image from the enhanced-compressed one. Both the<br />
enhancement and the de-enhancement filters can be integrated in the<br />
<strong>compression</strong>/de<strong>compression</strong> scheme, as discussed in section 2-4 and 2-5 respectively.<br />
Finally, a regularization method for improving the performance of the de-enhancement<br />
filter is described in section 2-6.<br />
2-1 Edge enhancement filtering of digital cardiac angiograms<br />
In digital cardiac angiography systems, the images are processed in real time for<br />
enhanced viewing, in order to display anatomical features with an improved sharpness.<br />
The filter is an unsharp masking, using pixel convolution as follow:<br />
iuns = iraw + α x [ iraw - f * iraw ] (1)<br />
where iuns is the enhanced image; i raw is the original image; α is the<br />
enhancement factor, it can be adjusted by the cardiologists and has generally a<br />
- 82 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
default value of 5; * denotes the convolution operator; f is a low pass convolution<br />
mask, generally a 5x5 kernel with 1/25 values only. In formula (1),<br />
iraw - f * iraw is an image of the contours present in i raw , which added to i raw with<br />
a gain, results in a sharper image. Values of iuns above 255 and below 0 are<br />
clipped. Apart from clipping which seldom occurs, the enhancement is reversible.<br />
Formula (1) can be expressed as:<br />
iuns = h * iraw (2)<br />
where h is the equivalent enhancement filter.<br />
We studied a default filter of clinical systems,<br />
1 1 1 1 1<br />
with α=5 and f = 1 1 1 1 1 1<br />
25 x 1 1 1 1 1<br />
1 1 1 1 1<br />
1 1 1 1 1<br />
It follows that in our application, h =<br />
−1/ 5 −1/ 5 −1/ 5 −1/ 5 −1/<br />
5<br />
−1/ 5 −1/ 5 −1/ 5 −1/ 5 −1/<br />
5<br />
−1/ 5 −1/ 5 29/ 5 −1/ 5 −1/<br />
5<br />
−1/ 5 −1/ 5 −1/ 5 −1/ 5 −1/<br />
5<br />
−1/ 5 −1/ 5 −1/ 5 −1/ 5 −1/<br />
5<br />
(3)<br />
The transfer function of h, given in figure 1(a), shows that this filter magnifies medium and<br />
high spatial frequencies. The transfer function is real and positive, this result will later be<br />
useful for implementing the inverse filter (section 2-5).<br />
(a) (b)<br />
Figure 1: (a) Transfer function of the periodized edge-enhancement mask<br />
(represented here on 32x32 samples).<br />
(b) Inverse of the transfer function of the enhancement mask<br />
- 83 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
2-2 Edge enhancement after data <strong>compression</strong><br />
On clinical systems, a real time data <strong>compression</strong> is implemented to allow fast acquisition<br />
of the raw images and increase the storage capacity. The <strong>compression</strong> is reversible and<br />
can only achieve reduction factors of about 2:1 for this type of images [4]. We studied a<br />
similar scheme with lossy image <strong>compression</strong>, where images are first compressed and<br />
then enhanced (figure 2).<br />
Figure 2: Primary scheme for coding cardiac angiograms: first <strong>compression</strong>, then<br />
enhancement.<br />
In usual <strong>compression</strong> schemes (JPEG, Full-Frame DCT, Subband Coding), high<br />
frequencies are coarsely quantized since they contain few information. If the raw image is<br />
compressed, high frequencies are not well preserved, and unsharp masking of the<br />
decompressed image enhances the quantization noise. The compressed-enhanced image<br />
should not suffer from severe artifacts and should have a good perceptual quality.<br />
2-3 Edge enhancement before data <strong>compression</strong><br />
Though the most straight-forward scheme is to compress raw images, we propose to<br />
compress images that are already enhanced, as shown in figure 3. The enhancement filter<br />
enhances medium and high frequencies. These frequencies will be preserved by any<br />
optimal bit allocation system. In the scheme of figure 3, achieving a high <strong>compression</strong><br />
ratio may be difficult because of the higher energy of medium and high frequencies. If the<br />
enhanced image is compressed, a raw image should be derived from the decompressed<br />
image via inverse processing. Fortunately, an inverse filter can be implemented in order<br />
to compute the raw image from the enhanced one. As shown by its transfer function in<br />
figure 1(b), this inverse filter is low-pass and will reduce the quantization noise.<br />
- 84 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
Figure 3: An alternative scheme for coding cardiac angiograms: first enhancement, then<br />
<strong>compression</strong>.<br />
2-4 Integration of the edge enhancement in the <strong>compression</strong>/de<strong>compression</strong><br />
process<br />
We studied whether the edge enhancement filtering could be implemented in the DCT<br />
domain, allowing the integration of either post- or pre- enhancement in the <strong>compression</strong><br />
process, according to the scheme of figure 2 or 3 respectively. Spatial convolution and<br />
point-by-point multiplication in the Discrete Fourier Transform (DFT) domain are strictly<br />
equivalent. We looked for a similar equivalence in the DCT domain. Filtering in the DCT<br />
domain has been investigated by Chen et al. [5] and Chitprasert and Rao [6]. Their<br />
approaches are helpful for filtering in the DCT domain but do not give the equivalence we<br />
are looking for. We checked that linear pixel-convolution can be implemented in the DCT<br />
domain under two conditions: the convolution filter must be real and even, and the image<br />
must be extended by a few zeros on its boarders. The result is given here for a onedimensional<br />
signal. As the DCT is separable - formula (13) -, the result can easily be<br />
deducted in two dimensions.<br />
Let {h(n); n = -L, -L+1, ..., 0, ..., L} be the impulse response of the even filter. The length of<br />
h is 2L+1.<br />
h is even, hence h(n) = h(-n) n=1, 2, ..., L.<br />
Let {x N (n); n=0, 1, ..., N-1} be a data sequence beginning and ending with zeros. We<br />
assume that x N (n)=0 for n=0, ..., P and for n=N-Q, ..., N-1, with P≥L and Q≥L.<br />
We are looking for a DCT implementation of the following linear convolution: y(n) = x N (n) *<br />
h(n). As the values of the extremities of x N (n) are zeros, the effective length of y(n) is N<br />
and not N+2L. We will not detail the demonstration here, it is easy to prove the following<br />
result:<br />
YC N(k) = HF 2N(k) x XC N(k) k = 0, 1, ..., N-1 (4)<br />
where YC N(k) is the N-points DCT of y(n); HF 2N(k) is the 2N-points DFT of the<br />
periodized impulse response of the filter h,<br />
HF 2N(k)∈R; and XC N(k) is the N-points DCT of x(n).<br />
The implementation of a DCT-convolution is advantageous for integrating edge<br />
enhancement in the DCT coding scheme. In practice short filters are used, L is very small<br />
compared to N. It is not necessary to pad the image boarders with zeros before<br />
processing because the resulting error is negligible.<br />
- 85 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
2-5 Integration of de-enhancement in the de<strong>compression</strong> scheme by inverse<br />
filtering<br />
We investigated how to compute a non-enhanced image from an enhanced one,<br />
especially if a raw image has to be derived from the enhanced-compressed one in the<br />
coding scheme of figure 3. The transfer function of the inverse enhancement filter exists<br />
and is shown in figure 1(b). Unfortunately, the size of the impulse response of the inverse<br />
filter is infinite. We have computed finite size approximations of the inverse filter on a 5x5<br />
pixel convolution mask. None was satisfactory. An alternative solution is to use an iterative<br />
process based on the fixed point theory, as proposed in [2]. This type of pixel<br />
implementation is also an approximation of the inverse filter.<br />
More effectively, we implemented the de-enhancement filter in the DCT domain. The DCT<br />
of a de-enhanced 1-D data sequence is simply:<br />
YC N(k) = XC N(k) / HF 2N(k) k = 0, 1, ..., N-1 (5)<br />
2-6 Improvement of the de-enhancement of compressed images by regularization<br />
De-enhancing a compressed image by inverse filtering results in an non smooth image<br />
because of the quantization noise in the data (see section 4). The unsmoothness of the<br />
image can reduce the accuracy of the vessel narrowing measurement. To overcome this<br />
difficulty, we studied this inverse problem with a least square filtering approach.<br />
In the pixel domain, the inverse problem can be formulated as follow:<br />
iuns_comp = h * iraw + υ (6)<br />
where iuns_comp is the pre-enhanced compressed image, h denotes the impulse<br />
response of the enhancement filter (3), and υ the random quantization noise.<br />
The noise is not correlated to the raw image but is not statistically independent of it.<br />
The de-enhancement is a restoration problem. It can be expressed as recovering iraw<br />
from its degraded observation iuns_comp , given the Point Spread Function (PSF) h of the<br />
degradation system and some a priori knowledge about the noise υ and the image iraw .<br />
An interesting derivation for solving equation (6) by constrained least square filtering is the<br />
Miller regularization approach. It provides a trade-off between fidelity to the data and<br />
smoothness [3]. The Miller regularization method can be considered in the more general<br />
context of estimation of unknown but bounded signals [7]:<br />
• iraw lies in the set Ωi of regular images with bounded roughness:<br />
d* i ² ≤ r²<br />
(7)<br />
where x ² denotes the energy of x, the operator d is a differential operator i.e. a<br />
high pass filter, and r² denotes a bound of the roughness of the image.<br />
The set Ωi is an ellipsoid, its center is the null vector (see [7])<br />
.• υ lies in the set Ωv of bounded energy noise.<br />
v ² ≤ n²<br />
(8)<br />
The set Ωv is a sphere, its center is the null vector (see [7]).<br />
• The observed image iuns_comp specifies a set Ωi / which must contain i iuns _ comp<br />
raw<br />
iraw ∈ Ωi / iuns _ comp and Ωi / = {i: (i iuns _ comp<br />
uns_comp - h*i) ∈ Ωv}<br />
The set Ωi / iuns _ comp is an ellipsoid (see [7])<br />
- 86 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
Let us consider both the sets Ωi and Ωi / iuns _ comp. Each set contains iraw , and i raw must lie in<br />
their intersection which is :<br />
Ωest = Ωi ∩Ωi / iuns _ comp<br />
This intersection is the smallest set which must contain iraw and which can be calculated<br />
from the available data. It is the best estimate set. In contrast with the usual estimation<br />
theory, the estimate is a set and not a single vector. In absence of a unique solution, a<br />
reasonable choice for a vector estimate iest is to define it as the center of Ωest.<br />
Unfortunately, Ωest is not an ellipsoid and the center cannot be easily computed. But a<br />
bounding ellipsoid containing Ωest can be found. The center of this ellipsoid is the estimate<br />
of iraw .<br />
Originally, this method was proposed with a matrix formulation. When the matrix<br />
associated to the PSF is a circulant block Toeplitz matrix, the problem can be formulated<br />
in the DFT domain [8]. In the DFT domain, equation (6) becomes:<br />
Iuns_comp (k,l) = H(k,l) x Iraw(k,l) + V(k,l) (9)<br />
where capital letters hold for the DFT of the corresponding minuscule in (6).<br />
The Miller estimate, the center of the ellipsoid Ωest is:<br />
H*( k, l)<br />
Iest(k,l) = Iuns_comp (k,l)<br />
(10)<br />
H*( k, l) H( k, l) + λD*( k, l) D( k, l)<br />
where λ = n ²<br />
and X* is the complex conjugate of X. (11)<br />
r² In our problem, both the energy of the noise n² and the bound of the roughness r² can be<br />
exactly computed. The regularization parameter λ can be transmitted with the overhead<br />
data of the compressed image file. For a given class of images, as angiograms, λ is<br />
approximately constant at a fixed <strong>compression</strong> ratio. Therefore, it is not necessary to<br />
compute the regularization parameter for each image. Implementing this regularization<br />
technique in the DCT domain is as easy as for the non-regularized de-enhancement<br />
(section 2-5) and can be derived from (10) and (4). One fourth of the 2Nx2N DFT of the<br />
filter transfer function and the NxN DCT of the image iuns are needed.<br />
In the DCT domain, equation (10) becomes:<br />
H* 2Nx<br />
2N( k, l)<br />
ICN est (k,l) = ICN uns_comp (k,l)<br />
H* 2Nx 2N( k, l) H2Nx 2N( k, l) + λD* 2Nx 2N( k, l) D2Nx 2N( k, l)<br />
(12)<br />
k = 0, 1, ..., N-1 and l = 0, 1, ..., N-1<br />
The differential operator d should be chosen such that the ellipsoids Ω i and Ωi / iuns _ comp<br />
intersect. A simple test for this intersection was proposed in [9].<br />
In our implementation for compressed angiograms,<br />
we used: d = 1 − 2 1<br />
−2 4 −2<br />
1 −2<br />
1<br />
- 87 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
3-1 Block diagram<br />
3- FULL-FRAME DCT CODING AND DIRECTIONAL QUANTIZATION<br />
Figure 4 shows the conventional block diagram of transform coding systems. Block based<br />
transform is a widespread and efficient technique. It has been standardized by the Joint<br />
Photographic Experts Group (JPEG) [10] of the International Standardization Organization<br />
(ISO) for the coding of still pictures, and by the Moving Picture Expert Group (MPEG) [11]<br />
for the coding of video series. Block-based coding schemes gave disappointing results on<br />
cardiac angiograms because they introduce block artifacts. These artifacts are made more<br />
visible on cardiac angiography systems: the edge enhancement filter outlines the block<br />
boundaries.<br />
Figure 4: Block diagram of DCT coding.<br />
To overcome the problem of blocking artifact, we have chosen a Full-Frame DCT (FFDCT)<br />
coding scheme. Such schemes have been reported for coding radiological images [12]-<br />
[14]. We focused on the adaptation of our algorithm to the statistical properties of the Full-<br />
Frame DCT of cardiac angiograms, and we studied the interaction of the <strong>compression</strong> and<br />
the edge enhancement processes.<br />
3-2 Full-Frame DCT and zonal splitting<br />
In the first block of figure 4 diagram, the image is transformed. We have used a Full-<br />
Frame DCT transform from formula DCT-II of [15], with different normalization coefficients:<br />
Let x(m,n) be the image and XC (k,l) its Full-Frame DCT.<br />
N −1<br />
N −1<br />
XC (k,l) = 4 ( 2 1 ) 2n<br />
1 l<br />
( , ) ∑∑ ( , ) cos( π + ) cos( π ( + ) ) (13)<br />
N ckl xmn m k<br />
²<br />
2N<br />
m=<br />
0 n=<br />
0<br />
In DCT-II, c(0, 0) = 1 2 ; c(0, l) = c(k, 0) = 1 for k≠ 0 and l≠ 0; and c(k, l) = 1 for k, l =1, 2,<br />
2<br />
..., N-1.<br />
We have used c(0, 0) = 1<br />
1<br />
1<br />
; c(0, l) = c(k, 0) = for k≠ 0 and l≠ 0; and c(k, l) = for k,<br />
2N<br />
l =1, 2, ..., N-1. This normalization, computed in floating point, does not change the<br />
accuracy of the coefficients at all. It was meant to bring the dynamic of all DCT coefficients<br />
to the dynamic of the original image (256 levels per pixel), allowing easier interpretation of<br />
the DCT coefficients behavior.<br />
We observed the distribution of frequency components of cardiac angiograms in the DCT<br />
plane [1]. The DCT coefficients are distributed in circular zones and decrease from the<br />
DC to high frequencies, with a logarithmic decrease. Within circular zones, the DCT<br />
4N<br />
2N<br />
4N<br />
- 88 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
coefficients have in general low variances. Thus the same number of bits can be<br />
allocated to all coefficients of a circular zone, and the same quantization step can be<br />
applied. We observed the DCT of enhanced images. Since the transfer function of the<br />
enhancement filter is not symmetric (figure 1), and enhances horizontal and vertical<br />
frequencies more than diagonal frequencies, we chose to split the circular zones of the<br />
DCT plane in four directions, as shown in figure 7. Such a splitting is in agreement with<br />
the DCT coefficients statistics, with the effect of the enhancement filter, and the number of<br />
coefficient per zone is small enough for a good control of the <strong>compression</strong> ratio.<br />
3-3 Bit allocation, quantization and coding<br />
In usual transform schemes, a frequency dependent quantization is realized by multiplying<br />
the transformed coefficients by a matrix of weighing factors, and then rounding the<br />
weighed coefficients to the nearest integer. It results in a uniform midtread quantization of<br />
each coefficient. The underlying principle is to quantize accurately the high frequencies<br />
and to quantize more coarsely the medium and high frequencies because the human<br />
visual system is less sensitive to higher frequencies than to lower ones. All weighed<br />
transform coefficients are quantized with the same quantization characteristic, with a zonal<br />
or a fixed bit allocation per set of coefficients. We have built a quantizer for the circular<br />
and directional zones of the Full Frame DCT without any a priori on the importance of<br />
different frequency bands. The two characteristics of the quantizer of each zone are<br />
optimized: the number of bits and the quantization steps. The mean square distortion error<br />
of a zone is minimized, under the assumption of a density probability. The experimental<br />
distributions of the coefficients in the different zones can be approximated by a truncated<br />
Laplacian distribution for mid and high frequencies. We use this model for the AC<br />
coefficients, except for the first zones. Because they contain very few coefficients, we use<br />
a uniform distribution model for them. In addition, the DC and the 44 first AC coefficients<br />
were not quantized at all because of their importance for the quality of the reconstructed<br />
image. The last 4 high frequency zones were arbitrarily allocated zero bit and not<br />
incorporated in the optimized bit allocation process. The principle of our quantizer<br />
optimization is explained in [1]. We can evaluate the quantization step that minimizes the<br />
quantization error of a zone. Clearly, we have developed an optimal bit allocation and<br />
quantization method that minimizes the quantization error. A truncated Laplacian<br />
analytical model is used to design an optimal midtread uniform quantizer. For an a priori<br />
number of bits per coefficient and with the observed dynamics and variance of a zone, the<br />
optimal quantization step is computed, with the minimum quantization error. This<br />
evaluation is used in an integer bit allocation algorithm. We have chosen a bit allocation<br />
based on the theory of marginal analysis. After the quantization procedure, the quantized<br />
coefficients are formatted in a 1D-vector with a zigzag scanning adapted to the circularity<br />
of our blocks. The remaining redundancy of the quantized DCT coefficients is reduced by<br />
entropy coding. At present, we have not implemented a bit rate control, the optimization of<br />
the quantizer is re-adjusted manually with a different target <strong>compression</strong> ratio if needed.<br />
4- EXPERIMENTAL RESULTS AND DISCUSSION<br />
- 89 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
4-1 Results from simulations of the <strong>compression</strong><br />
Firstly, to prove the soundness of our proposal - enhancement before <strong>compression</strong> -, we<br />
simulated the <strong>compression</strong>/de<strong>compression</strong> process by adding white noise in the DCT<br />
domain, as a simulation of the quantization noise. This simulation was applied on a<br />
128x128 part of a real image. White noise was added to the DCT of the raw image, and to<br />
the DCT of the enhanced image, so that the PPSNR becomes 20dB in both cases. The<br />
level of the added noise was a little exaggerated for the purpose of the demonstration.<br />
Figure 5 shows the PPSNR of the simulated <strong>compression</strong> before and after enhancement,<br />
figure 6 shows the resulting images. The enhancement after a simulated <strong>compression</strong><br />
degrades strongly the image, the PPSNR drops down to 4.6dB. The post-enhanced image<br />
exhibits almost only noise. In the pre-enhancement scheme, the de-enhancement filter is<br />
used to compute an non-enhanced image. The non-optimized inverse filter improves<br />
significantly the PPSNR, from 20 to 33.8dB, because the noise is low-pass filtered.<br />
Visually, some sharpness remains (image 6). The regularized de-enhancement (image 7)<br />
is 2.1dB better than the non-regularized de-enhancement. The visual improvement,<br />
however, is interesting to notice: the regularized de-enhanced image is less blurred than<br />
the non regularized one. The error-image 7 of figure 6 shows less differences with the raw<br />
image than the error-image 6. Here, the error images are the absolute values of the<br />
differences between the raw image and the de-enhanced one, multiplied by a factor 20.<br />
This simulation shows that regularization improves the regularity of the restored image.<br />
Figure 5: PPSNR results of simulated <strong>compression</strong> in the post- and pre-enhancement<br />
schemes.<br />
- 90 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
Figure 6: Part of an image with simulated <strong>compression</strong> noise in the post- and preenhancement<br />
scheme.<br />
Image numbers refer to figure 5.<br />
4-2 Results on coded images<br />
We have tested the principles presented in section 2 and 3 on 512x512 images with 8 bits<br />
per pixel, recorded from clinical digital cardiac angiography systems. The results<br />
presented here were obtained on a left coronary image from the Cardiac Hospital, Lyon,<br />
France. The coronary image was compressed with our optimal bit allocation and<br />
quantization method, according to the post- and pre-enhancement schemes. The optimal<br />
bit allocations of the raw and the enhanced images are shown in figure 7. The<br />
quantization step of each DCT zone is also optimum. Even if the numbers of bits are<br />
identical in several zones, the quantization steps are all different.<br />
For a <strong>compression</strong> ratio of about 13:1, PPSNR results are given in figure 8. We fixed a<br />
similar CR for the post- and pre- enhancement coding, expecting the amount of the<br />
degradation to be different. The PPSNR2 of the raw compressed image (without<br />
enhancement) is rather high (47.5dB). The PPSNR3 of the compressed-enhanced image<br />
is 34.9dB; in contrast with the simulation, the PPSNR5 of the enhanced compressed<br />
image is only 34.7. The enhanced image is more difficult to compress but at a fixed bit<br />
rate, the optimization of the quantizer allows good results in term of PPSNR. Visually, the<br />
compressed-enhanced image is slightly better. The allocation of the enhanced image<br />
shows that more bits are allocated to medium and high frequencies, fewer to the low<br />
frequencies. In fact, many of the available bits are used to code the image noise. After deenhancement,<br />
the PPSNR is increased from 34.7 to 40.7dB. The improvement is real, but<br />
not as spectacular as in our simulation.<br />
- 91 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
(a)<br />
(b)<br />
Figure 7: (a) Bit allocation of the post-enhanced coronary image at CR=12.6. (b) Bit<br />
allocation of the pre-enhanced image at CR=12.8. (nq: no quantization).<br />
Figure 8: PPSNR results with FF-DCT post- and pre-enhancement schemes.<br />
To estimate the performance of our optimal Full-Frame DCT coding, we compared the<br />
FFDCT coded images with JPEG coded ones. At a <strong>compression</strong> ratio of 12.8, the PPSNR<br />
of the raw JPEG-compressed image is 46.1dB; the PPSNR of the compressed-enhanced<br />
image is 32.8dB; the PPSNR of the enhanced-compressed image is 33.5dB. These<br />
results are 1 to 2 dB less than with Full-Frame DCT coding. Visually, however, the JPEG<br />
- 92 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
coded image shows severe blocking artifacts, especially in the post-enhancement<br />
scheme. A pre-enhanced image with FFDCT and JPEG coding are shown in figure 9.<br />
Finally, the de-enhancement gives a very similar result without or with regularization on<br />
the Full-Frame coded images: 40.6 and 40.7dB respectively. The PPSNRs of this<br />
experiment are high and make the regularization improvement little visible. Using the<br />
simulated <strong>compression</strong> of a raw image at 47.5dB, like in section 4-1, the improvement of<br />
the PPSNR by regularization is 0.2dB. The technique of regularization, which involves no<br />
additional complexity, is more useful at higher CR. The regularized de-enhancement we<br />
implemented can be improved by finding experimentally a more appropriate operator d, or<br />
by mean of a Wiener optimal inverse filter.<br />
5- CONCLUSION<br />
In this paper, we proposed a new method for integrating post-processing in a lossy<br />
<strong>compression</strong>/de<strong>compression</strong> scheme. We studied the edge enhancement filter of clinical<br />
cardiac angiography systems and its incorporation it in a Full-Frame DCT codec.<br />
Choosing if the image should be enhanced before or after the <strong>compression</strong> is a important<br />
issue. Simulations of the quantization noise by adding white noise to the DCT show<br />
clearly that it is preferable to apply the enhancement before the <strong>compression</strong> (preenhancement<br />
scheme). In this scheme, a non-enhanced image must also be available<br />
after data <strong>compression</strong>: it is necessary for clinical applications to have both the enhanced<br />
and the non-enhanced image. We also incorporated the enhancement inverse filter in the<br />
DCT coding scheme and proposed an improvement by a signal restoration technique with<br />
regularization. The regularization is more effective when the <strong>compression</strong> distortion is very<br />
high, and can easily be implemented without additional complexity. Regularization should<br />
be effective in the quantitative analysis of the decompressed de-enhanced image because<br />
the estimation of vessel narrowing requires a regular image. This point has not been<br />
assessed yet.<br />
The results of the pre-enhancement scheme with Full-Frame DCT <strong>compression</strong> are<br />
promising, but not as demonstrative as on the simulations. Compressing the enhanced<br />
image is more difficult than compressing the raw ones because many bits are allocated to<br />
the high frequencies, which contents is magnified by the edge enhancement filter. We<br />
designed an optimal strategy for the bit allocation of pre-defined zones in the DCT plane.<br />
An optimal method for defining the zones is still under investigation.<br />
As a conclusion, with an optimal bit allocation, the enhanced image compressed at a<br />
<strong>compression</strong> ratio of 12 with FFDCT have a good PPSNR and visual quality, whereas the<br />
JPEG coded image shows blocking effect.<br />
ACKNOWLEDGMENT<br />
The authors wish to thank Hein Haas and Paul Zwart from Philips Medical Systems, and<br />
Marcel Breeuwer from Philips Research for their useful comments.<br />
- 93 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
REFERENCES<br />
[1] P. Béretta, R. Prost, M. Amiel, "Optimal Bit Allocation for Full-Frame DCT Coding<br />
Scheme - Application to Cardiac Angiography", SPIE Vol. 2164 Image Capture<br />
Formatting and Display, pp 291-311, 1994.<br />
[2] H. van Eeuwick, "The Influence of Edge Enhancement on Analytical Programs",<br />
Internal Report, Philips Medical Systems, XDB-048-816, 1990.<br />
[3] K. Miller, "Least Square Methods for Ill-posed Problems with a Prescribed Bound",<br />
SIAM J. Math. Anal., Vol. 1, n°2, pp 52-74, 1970.<br />
[4] P. Roos et al., "Reversible Intraframe Compression of Medical Images", IEEE<br />
Trans. on Med. Imaging, Vol. 7 n°4, pp 328-336, 1988.<br />
[5] W.H. Chen, S.C. Fralick, "Image Enhancement Using Cosine Transform Filtering",<br />
Proc. Symp. on Current Math. Problems in Image Science, Monterey, Ca USA, pp 186-<br />
192, 1976.<br />
[6] B. Chitprasert and K.R. Rao, "Discrete Cosine Transform Filtering", Signal<br />
Processing, Vol. 19, pp 233-245, 1990.<br />
[7] B.C. Schweppe, Uncertain Dynamic Systems, Englewoods Cliffs, N.J. USA,<br />
Prentice-Hall, 1986.<br />
[8] A.K. Kastaggelos, J. Biemond, R.W. Shafer and R.M. Mersereau, "A Regularized<br />
Iterative Image Restoration Algorithm", IEEE Trans. on Signal Processing, Vol. 39,<br />
n°4, pp 914-929, 1991.<br />
[9] R. Prost, J.L. Burdeau, S. Guilloteau and R. Goutte, "Regularized Myopic Image<br />
Deconvolution. Application to Aperture Synthesis in Radioastronomy". EUSIPCO-94,<br />
Edinburg, Scotland UK, 13-16 September 1994, Proc. Vol. 1 Theory and Applications,<br />
pp 307-310, 1994.<br />
[10] W.B. Pennebaker and J.L. Mitchel, JPEG Still Image Data Compression Standard,<br />
van Nostrand Reinhold, 1993.<br />
[11] Legal - "MPEG: a Video Compression Standard for Multimedia Applications",<br />
Communications of the ACR, Vol. 34 n°4, pp 47-58, 1991.<br />
[12] S.C. Lo and H.K. Huang , "Radiological Image Compression: Full-Frame Bit<br />
Allocation Technique", Radiology, Vol. 155, pp 811-817, 1985.<br />
[13] K.K. Chan, S.L. Lou and H.K. Huang, " Radiological Image Compression Using<br />
Full-Frame Cosine Transform with Adaptive Bit-Allocation", Computerized Medical<br />
Imaging and Graphics, Vol. 13 n° 2, pp 153-159, 1989.<br />
[14] S.C. Lo et al., "Full-Frame Entropy Coding for Radiological Image Compression",<br />
SPIE Vol. 1144 Image Capture Formatting and Display, pp 265-271, 1991.<br />
[15] K.R. Rao and P. Yip, Discrete Cosine Transform: Algorithms, Advantages and<br />
Applications, Academic Press, 1990<br />
- 94 -
Chapitre I-4: Compression FF DCT et renforcement de contour<br />
(a)<br />
(b)<br />
(c)<br />
Figure 9: (a) Enlarged part of the original enhanced image; (b) Enlarged part of preenhanced<br />
FFDCT coded image (CR=12.8); (c) Enlarged part of pre-enhanced JPEG<br />
coded image (CR=12.8).<br />
- 95 -
CHAPITRE I-5<br />
ETUDE THEORIQUE DE LA ROBUSTESSE<br />
DU QUANTIFICATEUR UNIFORME<br />
OPTIMUM<br />
- 96 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
Présentation<br />
Après avoir mis au point et validé une méthode d’allocation de bits avec un découpage de<br />
la DCT en bandes circulaires, nous avons cherché à améliorer l’optimisation du<br />
quantificateur sur lequel repose cette allocation. Jusqu’alors, nos expériences étaient<br />
basées sur l’hypothèse que les bandes circulaires suivaient une distribution Laplacienne.<br />
Nous avons voulu développer une approche valide pour toute distribution de type<br />
Gaussienne généralisée. Nous avons aussi cherché à réaliser une quantification non pas<br />
adaptée à chaque image, mais fixe pour une classe d’images. Pour ce faire, il faut<br />
connaître l’impact d’un choix de quantificateur inapproprié à la distribution du signal afin<br />
de choisir au mieux les paramètres de distribution Gaussienne généralisée que l’on doit<br />
appliquer avec toutes les images.<br />
Une étude du quantificateur uniforme optimum était donc nécessaire, ainsi qu’une<br />
exploration des conséquences de la non adaptation du quantifieur. Le présent chapitre<br />
donne nos développements théoriques sur l’optimisation et la robustesse du quantifieur<br />
scalaire uniforme.<br />
Ces trav<strong>aux</strong> ont fait l’objet de l’article [BERE-97], qui va être soumi à la revue Signal<br />
Processing, et dont le texte est reproduit ci-dessous.<br />
Robustness of Optimum Uniform Quantizers to a Mismatched Statistical<br />
Model.<br />
1. Introduction<br />
This paper gives a theoretical study of quantizer mismatch with scalar uniform quantizers.<br />
The current work was carried out in view of practical applications to transform image<br />
coding. The results are however applicable to the quantization of any waveform by a<br />
scalar uniform quantizer.<br />
The coding or <strong>compression</strong> of a digital signal facilitates its transmission and archive.<br />
Compression is often the only viable solution for transmitting large images over limited<br />
bandwidth channels, or for long term storage of large amount of data. A typical lossy<br />
<strong>compression</strong> system includes a signal transformation, commonly by discrete cosine<br />
transform or by filter banks, in order to decorrelate the signal and to compact its energy<br />
into a small number of coefficients. In such systems, called transform coding, the signal<br />
transformation is followed by quantization, a conversion of the transformed signal into a<br />
small number of levels. The quantization is non-invertible, and yields a lossy <strong>compression</strong>.<br />
The last operation of a transform coding system is an entropy coding that reduces the<br />
remaining redundancy of the quantized transformed coefficients.<br />
Quantization is the key operation of <strong>compression</strong> schemes because it must both preserve<br />
the features that are relevant to the end-user after signal reconstruction, and reduce the<br />
data rate (i.e. number of bits per signal sample). There are two main categories of<br />
quantizers: the scalar quantizer (SQ), and the vector quantizer (VQ). The SQ quantifies<br />
individual samples by mapping them into a limited set of values. In contrast, the VQ<br />
quantifies blocks of samples by mapping them into a limited set of blocks (called<br />
codewords). Vector quantization is an extension of scalar quantization to dimensional<br />
spaces higher than 1. In his fundamental work on rate-distortion theory, Shannon proved<br />
- 97 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
that a VQ can always achieve better coding performances than a SQ [SHAN-59]. In<br />
practice, VQ is complex to implement. It requires a training phase in order to determine<br />
the dictionary of output codewords based on a number of test images. The coding phase<br />
consists of matching the encountered waveform blocks with the closest codeword. Both<br />
operations are complex. Only the decoding phase is very simple. Because of VQ’s<br />
complexity and long coding times, SQ has been extensively studied [MAX-60], [GISH-68],<br />
[WOOD-69], [BERG-72], [GERS-78], [BERG-82], and utilized for image coding in the<br />
seventies and eighties. With the advance of computer technology, VQ was given more<br />
attention in the eighties and nineties [GERS-82], [GRAY-84]. However, scalar quantization<br />
recently regained attention with the contributions of [SHAP-93], [SAID-96], and remains<br />
widely used in transform coding because of its simplicity. Image coding standards<br />
extensively use scalar uniform quantizer, e.g. JPEG [PENN-93] and MPEG [LEGA-92].<br />
With a scalar quantizer, the individual input samples are divided in threshold intervals,<br />
which boundaries are the threshold levels. All the values lying within a threshold interval<br />
are mapped into a single quantization level. The mapping of the input values into a limited<br />
number of quantization levels results in a distortion. Four types of scalar quantizers are<br />
principally considered in the literature. Their definition is given in the following.<br />
Definition 1: An N-level pdf-optimized quantizer is a quantizer that minimizes the average<br />
distortion for a fixed number of levels N. This is the Max-Lloyd quantizer [MAX-60]. The<br />
threshold and quantization levels are not uniformly spread over the input and the output<br />
range.<br />
Definition 2: An N-level minimum-distortion uniform-threshold quantizer is a quantizer that<br />
minimizes the average distortion for a fixed number of levels N, with uniform threshold<br />
levels and non-uniform quantization levels.<br />
Definition 3: An N-level minimum-distortion uniform quantizer is a quantizer that minimizes<br />
the average distortion for a fixed number of levels N, with both uniform threshold and<br />
uniform quantization levels.<br />
With the quantizers of definition 1, 2, and 3 the bit rate is not controlled.<br />
Definition 4: An N-level entropy-constrained optimum quantizer is a quantizer that<br />
minimizes the average distortion at a given bit rate.<br />
A minimum-distortion uniform quantizer followed by entropy coding gives better<br />
performance than the Max-Lloyd quantizer (without entropy coding) in terms of ratedistortion<br />
[JAIN-89 pp115-117]. Other advantages of the uniform quantizer are both the<br />
small amount of overhead data, and the simplicity of its implementation. For these<br />
reasons, we limited the scope of this work to the uniform quantizer.<br />
Two approaches are possible: either the quantizer is adapted to the properties of each<br />
input signal, or it is fixed for a class of signals. In the first approach, the quantization is<br />
adaptive, and the computational cost is high. The second approach, non-adaptive<br />
quantization, is the one addressed in this paper. A non-adaptive quantizer is designed for<br />
a class of signals which are assumed to have similar properties, and in particular the same<br />
probability density function (pdf). A major concern in practical applications of coding is the<br />
robustness of the quantizer regarding possible variation of the input-signals pdf. Our<br />
objective is to address this robustness with the uniform quantizer by studying the effect of<br />
a possible mismatch of the input pdf compared with the pdf expected in the quantizer<br />
design. We consider both minimum-distortion uniform quantizers (definition 3) and<br />
entropy-constrained optimum uniform quantizers (definition 4). We assume that the input<br />
signal follows a generalized Gaussian (GG) distribution, which covers a wide range of<br />
signals found in practical applications. Signal modeling by the GG pdf includes the<br />
Laplacian and the Gaussian pdf. GG pdfs are encountered in DPCM [CUTL-52], [JAIN-<br />
- 98 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
89], cosine transform [REIN-83], [MULL-93], [JOSH-95], [MOSH-96], wavelet transform<br />
[MALL-89], [BARL-94] or subband coding [WOOD-86], [WEST-88].<br />
Although scalar quantizers have been widely studied in the years 1970-80, to our<br />
knowledge the robustness of the uniform quantizer has not yet been addressed. A<br />
detailed study of the robustness of the Max-Lloyd quantizer (definition 1) was reported in<br />
[MAUE-79], and used in [JAYA-84]. We found no study about the mismatch of uniform<br />
quantizers from definition 3 and 4.<br />
In this paper, we use the Mean Square Error (MSE) and the Signal to Noise Ratio (SNR)<br />
as measures of distortion. We present the deviation of the MSE and the SNR due to a<br />
quantizer designed with a pdf model that differs from the actual pdf of the input-signal.<br />
Section 2 gives the mathematical expression of the MSE and the entropy with a<br />
generalized Gaussian pdf, then the analysis of the uniform quantizer properties, and finally<br />
the analytical formulation of the rate-distortion optimization of entropy constrained uniform<br />
quantizers. In section 3, mismatch of the quantizer relative to the shape parameter of the<br />
input pdf, and mismatch relative to the variance are addressed. Finally, section 4<br />
summarizes our findings and discuss them in comparison to related works.<br />
2. Matched uniform quantizers with generalized Gaussian distributions<br />
2.1 Notation<br />
A scalar quantizer is a staircase function that maps the input values into a smaller range<br />
of output levels. The quantizer maps a continuous random variable X into a discrete<br />
random variable X ~<br />
. The range of the input values is divided into N=L+1 adjacent<br />
intervals, which boundaries are the threshold levels t 0 , t 1 , ..., t N . The output belongs to a<br />
finite set of quantization levels {l 0 , l 1 , ..., l L}. If the i th input value x(i) lies between the<br />
threshold levels t j and t j+1 , then it is mapped into an output value x ~ (i)= l j. A uniform<br />
quantizer is defined by the number of threshold intervals N and the quantization step size<br />
q. The number of quantization levels is also equal to N. The threshold and the<br />
quantization intervals are all constant and equal to q. Midtread quantizers are symmetrical<br />
with a central quantization level l L/2 =0, their number of quantization levels is always odd.<br />
Midrise quantizers have an even number of quantization levels; they cannot reconstruct a<br />
zero-value because zero is a threshold level. We limited this study to scalar uniform<br />
midtread quantizers, an example of which is shown in figure 1. Extension to midrise<br />
quantizers would follow similar derivations.<br />
- 99 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
t 0=- ∞<br />
l L=L.q<br />
t 1=<br />
-L/2.q+q/2<br />
t 2 l 2<br />
l<br />
..<br />
l 3=<br />
l 0 =-L.q/2<br />
l 6=<br />
t 6=t L<br />
L/2q-q/2<br />
N=L+1=7<br />
t N=+ ∞<br />
Figure 1: Characteristic of a midtread quantizer.<br />
x<br />
2.2 Mean Square Error of uniform quantizers with GG pdf<br />
The mean square error (MSE) of a quantizer is defined by:<br />
~<br />
D(q) = ∫ ( x−<br />
x)² p( x)<br />
dx<br />
(1)<br />
where p(x) is the pdf of the input random variable X.<br />
Without lack of generality, we assume that X is a zero-mean random variable, with<br />
variance σ 2 . For a uniform midtread quantizer with N=L+1 quantization levels, with a<br />
quantization step q, the MSE is:<br />
D(q)= D g (q) + D o (q) (2)<br />
where<br />
D g (q) = 2 {<br />
L<br />
2<br />
∑<br />
j=<br />
1<br />
( j−12<br />
/ ) q<br />
∫ [ x−( j−1) q]² p( x)<br />
dx+<br />
( j−1)<br />
q<br />
and<br />
∞ L<br />
D o (q)= 2 ∫L ( x − q )² p ( x ) dx<br />
q 2<br />
2<br />
L<br />
2<br />
∑<br />
j=<br />
1<br />
jq<br />
∫ ( x−<br />
jq)² p( x)<br />
dx}<br />
12<br />
( j−<br />
/ ) q<br />
The terms D g (q) and D o (q) refer to two different kinds of errors. D o (q) becomes important<br />
when extreme values of the input are saturated by the quantizer, i.e. the range of the input<br />
values exceeds the range of the quantizer threshold levels. This is commonly referred to<br />
as the overload distortion. This distortion is high if some input values that have a rather<br />
high probability are saturated. Conversely, D g (q) becomes high when the full range of the<br />
input values is quantized, but in a coarse manner. This is called the granular noise.<br />
Granular noise and overload distortion have a different impact on the perceptual<br />
annoyance in image coding.<br />
- 100 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
The input-signal may follow a great variety of distributions, and for a broad investigation of<br />
the quantization error we used the generalized Gaussian distribution<br />
p X (x) = K e −( x<br />
) β<br />
α<br />
(3)<br />
where<br />
β<br />
K = , α and β >0, and where Γ (x) is the gamma distribution.<br />
2αΓ( 1 β) Γ( 3 β)<br />
The variance of this pdf is σ² = α²<br />
.<br />
Γ( 1 β)<br />
Particular cases of the generalized Gaussian distribution are the Laplacian pdf: β=1, and<br />
the Gaussian pdf: β =2. When β → 0 , the distribution tends towards an impulse. When<br />
1<br />
β →∞, the distribution is uniform, it can easily be demonstrated that its height is<br />
2σ<br />
3<br />
and its width 2σ<br />
3. Similarly, when σ²→ 0 the distribution tends towards an impulse.<br />
When σ²→ ∞, the distribution becomes wider and wider, its amplitude tends towards zero.<br />
σ 2 =1 β=1<br />
(a)<br />
(b)<br />
Figure 2: Pdf of Generalized Gaussian distributions.<br />
Figure 2 gives plots of generalized Gaussian distributions for various values of β and σ².<br />
As shown in figure 2, the shape of the distribution can be modified by varying the<br />
parameter β without changing the variance. The parameter β is referred to as the shape<br />
parameter. In image transform coding based on Discrete Cosine Transform (DCT) or<br />
Subband Band Coding (SBC), the values of β encountered in practice are often in the<br />
range of 0.5 to 1.<br />
- 101 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
The quantization error D(q) can be derived by incorporating (3) into (2). The result is<br />
D(q)= D g (q) + D o (q) (4)<br />
where<br />
L<br />
D g (q) =2K α 2<br />
β j<br />
and<br />
∑<br />
{α ² Γ( C)[ γ ( b , C) − γ ( b , C)]<br />
3 1<br />
= 1<br />
−2 α γ<br />
3<br />
−γ<br />
1<br />
jq Γ( D)[ ( b , D) ( b , D)]<br />
+ jq ² ² Γ( E)[ γ ( b3, E) −γ<br />
( b1, E)]<br />
+ 2qαΓ( D)[ γ ( b2, D) −γ<br />
( b1, D)]<br />
−( 2j −1) q² Γ( E)[ γ ( b2, E) −γ ( b1, E)]<br />
}<br />
D o (q) = 2K α β { α ² Γ ( C )[ − γ ( b , C )]<br />
1 4<br />
−LqαΓ( D)[ 1 −γ<br />
( b4<br />
, D)]<br />
Lq ²²<br />
+ Γ ( E )[ 1 −γ ( b4<br />
, E )] }<br />
4<br />
with<br />
Γ( 1 β)<br />
β<br />
α² = σ²<br />
, K =<br />
Γ( 3 β)<br />
2αΓ( 1 β) ,<br />
C = 3/β, D = 2/β, E = 1/β,<br />
⎛<br />
b 1 = ( j − 1<br />
⎜<br />
) q ⎞<br />
⎟<br />
⎝ α ⎠<br />
β<br />
; b 2 =<br />
⎛ ( j − 1 / 2<br />
⎜<br />
) q ⎞<br />
⎟<br />
⎝ α ⎠<br />
β<br />
⎛<br />
; b 3 = jq<br />
β<br />
⎛ ⎞<br />
⎜<br />
⎜ ⎟ ; b<br />
⎝ α ⎠ 4 = ⎜<br />
⎜<br />
⎝<br />
and where γ denotes the incomplete gamma function.<br />
Figure 3 illustrates the quantization error (4) as a function of the quantization step q, for a<br />
fixed number of levels N=15, with β =1, and σ ²=1.<br />
N=15<br />
β=1<br />
σ 2 =1<br />
L q<br />
2<br />
α<br />
β<br />
⎞<br />
⎟<br />
⎟<br />
⎟<br />
⎠<br />
D<br />
Figure 3: Quantization error D as a function of the quantization step q.<br />
The quantization error reaches a minimum for a value of q denoted here q opt/D . The MSE<br />
is also a function of the number of steps N, of the shape parameter β, and of the variance<br />
σ².<br />
- 102 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
2.3 Minimum-MSE uniform quantizer<br />
The quantization step that minimizes the MSE is obtained by differentiating D(q) with<br />
respect to q and equating the result to zero.<br />
The differentiate of D(q) is:<br />
dD (q)<br />
dq<br />
where<br />
dD (q)<br />
g<br />
dq<br />
and<br />
dDo( q )<br />
dq<br />
=<br />
dD (q)<br />
g<br />
dq<br />
L<br />
= 2 K α 2<br />
β j<br />
∑<br />
= 1<br />
= 2 KL<br />
α<br />
β { L 2<br />
+ dD o( q)<br />
dq<br />
{ -2j αΓ( D)[ γ ( b , D) − γ ( b , D)]<br />
3 1<br />
+ j 2 2q Γ( E)[ γ ( b , E) − γ ( b , E)]<br />
3 1<br />
+ 2 α Γ( D)[ γ ( b2, D) − γ ( b1, D)]<br />
- (2j-1) 2q Γ( E)[ γ ( b , E) − γ ( b , E)]<br />
2 1<br />
q Γ( E )[ − γ ( b , E )] - αΓ( D)[ − γ ( b , D)]<br />
}<br />
1 4<br />
1<br />
4<br />
(5)<br />
Our equation allows the calculation of q opt/D for GG pdf with any value of the parameters.<br />
Usually books give tables of q opt/D for a set of values of N, and only for a few distributions<br />
like the Laplacian and the Gaussian ones [JAIN-89]. Formula (5) allows to determine the<br />
quantization step of the minimum-MSE uniform quantizer by solving the non-linear<br />
equation dD ( q ) =0. We used toolboxes of the MatLab ® package from MatWorks, which<br />
dq<br />
resolves non-linear equations by the Gauss-Newton method.<br />
Figure 3 shows that the penalty for choosing q too small compared with q opt/D is much<br />
more important than the penalty for choosing q too high. The overload and granularity<br />
error curves provide an insight to the penalties observed when q departs from q opt/D . The<br />
optimum quantization step is reached when the sum of the overload and granularity noise<br />
is minimal. Below q opt/D the overload error is dominant, and above q opt/D , the granularity<br />
error is dominant. The MSE increases more rapidely with increasing overload than with<br />
increasing granularity.<br />
If the quantization step q is not the minimum-distorsion value, overload distortion<br />
should be carefully avoided because it is more penalizing than granularity. In<br />
practical situations, it is preferable to over-estimate q as compared with q opt/D rather<br />
than under-estimate it.<br />
- 103 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
β=1<br />
σ 2 =1<br />
β=1<br />
σ 2 =1<br />
D<br />
(a)<br />
(b)<br />
N=15<br />
σ 2 =1<br />
N=15<br />
σ 2 =1<br />
D<br />
N=15<br />
β=1<br />
(c)<br />
(d)<br />
N=15<br />
β=1<br />
D<br />
(e)<br />
Figure 4: MSE and SNR as a function of the quantization steps, for different values<br />
of N, β, and σ².<br />
Figure 4 shows the MSE as a function of q, given various numbers of quantization levels N<br />
(figure 4-a), shape parameters β (figure 4-c), and variances σ 2 (figure 4-e).<br />
A plot of the Signal to Noise Ratio (SNR),<br />
with SNR = 10 log 10 (σ ²/MSE), is added as a companion of the MSE (figure 4-b, 4-d, and<br />
4-f).<br />
Figure 4-a & b show, as expected, that large values of N result in a low distortion. In<br />
addition, as q →∞, all the MSE curves for various values of N converge towards the<br />
same asymptotic curve.<br />
In spite of what a prime interpretation of the influence of β on q opt/D could suggest, figure 4-<br />
c & d show that the values of the optimal quantization step decrease as the shape<br />
parameter increases. One could have expected q opt/D to increase with β, in order to limit<br />
- 104 -<br />
(f)
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
the overload. However, when the shape parameter β increases, the pdf tends toward the<br />
uniform distribution, as seen on figure 2-a. For uniform quantizers with a uniform pdf, the<br />
whole input range is used, the saturation distortion tends toward zero. Thus, when β<br />
increases, the pdf-optimization procedure yields small values of q opt/D in order to limit the<br />
granularity distortion. When properly optimized, quantizers with large β pdf will perform<br />
better than quantizers with small β pdf. However, a quantization step different from q opt/D is<br />
more penalizing for large β than for small β.<br />
In practical situations, minimum-MSE uniform quantizers with input pdf of large<br />
shape parameters will perform better than with input pdf of small shape parameters.<br />
But the penalty for having a poor optimization of the quantization step is more<br />
important with large shape parameter pdfs.<br />
Concerning the influence of σ² on q opt/D , figure 4-e & f show that the values of the optimal<br />
quantization step increase as the variance increases. Pdfs with a large variance are widely<br />
spread but they do not tend towards a uniform pdf, their shape remains that of a<br />
generalized Gaussian distribution. The saturation has to be limited during the quantizer<br />
optimization process by having a large quantization step. Figure 4-f shows that uniform<br />
quantizers with various input pdf variance have all the same maximum SNR value.<br />
However, the penalty for poorly optimized quantizers is higher with small variances.<br />
In practical situations, minimum-MSE uniform quantizers having different variances<br />
perform identically in terms of SNR. But the penalty for having a poor optimization<br />
of the quantization step is more important with small variance pdfs.<br />
2.4 Entropy of uniform quantizers with GG pdf<br />
The entropy of the output of a quantizer is the minimum amount of information to be<br />
transmitted in order to be able to reconstruct the quantizer output with an arbitrarily small<br />
error. It is also referred to as the lower bound data rate, or bit rate for a given distortion. It<br />
is expressed in bits per sample (bps). It is given by:<br />
p<br />
p<br />
H Q = -∑ log ( ) bits/sample (6)<br />
i<br />
i<br />
2<br />
i<br />
Application of formula (6) to uniform midtread quantizers yields:<br />
H Q = -2 {<br />
where<br />
p j =<br />
p 0 =<br />
p ∞<br />
=<br />
( j+<br />
12 / ) q<br />
∫( j−<br />
12 / ) q<br />
q / 2<br />
∫<br />
0<br />
∞<br />
∫L−<br />
1 q<br />
2<br />
L<br />
−<br />
2 1 ∑ p p<br />
j 2 j<br />
j = 1<br />
pxdx ( )<br />
pxdx ( )<br />
pxdx ( )<br />
log ( ) + p 0 log 2 (p 0 ) + p ∞<br />
log 2 (p ∞<br />
) } (7)<br />
- 105 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
Incorporating the pdf definition (3) into (7) results in:<br />
p j = K α Γ( )[ ( , ) ( , )]<br />
β E γ b E γ b E<br />
5 − 2<br />
p 0 = K α β Γ( E) γ ( b , E)<br />
6<br />
p ∞<br />
= K α Γ( )[ ( , )]<br />
β E 1 − γ b E 7<br />
(8)<br />
with<br />
( j − / ) q<br />
b 2 =<br />
⎛ 1 2<br />
⎜<br />
⎞<br />
⎟<br />
⎝ α ⎠<br />
β<br />
( j + / ) q<br />
b 5 =<br />
⎛ 1 2<br />
⎜<br />
⎞<br />
⎟<br />
⎝ α ⎠<br />
β<br />
b 6 =<br />
⎛<br />
⎜<br />
⎝<br />
q /2<br />
α<br />
⎛ L − 1<br />
β<br />
q<br />
⎞<br />
⎞<br />
⎜<br />
⎟ b<br />
⎠ 7 =<br />
2<br />
⎟<br />
⎜ ⎟<br />
⎜ α ⎟<br />
⎝ ⎠<br />
β<br />
β=1<br />
σ 2 =1<br />
(a)<br />
N=15<br />
σ 2 =1<br />
Ν=15<br />
β=1<br />
(b)<br />
Figure 5: Entropy as a function of the quantization steps for different values of N, β,<br />
and σ².<br />
Figure 5 plots the entropy of formula (7) as a function of q, for different values of N, β, and<br />
σ². There is a value of q that maximizes the entropy, denoted q opt/R .<br />
As expected, the entropy of quantizers with a large number of levels N is greater than the<br />
entropy of quantizers with small N, and q opt/R decreases with increasing N.<br />
q opt/R increases with increasing β (on the contrary, q opt/D decreases with increasing β). The<br />
entropy of minimum-MSE quantizers increases with increasing β.<br />
q opt/R increases with increasing σ² (similarly, q opt/D increases with increasing σ²). The<br />
entropy of minimum-MSE quantizers is independant of σ².<br />
- 106 -<br />
(c)
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
2.5 Entropy-constrained uniform quantizer with GG pdf<br />
The quantization step of an entropy-constrained quantizer should minimize the distortion<br />
subject to a fixed entropy constraint H 0 . Using to the Lagrangian multiplier method, the<br />
solution of this problem minimizes the following functional:<br />
J(q) = D(q) + λ [H Q (q)- H 0 ] (9)<br />
By differentiating J(q) with respect to q and λ, equating the result to zero, and choosing λ<br />
so that H(q) = H 0 , the problem is to solve the system of non-linear equations:<br />
⎧dJ<br />
dD( q) dH( q)<br />
= 0⇒ + λ = 0<br />
⎪dq<br />
dq dq<br />
⎨<br />
⎪dJ<br />
= 0⇒ Hq ( ) − H = 0<br />
⎩⎪<br />
0<br />
dλ<br />
(10)<br />
After incorporating formulas (5) and (A1), from the appendix, into (10), we are able to<br />
resolve (10) for any a priori number of levels N, any fixed entropy H 0 , and any GG input<br />
pdf. We used MatLab ® toolboxes that resolve sets of non-linear equations with the Gauss-<br />
Newton method.<br />
Our approach results in a practical method for designing N-level entropy-constrained<br />
uniform quantizers (definition 4). Note that minimum-MSE uniform quantizers (definition 3)<br />
are designed simply by taking λ=0 and relaxing the constraint H(q)- H 0 .=0.<br />
The performance of an entropy-constrained optimum quantizer is assessed by its ratedistortion<br />
curve R(D).<br />
It is well known that for each pdf there exists a bound, called the rate-distortion bound<br />
R B (D), such that:<br />
R(D) ≥ R B (D) (11)<br />
The minimum bit rate needed to transmit a quantized signal is determined by the entropy<br />
of the quantizer output. This entropy H Q is given by:<br />
H Q ≈ H s - log 2 (q) (12)<br />
Where H s is the differential entropy of the source:<br />
+∞<br />
H s = - ∫ px ( )log pxdx ( )<br />
(13)<br />
−∞<br />
2<br />
For minimum-MSE uniform quantizers, the uniform pdf yields the lowest possible<br />
distortion. According to the well-known formula of the distortion for uniform quantizers with<br />
a uniform pdf, we have:<br />
2<br />
D β =∞<br />
≈ q β =∞<br />
(15)<br />
12<br />
The entropy of the quantizer output can be bounded by H Q for q β =∞<br />
. Incorporating (14)<br />
into (12) results in the Gish-Pierce asymptote of the rate-distortion performance.<br />
Figure 6 shows an example of R(D) curve for a 15-levels uniform quantizer with a<br />
Laplacian unity variance pdf (β=1 and σ²=1). The relation between the entropy R, the<br />
quantization step q, and the distortion D is shown on the figure. The R(D) curve (figure 6-<br />
b) has an optimum that is reached when the best compromise between the highest rate<br />
and the lowest distortion is achieved. This point corresponds to the optimum entropy-<br />
- 107 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
constrained uniform quantizer. Its quantization step is denoted q opt/R-D . Below or above this<br />
optimum quantization step, the distortion is higher (figure 6-b and c). For q> q opt/R-D the<br />
entropy is lower, and for q< q opt/R-D the entropy is higher which is less favorable to<br />
<strong>compression</strong> (figure 6-a).<br />
Similarly to minimum-MSE quantizers, for entropy-constrained quantizers it is<br />
preferable to over-estimate q as compared to q opt/R-D rather than to under-estimate it.<br />
4<br />
4<br />
3.5<br />
3.5<br />
3<br />
3<br />
2.5<br />
2.5<br />
2<br />
2<br />
1.5<br />
1<br />
1.5<br />
1<br />
Gish-Pierce<br />
lower bound<br />
0.5<br />
0 0.5 1 1.5 2 2.5<br />
(a)<br />
N=15<br />
β=1<br />
σ²=1<br />
0.5<br />
-40 -35 -30 -25 -20 -15 -10 -5<br />
2.5<br />
(b)<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
-40 -35 -30 -25 -20 -15 -10 -5<br />
Figure 6: Rate-distortion performance R(D) of matched uniform quantizers (6-b),<br />
correspondence with the curves R(q) (6-a), and q(D) ( 6-c).<br />
(c)<br />
- 108 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
N=63<br />
GP: Gish-Pierce<br />
lower bound<br />
N=31<br />
N=15<br />
N=7<br />
β=1<br />
σ²=1<br />
N=3<br />
-1<br />
-60 -50 -40 -30 -20 -10 0<br />
(a)<br />
6<br />
6<br />
5<br />
4<br />
3<br />
β=3.0<br />
N=15<br />
σ²=1<br />
β=2.0<br />
β=1.0<br />
β=0.5<br />
GP β=3.0<br />
GP σ2=0.5, 1.0, 2.0, & 3.0<br />
5<br />
4<br />
3<br />
N=15<br />
σ²=1<br />
σ 2 =0.5, 1.0, 2.0, & 3.0<br />
2<br />
1<br />
GP β=2.0<br />
GP β=1.0<br />
2<br />
1<br />
0<br />
GP β=0.5<br />
0<br />
-1<br />
-60 -50 -40 -30 -20 -10 0<br />
-1<br />
-60 -50 -40 -30 -20 -10 0<br />
(b) (c)<br />
Figure 7: Rate-distortion performance R(D) of matched uniform quantizers.<br />
Figure 7 shows the rate-distortion performance of entropy-constrained uniform quantizers,<br />
given various values of N (figure 7-a), β (figure 7-b), and σ² (figure 7-c).<br />
As expected, large values of N result in entropy-constrained quantizers with a high entropy<br />
and a low distortion (figure 7-a). The R(D) performance is closer to the Gish-Pierce lower<br />
bound for large N. The difference between the lower bound is less than 0.5 bit with 63<br />
levels and more than 1 bit with 7 levels and less (β=1 and σ²=1).<br />
The performance of optimum entropy-constrained uniform quantizers increases with<br />
increasing β (figure 7-b). But the distortion increase, when one departs from the optimum,<br />
also increases with β.<br />
The performance of entropy-constrained uniform quantizers is independant of the<br />
variance, whether they are optimum or not.<br />
These observations are similar to the findings of section 2.3 for minimum-MSE quantizers.<br />
3. Mismatched uniform quantizers<br />
3.1 Mismatch relative to the shape<br />
Quantizer mismatch refers to practical situation of non-adaptive quantization when the<br />
input pdf is different from the pdf expected for the design of the quantizer. Shape<br />
mismatch occurs when the shape parameter β X of the input signal pdf differs from the<br />
- 109 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
shape parameter β Q used for the quantizer design (i.e. for determining the optimum<br />
quantization step<br />
q<br />
opt<br />
β Q<br />
). Various generalized Gaussian pdf shapes were given in figure 2-a<br />
with a fixed variance σ ²=1. Without lack of generality, unit variance pdfs will be<br />
considered throughout of the current section.<br />
3.1.1 Minimum-MSE uniform quantizers<br />
As a first insight regarding the effect of the shape parameter on the quantizer, figure 8<br />
gives the distortion as a function of β for MSE-optimized quantizers, i.e. when q opt/D is<br />
evaluated and used for each point of the curve. Figure 8 shows that the distortion of<br />
minimum-MSE uniform quantizers decreases with increasing β.<br />
D<br />
0.5<br />
0.45<br />
0.4<br />
0.35<br />
0.3<br />
0.25<br />
0.2<br />
0.15<br />
0.1<br />
0.05<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
N=3<br />
N=7<br />
N=15<br />
N=31<br />
N=63<br />
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
N=63<br />
N=31<br />
N=15<br />
N=7<br />
N=3<br />
Figure 8: Distortion of matched minimum-MSE uniform quantizers as a function of<br />
the shape parameter β .<br />
Figure 9 illustrates the relative performance of uniform quantizers when the quantization<br />
step departs from the optimum, i.e. in case of mismatch relative to the shape parameter. It<br />
shows the distortion as a function of β, each curve being computed with only one value of<br />
q opt/D . Figure 9-b shows that when β X β Q , the SNR is slightly higher than expected. For β X much greater<br />
than β Q , the SNR reaches an asymptote. If the input pdf has a shape parameter higher<br />
than the quantizer shape parameter, the quantizer performance for this input pdf will be<br />
slightly better than expected because the input pdf is closer to the uniform pdf than the<br />
quantizer pdf itself.<br />
- 110 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
0.5<br />
0.45<br />
0.4<br />
0.35<br />
q opt/D , β=3<br />
N=15<br />
σ 2 =1<br />
22<br />
20<br />
18<br />
16<br />
q opt/D , β=3<br />
q opt/D , β=2<br />
q opt/D , β=1<br />
D<br />
0.3<br />
0.25<br />
0.2<br />
0.15<br />
q opt/D , β=2<br />
q opt/D , β=1<br />
q opt/D , β=.5<br />
SNR<br />
14<br />
12<br />
10<br />
8<br />
q opt/D , β=.5<br />
0.1<br />
6<br />
0.05<br />
4<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
beta<br />
2<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
beta<br />
Figure 9: MSE and SNR as a function of the shape parameter β for different values<br />
of q opt/D : shape mismatch.<br />
As an example using data from figure 9-b, if the quantizer was optimized for β Q =2, and the<br />
input is β X =0.5, then the expected SNR is 18.5 dB, but the observed SNR is only 8 dB.<br />
Choosing a model pdf with a too high shape parameter compared with the real input<br />
results in a poor quantizer performance compared with expection. If β Q =0.5, and β X =2,<br />
then the expected SNR is 11.5 dB, but the observed SNR is slightly higher: 13 dB.<br />
Choosing a too small shape parameter for the quantizer compared with observed<br />
input pdf parameters does not degrade the quantizer performance. It slightly<br />
increases it compared with expectation, but the global quantizer performance<br />
remains relatively poor.<br />
The study of the quantizer robustness in terms of SNR when the input shape parameter<br />
deviates from its expected is of major interest. Figure 10 shows the deviation ∆β/β about<br />
the MSE-optimum β Q , assuming that a SNR deviation of ± 0.5 dB is acceptable. A<br />
deviation of -0.5 dB is observed when β X β Q . A small deviation of β X is enough to yield a loss of 0.5dB, especially for small input<br />
pdf shape parameters β X . Clearly, the robustness increases with β. This finding is in<br />
accordance with the discussion of figure 4-c&d, and 8.<br />
0.25<br />
0.2<br />
0.15<br />
0.1<br />
0.05<br />
0<br />
-0.05<br />
-0.1<br />
-0.15<br />
0.5 1.0 2.0 3.0<br />
β<br />
N=15<br />
σ²=1<br />
+0.5dB<br />
-0.5dB<br />
Figure 10: Range of the shape parameter for a deviation of +/-0.5dB<br />
3.1.2 Entropy-constrained uniform quantizers<br />
This section addresses the relative performance of matched and mismatched entropyconstrained<br />
quantizers with respect to the shape parameter.<br />
- 111 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
In figure 11-a, the quantizer is matched for a Laplacian pdf (β=1). When the targeted<br />
entropy is above the optimum point of the matched quantizer, it is favorable to have an<br />
input pdf with β X >β Q because the real entropy is comparable to expectations, and the<br />
distortion is much lower. Here, β X β Q does<br />
not make much difference. Having β X
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
1<br />
0.9<br />
β=1<br />
N=3<br />
60<br />
55<br />
N=63<br />
0.8<br />
0.7<br />
50<br />
45<br />
N=31<br />
D<br />
0.6<br />
0.5<br />
40<br />
35<br />
N=15<br />
0.4<br />
30<br />
0.3<br />
N=7<br />
25<br />
N=7<br />
0.2<br />
0.1<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
N=15<br />
N=31<br />
N=63<br />
20<br />
15<br />
10<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
N=3<br />
Figure 12: Distortion of minimum-MSE quantizers as a function of the variance σ ².<br />
The value of the input pdf variance does not influence the SNR performance of<br />
minimum-MSE uniform quantizers. This can obviously be also deducted from section<br />
2.3 and figure 4-e & f.<br />
This results is known [JAIN-89], but the equation (4) does not shoew an obvious linear<br />
relationship between the distostion and the variance.<br />
Figure 13 illustrates the relative performance of uniform quantizers when the quantization<br />
step departs from the optimum. It shows the distortion as a function of σ ², each curve<br />
being computed with only one value of q. Figure 13-b shows that whenσ ² X ≠σ ² Q , , the<br />
SNR is lower than at the optimal point σ ² X =σ ² Q . The penalty for under-estimating the<br />
variance is slightly higher than the penalty for over-estimating the variance because the<br />
overload distortion rises very rapidely when the variance is greater than expected (see<br />
figure 3 and 4).<br />
0.6<br />
0.5<br />
0.4<br />
q opt/D , σ 2 =.5<br />
16<br />
15<br />
14<br />
13<br />
q opt/D , σ 2 =3<br />
q opt/D , σ 2 =2<br />
D<br />
0.3<br />
0.2<br />
0.1<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
s2<br />
q opt/D , σ 2 =1<br />
q opt/D , σ 2 =2<br />
q opt/D , σ 2 =3<br />
SNR<br />
12<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
s2<br />
q opt/D , σ 2 =1<br />
q opt/D , σ 2 =.5<br />
Figure 13: Distortion as a function of the variance σ² for different values of q opt/D .<br />
As an example using data from figure 13-b, if σ ² Q =2, and σ ² X =0.5, then the expected<br />
SNR is 15.5 dB, but the observed SNR is only 11.3 dB. If σ ² Q =0.5, and σ ² X =2, then the<br />
expected SNR is also 15.5 dB (because the minimum-MSE quantizer performance is<br />
independent of the variance), but the observed SNR is only 10.3 dB.<br />
- 113 -
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
All matched minimum-MSE quantizers perform the same regarding the variance.<br />
Mismatch of the quantizer relatively to the input variance is always penalizing<br />
especially if the input variance is smaller than the variance of the quantizer.<br />
3.2.2 Entropy-constrained uniform quantizer<br />
This section addresses the relative performance of matched and mismatched entropyconstrained<br />
quantizers with respect to the variance.<br />
Figure 14 shows the rate-distortion of the entropy-constrained quantizer with a variance<br />
mismatch, when the quantizer design is matched σ²=1.<br />
Variance mismatch has no effect on the performance of entropy-constrained<br />
quantizers. The only difference lies on the existence of points on the R(D) curve. When<br />
σ ² X
Chapitre I-5: Etude théorique de la robustesse du quantificateur uniforme optimum<br />
for determining minimum-MSE and entropy-constrained quantizers. With our quantizer<br />
design method, it is possible to study in detail the properties of minimum-MSE and<br />
entropy-constrained quantizers. Particularly, quantizer mismatch, when the input pdf<br />
differs from the pdf used for the quantizer design has not been extensively studied dispite<br />
its practical interest for memoryless source coding or non-adaptive quantization. [MAUE-<br />
79] reported results for mismatched Max-Lloyd quantizers. He found that the quantizer<br />
shape parameter should be chosen as a lower bound to the input shapes (β Q ≤ β X ) and<br />
that variance mismatch is not very critical. [JAYA-84] gives results of mismatch for nonuniform<br />
and uniform minimum-MSE quantizers, only with 4 levels. He suggests that in<br />
these conditions, the performance of uniform and non-uniform quantizers are very similar,<br />
and that the difference would be more significant at higher bit rates.<br />
Our results are in agreement with the previous findings, and extend them to more pdfs,<br />
more bite-rates, and to entropy-constrained quantizers. They lead to practical conclusions<br />
for the design of uniform midtread quantizers:<br />
• Influence of the shape parameter<br />
Let us assume that the input pdf shape parameters β X lies in an interval [β Xmin , β Xmax ]. If<br />
the quantizer is designed with β Q =β Xmin , i.e. the input shape parameter is always larger<br />
than the quantizer shape parameter, then the quantizer output distortion is lower than<br />
expected. The approach yields better performance than expected, but is conservative<br />
(better performance could be achieved for the highest values of β X ). In this situation, the<br />
quantizer mismatch corresponds to quantization steps always higher than the minimum-<br />
MSE optimum, and granularity error is important. The R(D) performance of an entropyconstrained<br />
quantizer with β Q =β Xmin is globally robust to shape mismatch, or gives better<br />
performance than expected. Conversly, if β Q =β Xmax the distortion will be higher than<br />
expected for small shape parameters. Here, the poor optimization results in a too small<br />
quantization step compared with the minimum-MSE, and the overload distortion is<br />
important. The R(D) performance of an entropy-constrained quantizer with β Q =β Xmin is not<br />
very robust to shape mismatch, yielding higher distortions than expected especially at<br />
higher rates. Under-estimating the shape parameter of the quantizer is penalizing,<br />
over-estimated it is slightly advantageous. The robustness of entropy-constrained<br />
quantizers increases with decreasing bit-rates.<br />
• Influence of the variance<br />
Let us assume that the input pdf variance σ 2 X lies in an interval [σ 2 Xmin , σ 2 Xmax ]. If the<br />
quantizer is designed with σ 2 Q = σ 2 Xmin , i.e. the input variance is always larger than the<br />
quantizer variance, then the quantizer output distortion is higher than expected. The<br />
approach yields worse results than expected, and worse than if σ 2 Q = σ 2 Xmax. In this<br />
situation, the quantizer mismatch corresponds to a quantization step always smaller than<br />
the minimum-MSE optimum, and overload error is important. The R(D) performance of an<br />
entropy-constrained quantizer with σ 2 Q = σ 2 Xmin or σ 2 Q = σ 2 Xmax is robust to variance<br />
mismatch. If σ 2 Q = σ 2 Xmax the distortion will be higher than expected. Here, the poor<br />
optimization results in a too large qiantization step compared with the minimum-MSE, and<br />
granularity distortion is happening. Mismatch of the quantizer relatively to the input<br />
variance is always penalizing. The entropy-constrained quantizers are robust to<br />
variance mismatch.<br />
- 115 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
CHAPITRE I-6<br />
APPLICATION DE L’ETUDE DE LA<br />
ROBUSTESSE DU QUANTIFICATEUR<br />
UNIFORME A LA COMPRESSION<br />
D’IMAGES PAR FF-DCT<br />
- 116 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
1. Introduction<br />
La quantification adaptative de chaque image est une opération coûteuse en temps de<br />
calcul. Il est intéressant de trouver une allocation de bits et des pas de quantification qui<br />
puissent être utilisés avec toute une classe d’images. Ceci nécessite une quantification<br />
robuste à la non-adaptation 1 des images par rapport au modèle statistique qui a été utilisé<br />
pour déterminer les paramètres de quantification. Nous avons expérimenté les résultats et<br />
recommendations déduits de notre étude de la robustesse du quantificateur scalaire<br />
uniforme avec des images d’angiographie dans notre approche de <strong>compression</strong> FF-DCT.<br />
Les point suivants ont été validés expérimentalement:<br />
• Apport du quantificateur uniforme optimisé par rapport au quantificateur uniforme non<br />
optimisé.<br />
• Robustesse de l’optimisation en utilisant les paramètres d’une image voisine de<br />
l’image quantifiée.<br />
• Robustesse du quantificateur modélisé à partir d’un ensemble d’images et effet de la<br />
non-adaptation.<br />
2. Ensemble d’images test<br />
Quatre images représentatives d’artères coronaires gauches ont été utilisées. Elles ont<br />
été choisies parmi les <strong>angiographies</strong> des campagnes d’évaluation. Les quatre images ont<br />
été renforcées avant la <strong>compression</strong>.<br />
Pour des raisons pratiques et de simplicité de mise en oeuvre, nous avons extrait une<br />
sous-image de 256x256 pixels à partir de chacune des images test. Tous les traitements<br />
ont été réalisés avec le logiciel Matlab de MathWorks.<br />
Parmi ces quatre images, deux sont des images successives dans une même séquence,<br />
(images dénommées TO et TT). Les deux autres appartiennent à des patients différents<br />
(images RU et SA). Toutes les quatre sont des artères coronaires gauche avec une lésion<br />
significative.<br />
1 Le terme non-adaptation est notre traduction de l’anglais “mismatch”<br />
- 117 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
image originale TO<br />
image originale TT<br />
image originale RU<br />
image originale SA<br />
Figure I-6.1: Images test (images 256x256 sur 8 bits, extraites d’images 512x512)<br />
3. Méthode de <strong>compression</strong><br />
3.1. FFDCT<br />
La DCT Full-Frame a été effectuée selon la formule (I-1.8), avec la normalisation donnée<br />
au chapitre I-3, section 2-2. Dans la définition de la DCT (I-1.8) (définition de JPEG), le<br />
coefficient de normalisation c(k,l) est tel que le maximum et le minimum possible du<br />
coefficient continu, ainsi que ceux des coefficients de la première ligne et de la deuxième<br />
colonne sont différents des maximum et minimum possibles pour les autres coefficients<br />
AC. La normalisation que nous avons introduite correspond à une modification de la<br />
définition de la DCT et donne des coefficients DCT qui ont tous le même maximum et<br />
minimum possibles. Cette définition est plus pratique pour les calculs d’optimisation basés<br />
sur l’énergie des différentes régions fréquentielles de la DCT, en permettant plus<br />
facilement des comparaisons. Elle donne un DC égal à la moyenne de l’image.<br />
3.2. Découpage circulaire<br />
Nous avons divisé chaque DCT 256x256 en 13 régions circulaires (voir chapitre I-3 et I-4,<br />
et figure I-3.3). La position des cercles et le nombre de coefficients des régions sont<br />
donnés dans la Table I-6. 1. Ces régions circulaires seront aussi dénommées “bandes<br />
circulaires” par la suite, par analogie avec la notion de sous-bandes de fréquences.<br />
- 118 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
n o ° 1 2 3 4 5 6 7 8 9 10 11 12 13<br />
region<br />
début 1 2 3 5 9 17 33 65 97 129 161 193 225<br />
fin 1 2 4 8 16 32 64 96 128 160 192 224 256<br />
nb<br />
coefs<br />
1 2 8 34 148 589 2395 400<br />
5<br />
7600 7223 8825 1044<br />
6<br />
26260<br />
Table I-6. 1: Position des rayons et nombre de coefficients des bandes circulaires<br />
(voir figure I-3.3).<br />
Nous n’avons pas redécoupé chaque région en zones de directionalité horizontale et<br />
verticale. Cela pourrait être fait sans difficulté.<br />
Chacune des bandes circulaires a été traitée comme un signal à quantifier, en utilisant les<br />
résultats de l’étude théorique du chapitre I-6 sur le quantificateur uniforme optimisé pour<br />
une distribution Gaussienne généralisée. Par rapport à nos précédentes expériences de<br />
<strong>compression</strong> FF-DCT (chapitre I-3 et I-4), nous abordons ici une méthode qui prend mieux<br />
en compte la distribution réelle des régions de la DCT.<br />
3.3. Evaluation des paramètres de la distribution des régions<br />
Pour chaque région circulaire, une estimation des paramètres de la distribution observée<br />
a été calculée. Nous avons utilisé une Gaussienne généralisée, selon la définition (I-6.3).<br />
Les paramètres définissant une Gaussienne généralisée sont le paramètre de forme β et<br />
la variance σ 2 . Ces paramètres sont utilisés dans la phase d’allocation des bits,<br />
permettant le calcul du pas de quantification optimal et de l’erreur théorique minimale de<br />
quantification.<br />
• Estimation de la variance.<br />
La variance a été estimée à partir des coefficients (dénotés x i ) de chaque bande<br />
circulaire, selon l’estimateur sans biais<br />
σ 2 1<br />
−<br />
2<br />
= ∑( xi<br />
− x)<br />
N −1<br />
i<br />
• Estimation des paramètres β , α et K de la Gaussienne généralisée.<br />
Ces paramètres peuvent être déduits des moments d’ordre 1 et d’ordre 2 des coefficients<br />
de chaque région, selon l’approche présentée dans [MALL-89].<br />
Les moments d’ordre 1 et d’ordre 2 d’une densité de probabilité p(x) sont définis<br />
respectivement par:<br />
+∞<br />
2<br />
m 1 = ∫ | xpxdx | ( ) et m 2 = ∫ x p( x)<br />
dx<br />
−∞<br />
+∞<br />
−∞<br />
(I-6.1)<br />
En insérant dans (I-9.1) la définition de p(x) donnée par la formule (I-6.3), on trouve:<br />
m 1 = 2K α 2<br />
β<br />
Γ( 2<br />
β<br />
) et m 2 = 2K α 3<br />
3<br />
β Γ( β ) (I-6.2)<br />
On en déduit:<br />
β = F -1 ( m 2<br />
1<br />
) avec F(u) =<br />
mN<br />
2<br />
2 2<br />
Γ( )<br />
u<br />
3 1<br />
Γ( ) Γ( )<br />
u u<br />
(I-6.3)<br />
- 119 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
et α =<br />
1<br />
m2Γ( )<br />
β<br />
3<br />
NΓ( )<br />
β<br />
K peut être calculé à partir de β et α (formule (I-6.3)).<br />
La Figure I-6. 2 montre quelques-uns des histogrammes estimés par cette méthode en<br />
comparaison avec les histogrammes observés.<br />
0.05<br />
0.05<br />
0.04<br />
0.03<br />
0.02<br />
0.01<br />
0<br />
-0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4<br />
0.045<br />
0.04<br />
0.035<br />
0.03<br />
0.025<br />
0.02<br />
0.015<br />
0.01<br />
0.005<br />
0<br />
-0.15 -0.1 -0.05 0 0.05 0.1 0.15<br />
région 5 région 7<br />
0.05<br />
0.045<br />
0.04<br />
0.035<br />
0.03<br />
0.025<br />
0.02<br />
0.015<br />
0.01<br />
0.005<br />
0<br />
-0.04 -0.03 -0.02 -0.01 0 0.01 0.02 0.03<br />
0.04<br />
0.035<br />
0.03<br />
0.025<br />
0.02<br />
0.015<br />
0.01<br />
0.005<br />
0<br />
-0.015 -0.01 -0.005 0 0.005 0.01 0.015 0.02<br />
région 9 région 11<br />
Figure I-6. 2: Histogrammes réels (ligne continue) et estimés (ligne brisée) des<br />
bandes circulaires n o 5, 7, 9, et 11 de l’image TO.<br />
- 120 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
• Distribution des régions des images test<br />
Les paramètres des distributions des régions circulaires des quatre images test sont<br />
donnés dans les Tables I-6.2, (a) à (d).<br />
TO nbcoef moyenne var beta<br />
1 1 1.27E+02 0.00E+00 0.00E+00<br />
2 2 -1.32E+00 1.56E+01 1.00E+00<br />
3 8 3.81E-01 3.28E+00 9.15E-01<br />
4 34 5.99E-02 9.43E-02 1.18E+00<br />
5 148 1.23E-02 2.03E-02 2.27E+00<br />
6 589 -2.11E-03 5.24E-03 1.40E+00<br />
7 2395 -2.90E-04 9.19E-04 1.47E+00<br />
8 4005 2.89E-04 2.32E-04 1.68E+00<br />
9 5600 -5.11E-05 7.83E-05 1.71E+00<br />
10 7223 -1.42E-05 3.43E-05 1.71E+00<br />
11 8825 1.83E-05 1.87E-05 1.93E+00<br />
12 10446 2.77E-05 1.35E-05 1.95E+00<br />
13 26260 3.75E-05 1.30E-05 1.95E+00<br />
(a)<br />
TT nbcoef moyenne var beta<br />
1 1 1.28E+02 0.00E+00 0.00E+00<br />
2 2 -1.33E+00 1.62E+01 1.00E+00<br />
3 8 3.53E-01 3.34E+00 9.36E-01<br />
4 34 6.10E-02 9.23E-02 1.09E+00<br />
5 148 1.64E-02 2.02E-02 2.19E+00<br />
6 589 -2.37E-03 5.62E-03 1.44E+00<br />
7 2395 -1.52E-04 9.56E-04 1.43E+00<br />
8 4005 -1.89E-05 2.38E-04 1.61E+00<br />
9 5600 1.55E-04 7.61E-05 1.64E+00<br />
10 7223 -6.29E-05 3.26E-05 1.79E+00<br />
11 8825 1.98E-05 1.85E-05 1.94E+00<br />
12 10446 2.44E-05 1.35E-05 1.93E+00<br />
13 26260 -2.06E-05 1.28E-05 1.93E+00<br />
(b)<br />
RU nbcoef moyenne var beta<br />
1 1 9.39E+01 0.00E+00 0.00E+00<br />
2 2 2.51E-01 3.00E-01 1.00E+00<br />
3 8 4.72E-01 1.48E+00 1.25E+00<br />
4 34 -2.66E-02 1.27E-01 1.38E+00<br />
5 148 6.21E-03 1.92E-02 1.10E+00<br />
6 589 -1.45E-04 2.06E-03 1.06E+00<br />
7 2395 -7.03E-05 1.26E-04 1.08E+00<br />
8 4005 4.76E-05 1.75E-05 1.71E+00<br />
9 5600 -3.79E-05 6.73E-06 1.94E+00<br />
10 7223 1.30E-06 3.46E-06 1.83E+00<br />
11 8825 -2.50E-05 1.89E-06 1.98E+00<br />
12 10446 2.02E-07 1.23E-06 1.89E+00<br />
13 26260 -1.53E-06 9.06E-07 1.78E+00<br />
(c)<br />
SA nbcoef moyenne var beta<br />
1 1 8.03E+01 0.00E+00 0.00E+00<br />
2 2 -3.22E+00 3.11E+01 1.00E+00<br />
3 8 3.47E-01 1.28E+00 6.72E-01<br />
4 34 1.11E-01 1.72E-01 1.69E+00<br />
5 148 1.79E-02 4.51E-02 1.24E+00<br />
6 589 -1.44E-03 3.54E-03 1.45E+00<br />
7 2395 1.74E-04 8.08E-04 1.65E+00<br />
8 4005 -2.42E-05 3.12E-04 1.92E+00<br />
9 5600 6.97E-05 1.85E-04 1.96E+00<br />
10 7223 1.27E-04 1.18E-04 1.73E+00<br />
11 8825 -1.76E-04 6.68E-05 1.81E+00<br />
12 10446 5.28E-05 3.85E-05 1.94E+00<br />
13 26260 3.70E-07 3.23E-05 1.88E+00<br />
Tables I-6.2: Tables de paramètres des bandes circulaires circulaires des quatre<br />
images test. (a): TO, (b): TT, (c): RU, (d):SA.<br />
(d)<br />
Le coefficient de la région 1 est la composante continue, c’est à dire la moyenne de<br />
l’image (voir notre normalisation de la DCT).<br />
On constate que les moyennes de deux images de la même séquence (TO et TT) sont<br />
supérieures à celles des deux autres images (RU et SA). En effet, on voit sur la Figure I-<br />
6.1 que TO et TT sont globalement plus claires que RU et SA.<br />
Dans ce groupe d’images test, les paramètres de forme β sont voisins de 1 pour les<br />
basses et moyennes fréquences (distribution de type Laplacienne), et sont voisins de 2<br />
pour les hautes fréquences (distribution de type Gaussienne). Nous avons observé sur<br />
d’autres images des β allant de 0.5 à 2.5 et plus.<br />
- 121 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
3.4. Allocation marginale et quantificateur ‘midtread’ uniforme<br />
La quantification a été réalisée comme suit.<br />
• Le coefficient continu n’a pas été quantifié. Il est transmis en virgule flottante sur 32<br />
bits.<br />
• Les régions 2 et 3, dont le nombre de coefficients est trop faible pour évaluer des<br />
statistiques, ont été quantifiées sur 10 bits. La quantification de ces régions s’est faite<br />
sans optimisation, en prenant pour pas de quantification q=2 10 /(max-min), où max et<br />
min représentent les coefficients maximum et minimum de la région.<br />
• Les régions 4 à 13 ont été quantifiées avec un quantificateur uniforme optimal de type<br />
minimum-MSE (voir chapitre I-6). Nous avons procédé à une allocation marginale<br />
selon le principe décrit au chapitre I-4, mais en utilisant la formulation de l’erreur de<br />
quantification avec distribution gaussienne généralisée du chapitre I-6.<br />
3.5. Calcul du t<strong>aux</strong> de <strong>compression</strong><br />
L’étape finale de codage entropique n’a pas été réalisée. Nous avons calculé l’entropie<br />
d’ordre zéro de l’ensemble des coefficients quantifiés et l’avons utilisée dans le calcul du<br />
t<strong>aux</strong> de <strong>compression</strong>.<br />
4. Résultats<br />
4.1. Apport du quantificateur optimisé par rapport au quantificateur non<br />
optimisé<br />
La première image (TO) a fait l’objet d’une allocation de bits en utilisant l’approche<br />
minimum-MSE. Les bits alloués (b) et les valeurs du pas de quantification optimum (q)<br />
pour les différentes régions circulaires sont données dans la Table I-6.3. Ces paramètres<br />
ont été employés dans la quantification.<br />
La même image a été quantifiée avec le même nombre de nive<strong>aux</strong> de quantification que<br />
précédemment, mais en utilisant des valeurs de q non optimales pour les régions 4 à 13.<br />
Ces valeurs correspondent à un quantificateur uniforme sur toute la dynamique du signal:<br />
q=2 b /(max-min).<br />
La Figure I-6.3 donne un comparatif des courbes PPSNR en fonction du t<strong>aux</strong> de<br />
<strong>compression</strong>. La qualité visuelle est illustrée par la Figure I-6.4. Sur un écran, on voit qu’à<br />
partir d’un t<strong>aux</strong> de 12:1, les images comprimées sont moins nettes que l’original. Les<br />
images comprimées avec q non-optimum sont nettement plus floues que les images<br />
comprimées avec q optimum. Au delà d’un t<strong>aux</strong> de 20:1, les images comprimées avec q<br />
non optimum ont une texture modifiée, de type alvéolaire.<br />
TO adaptatif CR 7.4 CR 11.6 CR 15.6 CR 19.6<br />
# region nbcoef nb bits q nb bits q nb bits q nb bits q<br />
- 122 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
1 1 32 - 32 - 32 - 32 -<br />
2 2 10 - 10 - 10 - 10 -<br />
3 8 10 - 10 - 10 - 10 -<br />
4 34 10 0.00439 8 0.01446 8 0.01446 8 0.01446<br />
5 148 7 0.00756 6 0.01404 6 0.01404 6 0.01404<br />
6 589 6 0.00951 6 0.00951 5 0.01689 5 0.01689<br />
7 2395 5 0.00687 4 0.01218 4 0.01218 3 0.02160<br />
8 4005 3 0.01040 3 0.01040 3 0.01040 2 0.01908<br />
9 5600 3 0.00602 1 0.01291 1 0.01291 1 0.01291<br />
10 7223 1 0.00858 1 0.00858 0 - 0 -<br />
11 8825 1 0.00809 0 - 0 - 0 -<br />
12 10446 0 - 0 - 0 - 0 -<br />
13 26260 0 - 0 - 0 - 0 -<br />
Table I-6.3: Résultats de l’allocation de bits et de l’optimisation du quantificateur<br />
pour TO selon une quantification adaptative<br />
33<br />
q OPTIMISE VS q NON OPTIMISE<br />
32<br />
PPSNR en dB<br />
31<br />
30<br />
29<br />
28<br />
27<br />
5 10 15 20 25 30 35<br />
t<strong>aux</strong> de <strong>compression</strong><br />
Figure I-6.3: Courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong>. +: TO avec q<br />
optimum, X: TO avec q non optimum.<br />
Avec un q non optimal utilisant toute la dynamique de chaque région, on obtient des t<strong>aux</strong><br />
de <strong>compression</strong> de 9.6, 15.1, 15.7, 31.4. Ils sont supérieurs à ceux demandés. La<br />
performance en terme de PPSNR est de 1 à 2 dB inférieure, comme le montre la Figure I-<br />
6.3.<br />
- 123 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
(a)<br />
(b)<br />
(c)<br />
Figure I-6.4: (a) Image TO comprimée avec q optimal, t<strong>aux</strong>=15.6, PPSNR=30.8.(c)<br />
Image d’erreur correspondante multipliée par 20. (b) Image TO comprimée avec q<br />
non optimal, t<strong>aux</strong>=15.7, PPSNR=28.8.(d) Image d’erreur correspondante multipliée<br />
par 20.<br />
(d)<br />
On remarque dans la Figure I-6.4 que les images comprimées présentent un artefact<br />
circulaire dans le coin supérieur gauche. Celui-ci provient d’une trop brusque transition<br />
entre valeurs quantifiée/reconstruites des coefficients de deux régions circulaires<br />
adjacentes dans les basses fréquences, et d’un nombre de bits insuffisants dans les très<br />
basses fréquences (10 bits). Ceci est dû au fait que, contrairement <strong>aux</strong> trav<strong>aux</strong> des<br />
chapitres I-3 et I-4, nous n’avons pas incorporé les bandes circulaires de basses<br />
fréquences dans l’allocation. Compte tenu de leur faible nombre de coefficients, une<br />
allocation avec un modèle uniforme au lieu d’une Gaussienne généralisée s’était avéré<br />
efficace, et éviterait la transition brusque entre des zones à 10 bits (choisis arbitrairement<br />
ici) et des zones allouées de façon optimales .<br />
4.2. Vérification de la stabilité des caractéristiques statistiques des images<br />
d’une même séquence associée à la robustesse du quantificateur.<br />
Nous avons utilisé les paramètres statistiques de l’image TT pour effectuer l’allocation des<br />
bits. Les résultats (nombre de bits et valeurs de q) ont été utilisés pour quantifier l’image<br />
TO. Ainsi, nous pouvons vérifier si les caractéristiques des images d’une même séquence<br />
- 124 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
sont stables, et si l’allocation d’une image de la séquence est satisfaisante sur les autres<br />
images de la séquence. Les résultats de l’allocation sur TT sont donnés à la Table I-6.4.<br />
La Figure I-6.5 montre la courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong> pour l’image<br />
TO quantifiée de façon non adaptative, en utilisant les paramètres de l’image TT. Les<br />
performances de la quantification adaptative et non-adaptative sont identiques.<br />
Les t<strong>aux</strong> de <strong>compression</strong> sont comparables, et les images décomprimées sont de qualité<br />
visuelle identique.<br />
TO selon TT CR 7.5 CR 11.7 CR 15.3 CR 19.8<br />
# region nbcoef nb bits q nb bits q nb bits q nb bits q<br />
1 1 32 - 32 - 32 - 32 -<br />
2 2 10 - 10 - 10 - 10 -<br />
3 8 10 - 10 - 10 - 10 -<br />
4 34 9 0.00855 9 0.00855 7 0.01534 8 0.01534<br />
5 148 7 0.00772 6 0.01430 6 0.01430 6 0.01430<br />
6 589 6 0.00962 6 0.00962 6 0.00962 5 0.01714<br />
7 2395 5 0.00710 4 0.01255 4 0.01255 3 0.02220<br />
8 4005 3 0.01068 3 0.01068 3 0.01068 2 0.01947<br />
9 5600 3 0.00600 1 0.01175 1 0.01175 1 0.01175<br />
10 7223 1 0.00919 1 0.00919 0 - 0 -<br />
11 8825 1 0.00812 0 - 0 - 0 -<br />
12 10446 0 - 0 - 0 - 0 -<br />
13 26260 0 - 0 - 0 - 0 -<br />
Table I-6.4: Résultats de l’allocation de bits et de l’optimisation du quantificateur<br />
pour l’image TT, utilisés pour quantifier TO.<br />
- 125 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
ADAPTATIF VS NON ADAPTATIF SELON IMAGE PROCHE<br />
33<br />
32<br />
PPSNR en dB<br />
31<br />
30<br />
R<br />
29<br />
28<br />
27<br />
5 10 15 20 25 30 35<br />
t<strong>aux</strong> de <strong>compression</strong><br />
Figure I-6.5: Courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong>. +: TO avec<br />
quantification adaptative, x: TO avec quantification non-adaptative selon les<br />
paramètres de TT.<br />
4.3. Quantificateur modélisé à partir d’un ensemble d’images: effet de la<br />
non-adaptation<br />
La quantification adaptative d’une image permet d’obtenir la meilleure performance<br />
possible, mais elle est coûteuse en temps de calcul. Dans la pratique, il peut être<br />
souhaitable d’adopter une table fixe de paramètres de quantification et de l’appliquer à<br />
toutes les images. Les résultats théoriques sur l’effet de la non-adaptation du<br />
quantificateur fournissent des indications précieuses sur la façon de choisir les<br />
paramètres de forme et la variance du quantificateur afin de limiter au mieux l’effet de la<br />
non-adaptation. Ces indications sont valides dans le cadre d’un signal unique. Dans la<br />
<strong>compression</strong> FF-DCT, il faut quantifier simultanément un ensemble des sign<strong>aux</strong> (les<br />
bandes circulaires). Nous avons voulu vérifier si les résultats théoriques étaient utilisables<br />
dans ce cadre.<br />
A partir des paramètres de distributions (paramètre de forme β et variance σ 2 ) des quatre<br />
images, nous avons constitué selon deux approches différentes une table de paramètres,<br />
en vue de l’allocation marginale.<br />
• La première approche consiste à prendre pour chaque région le plus petit β rencontré<br />
parmi les quatre images, et le plus grand σ 2 . Ainsi, on aura tendance à toujours surestimer<br />
β et sous-estimer σ 2 . Nous avons vu dans le chapitre I-6 qu’en cas de nonadaptation,<br />
cette situation est la moins défavorable. Il est intéressant d’observer si cela<br />
se vérifie en pratique alors que l’image est quantifiée à partir de nombreuses régions<br />
fréquentielles, donc de plusieurs sign<strong>aux</strong> quantifiés différemment.<br />
• La deuxième approche consiste à prendre les β maximum et les σ 2 minimum. Ainsi,<br />
on aura tendance à toujours sous-estimer β et sur-estimer σ 2 . Nous avons vu dans le<br />
chapitre I-6 qu’en cas de non-adaptation, cette situation est la plus défavorable.<br />
- 126 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
TO avec β min. CR 8.8 CR 12.7 CR 15.3 CR 22.5<br />
et σ 2 max.<br />
# region nbcoef nb q nb q nb q nb q<br />
bits<br />
bits<br />
bits<br />
bits<br />
1 1 32 - 32 - 32 - 32 -<br />
2 2 10 - 10 - 10 - 10 -<br />
3 8 10 - 10 - 10 - 10 -<br />
4 34 9 0.01168 8 0.02096 8 0.02096 8 0.02096<br />
5 148 8 0.01060 7 0.01883 7 0.01883 7 0.01883<br />
6 589 6 0.01202 5 0.02073 5 0.02073 5 0.02073<br />
7 2395 4 0.01442 4 0.01442 3 0.02459 3 0.02459<br />
8 4005 3 0.01224 3 0.01224 2 0.02230 1 0.02284<br />
9 5600 3 0.00936 1 0.01834 1 0.01834 1 0.01834<br />
10 7223 1 0.01593 1 0.01593 1 0.01593 - -<br />
11 8825 1 0.01332 - - - - - -<br />
12 10446 - - - - - - - -<br />
13 26260 - - - - - - - -<br />
(a)<br />
TO avec β min. CR 6.2 CR 8.9 CR 12.3 CR 16.1<br />
et σ 2 max.<br />
# region nbcoef nb q nb q nb q nb q<br />
bits<br />
bits<br />
bits<br />
bits<br />
1 1 32 - 32 - 32 - 32 -<br />
2 2 10 - 10 - 10 - 10 -<br />
3 8 10 - 10 - 10 - 10 -<br />
4 34 8 0.01056 8 0.01056 8 0.01056 8 0.01056<br />
5 148 8 0.00394 8 0.00394 8 0.00394 8 0.00394<br />
6 589 7 0.00324 7 0.00324 6 0.00582 6 0.00582<br />
7 2395 5 0.00238 5 0.00238 4 0.00428 4 0.00428<br />
8 4005 3 0.00275 3 0.00275 3 0.00275 1 0.00771<br />
9 5600 3 0.00170 1 0.00498 1 0.00498 1 0.00498<br />
10 7223 1 0.00312 1 0.00312 - - - -<br />
11 8825 1 0.00269 - - - - - -<br />
12 10446 - - - - - - - -<br />
13 26260 - - - - - - - -<br />
(b)<br />
Table I-6.5: Résultats de l’allocation de bits et de l’optimisation du quantificateur<br />
pour l’image TO, avec paramètres de distribution dérivés de quatre images. (a): β<br />
minimum et σ 2 maximum. (b): β maximum et σ 2 minimum.<br />
Les résultats de l’allocation sur TO selon les deux approches précédemment décrites sont<br />
donnés dans la Table I-6.5 .<br />
La Figure I-6.6 montre la courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong> pour l’image<br />
TO avec quantificateur adaptatif, et en utilisant les paramètres des quatre images selon<br />
les deux façons.<br />
La performance du PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong> est la meilleure pour<br />
l’image quantifiée de façon adaptative, puis pour l’image quantifiée en prenant les valeurs<br />
minimum des β rencontrées sur plusieurs images (perte de 1 dB), puis pour l’image<br />
quantifiée en prenant les β maximum (perte supérieure à 2 dB). On constate que les t<strong>aux</strong><br />
obtenus avec la deuxième approche sont plus faibles que ceux escomptés.<br />
- 127 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
En terme de PPSNR, la différence entre les deux approches non-adaptative est de l’ordre<br />
de 1 dB. En revanche, la qualité visuelle d’une approche qui ne tire pas partie<br />
avantageusement de la théorie est très fortement dégradée. L’approche la plus<br />
“judicieuse” aboutit à un léger flou à partir d’un t<strong>aux</strong> de 12:1 et la qualité est peu différente<br />
de celle obtenue avec l’approche adaptative. L’approche la moins “judicieuse” aboutit à<br />
une image très floue avec perte caractérisée des fins vaisse<strong>aux</strong> et des contours. La<br />
Figure I-6.7 illustre ce résultat.<br />
La mise en application de la non-adaptation dans le cadre d’une quantification de la FF-<br />
DCT, selon notre approche de bandes circulaires, vérifie bien la théorie développée à<br />
partir du quantificateur optimum optimisé sur un signal.<br />
ATIF VS NON ADAPTATIF SELON beta min (x) et max (*) de 4<br />
33<br />
32<br />
PPSNR en dB<br />
31<br />
30<br />
29<br />
28<br />
27<br />
5 10 15 20 25 30 35<br />
t<strong>aux</strong> de <strong>compression</strong><br />
Figure I-6.6: Courbe PPSNR en fonction du t<strong>aux</strong> de <strong>compression</strong>. +: TO avec<br />
quantification adaptative, x: TO avec quantification non-adaptative (β min. et σ 2<br />
max), *: TO avec quantification non-adaptative (β max. et σ 2 min).<br />
- 128 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
(a)<br />
(b)<br />
(c)<br />
(d)<br />
Figure I-6.7: (a) TO avec quantification non-adaptative (β min. et σ 2 max), t<strong>aux</strong>=15.3,<br />
PPSNR=29.8; (c) Image d’erreur correspondante multipliée par 20. (b) TO avec<br />
quantification non-adaptative (β max. et σ 2 min (c) t<strong>aux</strong>=16.1, PPSNR=28.6; (d) Image<br />
d’erreur correspondante multipliée par 20.<br />
- 129 -
Chapitre I-6: Application de l’étude de robustesse du quantificateur<br />
5. Discussion<br />
La théorie de la robustesse du quantificateur uniforme minimum-MSE dans le cas d’une<br />
non-adaptation de la distribution du signal d’entrée a été appliquée dans le cadre d’une<br />
<strong>compression</strong> FF-DCT.<br />
Dans les conditions de nos expériences, nous avons pu valider les point suivants:<br />
• Apport du quantificateur uniforme optimisé par rapport au quantificateur uniforme non<br />
optimisé.<br />
L’optimisation du pas de quantification apporte un gain de 1 à 2 dB en terme de PPSNR,<br />
et une amélioration sensible de la qualité visuelle. De cette optimisation résulte un<br />
écrêtage des valeurs les plus extrêmes des bandes circulaires, et une quantification plus<br />
fine des valeurs autour de la moyenne. Théorie et pratique confirment l’intérêt de<br />
l’approche.<br />
• Robustesse de l’optimisation en utilisant les paramètres d’une image voisine de<br />
l’image quantifiée.<br />
La quantification non-adaptative d’une image en prenant pour paramètres de<br />
quantification ceux obtenus de façon adaptative sur une image de la même séquence<br />
donne d’excellents résultats. Pour des images voisines, la quantification non-adaptative<br />
est robuste.<br />
• Robustesse du quantificateur modélisé à partir d’un ensemble d’images et effet de la<br />
non-adapatation.<br />
Pour quantifier une classe d’images de façon non-adaptative, en prenant une table de<br />
paramètres de quantification fixe, la théorie de la robustesse du quantificateur uniforme<br />
fournit les lignes directrices afin de mettre au point le quantificateur. Par rapport à une<br />
image avec quantification adaptative, la quantification non-adaptative peut engendrer des<br />
pertes de plus de 2 dB. En optimisant le quantificateur avec les valeurs de β minumum et<br />
celles de σ 2 maximum, on limite cette perte à 1 dB ou moins. Ce faible écart en terme de<br />
PPSNR est accompagné d’une différence de qualité d’image majeure. Un mauvais choix<br />
des paramètres du quantificateur aboutit clairement à une image fortement dégradé. Par<br />
conséquent, un choix judicieux de paramètres de quantification non-adaptative permet un<br />
gain de qualité substantiel et n’engendre aucun surcoût en terme de calcul.<br />
Ces résultats sont très prometteurs pour la mise au point de tout système de<br />
quantification optimum d’images transformées. Il serait intéressant de mettre en œuvre<br />
nos algorithmes sur une plus grande base d’images de dimension 512x512.<br />
- 130 -
CHAPITRE I-7<br />
CONCLUSION DE LA PARTIE<br />
COMPRESSION<br />
- 131 -
Chapitre I-7: Conclusion de la partie <strong>compression</strong><br />
Introduction<br />
La première partie de ce mémoire a été consacrée <strong>aux</strong> méthodes de <strong>compression</strong> pour<br />
les <strong>angiographies</strong> <strong>cardiaques</strong>.<br />
Nous avons étudié plusieurs éléments algorithmiques propres <strong>aux</strong> méthodes par<br />
transformation. Nous les avons illustrés à l’aide d’une approche Full-Frame DCT, en<br />
utilisant au mieux les caractéristiques des <strong>angiographies</strong> <strong>cardiaques</strong>. Les points d’intérêts<br />
majeurs de nos trav<strong>aux</strong> concernent l’adaptation de la quantification et la prise en compte<br />
du renforcement de contour.<br />
Adaptation de la quantification<br />
Nous avons cherché à développer une quantification des coefficients de la DCT adaptée à<br />
une classe d’images . A partir de résultats d’allocation de bits sur quelques images, on<br />
peut mettre au point un découpage en régions, une allocation des bits et un pas de<br />
quantification fixes pour toutes les images d’une même classe. Cette approche est moins<br />
coûteuse en calculs que l’adaptation de la quantification à chaque image. Dans ce dernier<br />
cas l’approche sera dite adaptative.<br />
Nous avons cherché à répondre à deux questions:<br />
• Quelle est la meilleure approche de l’adaptation ?<br />
• Quel est l’impact de paramètres de quantification mal adaptés à l’image réelle?<br />
Comment guider le choix des paramètres de quantification pour limiter cet impact?<br />
Quantification adaptée<br />
Prenant en compte la répartition énergétique de la DCT Full-Frame d’<strong>angiographies</strong><br />
<strong>cardiaques</strong>, nous avons découpé le plan DCT en zones fréquentielles circulaires. Nous<br />
avons ajouté une notion de ‘directionalité’ en découpant ces zones en bandes circulaires<br />
de ‘directionalité’ horizontales, obliques et verticales. Chacune de ces bandes circulaires a<br />
été quantifiée séparément.<br />
L’allocation des bits a été faite par une méthode d’allocation marginale, qui alloue<br />
progressivement les bits disponibles <strong>aux</strong> bandes circulaires pour lesquelles ces bits<br />
contribuent le plus à abaisser l’erreur de quantification. Le calcul de l’erreur de<br />
quantification a été effectué selon une approche optimale pour un quantifieur scalaire<br />
uniforme. Les paramètres estimés de la distribution statistiques des coefficients de<br />
chaque bande circulaire sont utilisés dans le calcul de cette erreur d’après modèle.<br />
L’utilisation d’une allocation marginale sur des bandes circulaires circulaires de la DCT<br />
Full-Frame permet d’obtenir des images comprimées ayant un PPSNR de 1 à 2 dB<br />
supérieur à ceux de JPEG, présentant une qualité visuelle meilleure (moins de perte des<br />
fins détails, pas d’artefacts de blocs).<br />
Le choix du modèle statistique de la distribution des bandes circulaires est primordial dans<br />
le calcul de l’erreur de quantification. La plupart des auteurs utilisent un modèle Gaussien<br />
ou Laplacien [REIN-83], [JAIN-89]. Nous avons constaté qu’une distribution Gaussienne<br />
généralisée était plus appropriée <strong>aux</strong> bandes circulaires. Les paramètres de forme<br />
observés varient de 0.5 à 2.5, selon les images et les bandes circulaires.<br />
- 132 -
Chapitre I-7: Conclusion de la partie <strong>compression</strong><br />
Nous avons développé une formulation analytique de l’erreur de quantification avec<br />
une Gaussienne généralisée et un quantificateur scalaire uniforme. Cette formulation est<br />
très riche en applications. Elle permet d’évaluer le pas de quantification optimal (celui qui<br />
minimise l’erreur pour un nombre de bits donnés), et d’étudier l‘impact de la nonadaptation<br />
du signal réel au quantificateur. Ce deuxième point sera évoqué dans le<br />
paragraphe sur la quantification non adaptative.<br />
Nous estimons que cette formulation, utilisée dans l’allocation marginale, permettrait<br />
d’améliorer encore les premiers résultats mentionnés plus haut (de 1 à 2dB supérieurs à<br />
JPEG), pour lesquels un modèle Laplacien avait été utilisé sur toutes les bandes<br />
circulaires.<br />
Nous avons pu mettre en évidence que l’utilisation d’un pas de quantification optimal (qui<br />
écrête le signal), par rapport à un pas non optimal (qui utilise toute la dynamique du<br />
signal) permet de gagner 1 à 2 dB sur une image 256x256 extraite d’une image 512x512.<br />
Quantification non adaptée<br />
Nous avons utilisé la formulation analytique de l’erreur de quantification dans une étude<br />
théorique. Cette étude porte sur l’impact de la non adaptation d’un quantifieur scalaire<br />
uniforme midtread modélisé par une Gaussienne généralisée avec un signal observé.<br />
Nous avons exploré l’impact d’une quantification non adaptée au paramètre de forme et<br />
à la variance du signal observé par rapport au modèle utilisé lors de l’optimisation du<br />
quantificateur. L’impact a été mesuré en terme de MSE et SNR. Deux types de<br />
quantificateurs ont été envisagés: le quantificateur d’erreur quadratique minimum, et le<br />
quantificateur de caractéristique débit-distorsion optimale.<br />
Nous avons mis en évidence le résultat suivant:<br />
• Une sous-estimation du paramètre de forme augmente le SNR par rapport à celui<br />
attendu , une surestimation du paramètre de forme est très pénalisante, elle réduit<br />
fortement le SNR.<br />
• Une sous-estimation de la variance est pénalisante, une surestimation de la variance<br />
est moins pénalisante.<br />
Ces résultats nous ont permis de choisir <strong>aux</strong> mieux les paramètres des quantificateurs<br />
pour une quantification non adaptative. Nous proposons de prendre un ensemble<br />
d’images test (ou d’apprentissage), et d’observer les paramètres de forme et les variances<br />
de leurs bandes circulaires dans la FFDCT. En retenant les paramètres de forme<br />
minimum, et les variances maximales , on compose une série de données à utiliser dans<br />
l’allocation marginale. Les résultats de cette allocation peuvent être utilisés avec toute<br />
image de la classe d’images étudiée.<br />
Nous avons vérifié expérimentalement cette approche avec quatre images<br />
d’<strong>angiographies</strong> 256x256 extraites d’images 512x512. Nous avons constaté que la<br />
quantification non adaptative selon notre approche induit une perte de 1dB (par rapport à<br />
l'approche adaptive), alors qu’une quantification non adapatative sans précaution induit<br />
une perte de 3 dB. La qualité visuelle avec une quantification non adaptative sans<br />
précautions est très médiocre, alors que celle obtenue avec une quantification non<br />
adaptative selon notre approche est très bonne.<br />
Prise en compte du renforcement de contour<br />
Dans les systèmes d’angiographie <strong>cardiaques</strong>, les images sont stockées sur disque de<br />
façon brutes, mais elles sont présentée à l’écran avec des post traitements. Le traitement<br />
- 133 -
Chapitre I-7: Conclusion de la partie <strong>compression</strong><br />
le plus important est un filtre de renforcement de contour. Celui-ci est un filtre de<br />
convolution de type Laplacien. Il augmente l’énergie des basses et moyennes<br />
fréquences de l’image. Il a une interaction défavorable avec la <strong>compression</strong> car il a<br />
tendance à rehausser non seulement les contours, mais aussi à rendre plus visible les<br />
éventuels artefacts de <strong>compression</strong>.<br />
Nous avons étudié les questions suivantes:<br />
• Est-il possible de réaliser ce filtre de convolution dans le domaine DCT? Est-il possible<br />
de réaliser le filtre inverse?<br />
• Vaut-il mieux comprimer l’image avant ou après le renforcement de contour?<br />
• Comment améliorer le scénario renforcement puis <strong>compression</strong>?<br />
• Comment améliorer le scénario <strong>compression</strong> puis renforcement?<br />
Réalisation du renforcement et de son filtre inverse dans le domaine DCT<br />
Nous avons utilisé [CHIT-90] [MART-93] [MART-94] une formulation analytique pour<br />
réaliser un filtre de convolution linéaire réel et pair par une multiplication dans le domaine<br />
DCT. Pour réaliser le filtre inverse (ce qui n’est pas évident à faire dans le domaine pixel)<br />
[EEUW-90], [BERE-92], il suffit d’effectuer une opération de division, de façon analogue.<br />
Choix de la <strong>compression</strong> avant ou après le renforcement<br />
Nous avons constaté, par simulation et expériences sur des images réelles, qu’il est<br />
préférable de comprimer une image déjà renforcée. Une image brute comprimé puis<br />
renforcée est moins bonne visuellement qu’une image brute renforcée puis comprimée.<br />
Scénario 1 : renforcement puis <strong>compression</strong><br />
Dans le scénario où l’image est renforcée puis comprimée, il faut avoir la possibilité de<br />
dé-renforcer l’image. Les images non-renforcées sont en effet nécessaires pour d’autres<br />
traitements, comme par exemple les mesures quantitatives.<br />
Nous avons utilisé le filtre inverse du renforcement mis en œuvre dans le domaine DCT.<br />
Nous avons introduit une connaissance a priori sur la régularité de l’image afin<br />
d’améliorer le résultat du dé-renforcement sur une image comprimée. Cette approche de<br />
restauration d’image est surtout utile quand la <strong>compression</strong> introduit de fortes distorsions.<br />
Elle permet d’améliorer la régularité de l’image en vue de logiciels de détection de contour<br />
notamment. La même approche a été utilisée par [DING-96] et [PROS-97] avec une<br />
<strong>compression</strong> JPEG, où les résultats sont plus spectaculaires compte tenu de la plus<br />
grande “irrégularité” introduite par JPEG.<br />
Scénario 2 : <strong>compression</strong> puis renforcement<br />
Dans le scénario où l’image est comprimée puis renforcée, on risque d’avoir une qualité<br />
visuelle moyenne. Nous proposons de quantifier l’image brute avec les paramètres de<br />
l’image déjà renforcée. Ainsi, l’image brute comprimée a des caractéristiques appropriées<br />
pour le renforcement. Ces fréquences basses et moyennes auront été correctement<br />
préservées. Cette approche est valable dans le cas adaptatif en multipliant la DCT par le<br />
masque de renforcement avant d’évaluer les données nécessaires à l’allocation de bits.<br />
Cette approche est aussi valable dans le cas de l’adaptation à une classe d’images (les<br />
<strong>angiographies</strong>), en cherchant une table d’allocation sur des images test renforcées.<br />
- 134 -
Chapitre I-7: Conclusion de la partie <strong>compression</strong><br />
Perspectives<br />
Notre approche de <strong>compression</strong> à base de Full-Frame DCT donne des résultats<br />
préliminaires prometteurs. Il serait intéressant de comprimer un plus grand nombre<br />
d’images à l’aide d’un logiciel complet allant jusqu’au codage entropique, et d’évaluer la<br />
qualité des images obtenues.<br />
Voici quelques améliorations à apporter:<br />
• Le découpage optimal du plan DCT<br />
Il est possible d’améliorer notre découpage empirique par un découpage en bandes<br />
circulaires dont les coefficients ont une énergie la plus voisine possible.<br />
• L’intégration des propriétés du système visuel humain.<br />
Le découpage en bandes circulaires circulaire avec une ‘directionalité’ se prête très bien à<br />
une pondération psycho-visuelle. L’approche développée par [SENA-95] a été envisagée.<br />
• Le contrôle du t<strong>aux</strong> de <strong>compression</strong><br />
Notre système d’allocation marginale ne permet qu’un contrôle approximatif du t<strong>aux</strong> de<br />
<strong>compression</strong>. Il est envisageable d’utiliser une deuxième passe d’allocation. Après avoir<br />
établi le nombre de bits, l’utilisation de l’optimisation débit-distorsion du chapitre I-5 peut<br />
servir à obtenir le t<strong>aux</strong> désiré. Une autre approche peut consister à réaliser le codage des<br />
premières bandes circulaires, et d’adapter l’allocation par boucle de retour.<br />
Conclusion<br />
Avec une connaissance précise des conditions d’utilisation des images, il existe de très<br />
nombreuses possibilités d’améliorer les performances des systèmes de <strong>compression</strong> par<br />
rapport <strong>aux</strong> systèmes standards d’usage général.<br />
Nos trav<strong>aux</strong> sur l’optimisation du quantificateur et l’impact de la non-adaptation du signal<br />
peuvent être appliqués à toute autre <strong>compression</strong> avec un quantificateur uniforme, par<br />
exemple en sous-bandes. Ils peuvent aussi être étendus <strong>aux</strong> quantificateurs vectoriels<br />
sur treillis.<br />
Nos trav<strong>aux</strong> d’adaptation au renforcement de contour, de restauration appliquée à la<br />
<strong>compression</strong> peuvent aussi s’appliquer à d’autres systèmes de <strong>compression</strong> avec DCT.<br />
- 135 -
PARTIE II<br />
Evaluation de la qualité<br />
d’<strong>angiographies</strong> <strong>cardiaques</strong><br />
comprimées<br />
- 136 -
CHAPITRE II-1<br />
ETUDE BIBLIOGRAPHIQUE DES<br />
METHODES D’EVALUATION D’IMAGES<br />
COMPRIMEES ET PROPOSITION D’UNE<br />
NOUVELLE APPROCHE ADAPTEE AUX<br />
EXAMENS ANGIOGRAPHIQUES<br />
- 137 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
1. Bibliographie sur l’évaluation d’images comprimées<br />
1.1. Introduction<br />
Depuis la fin des années quatre-vingt, de nombreuses études sur l'évaluation <strong>d'images</strong><br />
radiologiques comprimées ont été réalisées. Elles ont influencé de façon sensible<br />
l'acceptation par la communauté médicale de l'idée d'une modification irréversible des<br />
images médicales numériques. Au début du présent travail, cette idée n'était envisagée<br />
que dans les milieux de la recherche.<br />
Face au potentiel considérable du stockage et de la transmission numériques, on est<br />
passé en quelques années de l'idée inacceptable à l'application en routine dans plusieurs<br />
domaines. C’est en effet l’implémentation par certains constructeurs de <strong>compression</strong>s<br />
sans perte dans leurs produits qui a réellement démocratisé la <strong>compression</strong> dans le<br />
monde médical, avant que des comités scientifiques ou médic<strong>aux</strong> ne se prononcent sur<br />
ses limites d’application. Par exemple les échographies sont communément archivées<br />
avec une <strong>compression</strong> MPEG sur disques optiques ou cassettes numériques. Les CD<br />
cardiologiques contiennent chez deux constructeurs (Philips et Siemens) un format JPEG<br />
avec perte pour la visualisation dynamique directe.<br />
Il n'en reste pas moins une grande crainte de perdre de l'information diagnostique. C'est<br />
pourquoi la multiplication des études d'évaluation confirmant l'absence ou l’existence<br />
d’une perte d'information diagnostique devrait permettre de dissiper ce genre<br />
d'appréhension et de cibler les tâches, les algorithmes et les t<strong>aux</strong> limites pour des<br />
applications où la <strong>compression</strong> est appropriée.<br />
1.2. Liste des principales méthodes d'évaluation<br />
On rencontre principalement cinq grandes approches pour juger la qualité <strong>d'images</strong><br />
comprimées:<br />
• une quantification objective par SNR ou toute autre mesure basée sur un calcul à partir<br />
des pixels,<br />
• une analyse basée sur des critères d'appréciation visuelle / subjective (image jugée de<br />
plus ou moins bonne qualité)<br />
• une analyse de la fidélité diagnostique basée sur la méthodologie ROC (Receiver<br />
Operating Curve)<br />
• une analyse de la fidélité diagnostique non basée sur la méthode ROC (courbes<br />
sensibilité et PVP en fonction du débit)<br />
• une analyse sur la modification de mesures quantitatives calculées par logiciel (par<br />
exemple le degré de sténose)<br />
Le présent travail se situe principalement dans le cadre des deux dernières approches.<br />
Les paragraphes suivants introduisent ces méthodes et les princip<strong>aux</strong> trav<strong>aux</strong> qui s’y<br />
réfèrent. L'approche basée sur les mesures quantitatives fera l’objet du chapitre II-4.<br />
- 138 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
1.3. Quantification objective de la qualité par mesures de type SNR<br />
La manière traditionnelle de comparer les performances d'un algorithme de <strong>compression</strong><br />
consiste à afficher des courbes de la distorsion (MSE ou SNR) par rapport au débit<br />
exprimé en bpp. Cette approche simple est utile lors de la mise au point d'un algorithme,<br />
mais n'est pas suffisante pour le valider. En effet, le SNR n'est pas basé sur les propriétés<br />
du système visuel humain. Certaines méthodes de <strong>compression</strong> introduisent des artefacts<br />
qui dégradent l'image d'un point de vue perceptif, alors que le SNR reste bon, ou vice<br />
versa.<br />
De nombreux trav<strong>aux</strong> tentent de déterminer un critère objectif qui reflète correctement<br />
l'appréciation d'un observateur humain. [ESKI-95] étudie 12 mesures discrètes et<br />
bivariées différentes basées sur les écarts entre la distribution des pixels de l'image<br />
originale et de l'image comprimée. Après avoir demandé à des observateurs de classer<br />
par ordre de préférence les images tests obtenues avec plusieurs méthodes de<br />
<strong>compression</strong> (JPEG, Wavelet) et plusieurs t<strong>aux</strong> de <strong>compression</strong>, il établit un score moyen<br />
basé sur les rangs (selon l'ordre de préférence). Une corrélation calculée entre ce score<br />
moyen et chaque mesure objective permet d'identifier les scores qui reflètent le mieux<br />
l'appréciation visuelle dans les conditions de cette étude. La MSE donne les meilleurs<br />
résultats et fait partie des mesures qui donne globalement la meilleure corrélation avec le<br />
score visuel. Un autre volet de la même étude évalue l'utilité de mesures graphique,<br />
comme par exemple l'histogramme des différences entre l'image originale et l'image<br />
comprimée. De toute évidence, plus l'histogramme est pointu et centré sur l'origine, moins<br />
la distorsion introduite par la <strong>compression</strong> est importante.<br />
Les mesures calculées ou les mesures graphiques donnent une première indication de la<br />
qualité d'image, mais n'indiquent rien sur la nature des artefacts rencontrés, ni sur<br />
l'adéquation de l'image pour un usage donné, et dans cette étude ne permettent pas de<br />
comparer les algorithmes entre eux.<br />
Dans un contexte <strong>d'images</strong> médicales, [ECKS-95] a évalué l'effet de méthodes de<br />
<strong>compression</strong> (JPEG, Full Frame DCT, Wavelet) sur la détection d'objets de faibles<br />
contrastes ajoutés synthétiquement sur des images médicales. Les valeurs données par<br />
deux critères objectifs, la MSE et la NNND 1 (mesure reflétant les artefacts de blocs,<br />
introduite par [HO-93]) avec les résultats des expériences de détection sont comparés.<br />
Cette comparaison montre que l'utilisation exclusive des mesures objectives conduirait à<br />
des conclusions erronées, car au delà d'un certain t<strong>aux</strong> de <strong>compression</strong> les trois<br />
méthodes de <strong>compression</strong> testées donnent toutes des résultats médiocres pour la tâche<br />
de détection, alors que les mesures objectives indiquent que certains algorithmes<br />
surpassent les autres.<br />
1.4. Appréciation visuelle subjective de la qualité d’image<br />
Une manière simple d'évaluer la qualité subjective <strong>d'images</strong> comprimées est de demander<br />
à des observateurs leur appréciation de la qualité d'image. Il peut s'agir d'une appréciation<br />
de la qualité cosmétique, ou dans le domaine médical d'une appréciation de "l'utilité<br />
diagnostique" de l'image.<br />
1 NNND: Normalized Nearest Neighbor Difference<br />
- 139 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Dans le cadre de l'évaluation diagnostique <strong>d'images</strong> radiologiques comprimées par VQ 2 ,<br />
[COSM-93a] a demandé à des radiologues de donner leur appréciation subjective sur une<br />
échelle de 1 à 5: excellente, bonne (utilisable pour le diagnostic), passable, mauvaise<br />
(difficile à utiliser), très mauvaise (inutilisable). Les scores de qualité par rapport au débit<br />
sont affichées pour un ensemble <strong>d'images</strong> comprimées. Un exemple de ces courbes est<br />
donné à la figure II-1.11. L'auteur a développé un modèle permettant de prédire la qualité<br />
visuelle ainsi que des mesures de fidélité diagnostique à partir du SNR. Mais beaucoup de<br />
travail reste à faire avant que ce type de modèles ne soient validés pour suffisamment de<br />
modalités d'imagerie médicale et de méthodes de <strong>compression</strong>.<br />
Figure II-1.1: Exemple de courbe montrant la qualité subjective en fonction du débit<br />
des images comprimées.<br />
D’après [COSM-93a].<br />
Nous avons connaissance (mais n’avons pas trouvé de publication) d’une méthode basée<br />
sur la visibilité de la <strong>compression</strong>. En faisant alterner sur un écran l'image originale et<br />
l'image comprimée, on demande <strong>aux</strong> observateurs d'identifier si il y a une différence<br />
perceptible entre les deux images. On détermine ainsi des seuils de visibilité de la<br />
<strong>compression</strong>. La notion de “visibilité de la <strong>compression</strong> présente un certain intérêt. Il nous<br />
parait possible de définir une gradation dans l’effet visuel de la <strong>compression</strong>: perte<br />
d’information au sens technique mais sans effet visible, perte d’information visible mais<br />
sans effet diagnostic, et enfin perte d’information diagnostique.<br />
D'une manière générale, le SNR donne une première indication utile sur la performance<br />
d'une méthode de <strong>compression</strong>. Il n'indique pas la nature des artefacts introduits. Il est<br />
difficile de prédire la qualité subjective à partir du SNR. La qualité subjective elle-même<br />
n’est pas simple à appréhender et à mesurer de manière reproductible car elle dépend du<br />
contexte, de l’observateur, de la tâche à effectuer... La validation et l'évaluation des<br />
méthodes de <strong>compression</strong> serait grandement simplifiée si une mesure objectives pouvait<br />
rendre fidèlement compte de la qualité visuelle ou de l'utilité d'une image comprimée pour<br />
une tâche donnée. Malheureusement et malgré des études complexes sur le sujet, une<br />
telle mesure n'existe pas.<br />
2 VQ: Vector Quantization<br />
- 140 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
1.5. Indices diagnostics de la performance du couple observateur/test<br />
diagnostic<br />
1.5.1. Notion de "gold standard"<br />
Un grand nombre d'études de <strong>compression</strong> sont basées sur l'existence d'un test<br />
diagnostic qui indique le diagnostic formel de chaque patient de l'expérimentation. Par<br />
exemple, si on veut évaluer l'effet de la <strong>compression</strong> sur le diagnostic de fractures du<br />
poignet à partir de clichés radiologiques, on utilise une scintigraphie osseuse comme<br />
méthode de contrôle posant le diagnostic “vrai”. La scintigraphie est dans ce cas le test<br />
diagnostic de référence, ou le "gold standard".<br />
1.5.2. Indices diagnostics: sensibilité, spécificité, PVP, PVN<br />
Dans le cadre d'une décision médicale binaire (patient pouvant être soit normal soit<br />
anormal), quatre situations peuvent se produire, selon que l'observateur prenne l'une<br />
ou l'autre décision par rapport à la réalité établie par le gold standard. Ces situations<br />
sont résumées dans la table II-1.1.<br />
Patients<br />
Effectivement<br />
anormal<br />
Effectivement<br />
normal<br />
Réponse de anormal VP FP<br />
l'observateur normal FN VN<br />
Table II-1. 1: Test diagnostic<br />
- VP 3 : Patients effectivement anorm<strong>aux</strong> recevant réponse 'anormal' de l'observateur: nombre de Vrai<br />
Positifs<br />
- FN 4 : Patients effectivement anorm<strong>aux</strong> recevant réponse 'normal' de l'observateur: nombre de f<strong>aux</strong><br />
négatifs<br />
- FP 5 : Patients effectivement norm<strong>aux</strong> recevant une réponse 'anormal': nombre de f<strong>aux</strong> positifs<br />
- VN 6 : Patients effectivement norm<strong>aux</strong> recevant une réponse 'normal': nombre de vrais négatifs<br />
Quatre indices diagnostics peuvent être déduits des résultats du test:<br />
La sensibilité (Se), Se =<br />
La spécificité (Sp), Sp =<br />
La valeur prédictive positive (PVP 7 ), PVP =<br />
La valeur prédictive négative (PVN 8 ), PVN =<br />
Toutes ces valeurs sont comprises entre 0 et 1.<br />
VP<br />
VP + FN<br />
VN<br />
VN + FP<br />
VP<br />
VP + FP<br />
VN<br />
VN + TN<br />
3 TP: True Positive<br />
4 FN: False Negative<br />
5 FP: False Positive<br />
6 TN: True Negative<br />
7 PVP: Predictive Value Positive<br />
8 PVN: Predictive Value Negative<br />
- 141 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Dans un test diagnostic, il n'est pas suffisant de compter le pourcentage de réponses<br />
correctes pour deux raisons:<br />
- En cas de prévalence très faible de la pathologie, par exemple pour une pathologie<br />
atteignant 5% de la population, une réponse systématiquement négative donnerait un test<br />
juste à 95%. Les valeurs de Se, Sp, PVP et PVN sont liées à la prévalence selon le<br />
théorème de Bayes, et leur utilisation résout ce problème.<br />
- Un pourcentage de réponses correctes ne donne aucune indication des t<strong>aux</strong> de f<strong>aux</strong><br />
positifs et de f<strong>aux</strong> négatifs, qui ont eux aussi une implication clinique importante.<br />
Pour valider un test clinique, il est nécessaire d'utiliser à la fois un indice qui rende compte<br />
de la capacité du couple observateur/test à détecter correctement les cas effectivement<br />
anorm<strong>aux</strong>, et un indice qui rende compte de la capacité du couple observateur/test à ne<br />
pas considérer comme anorm<strong>aux</strong> des cas qui sont norm<strong>aux</strong>. Il est classique d'utiliser à cet<br />
effet la sensibilité et la spécificité (ou la PVP).<br />
1.6. Fidélité diagnostique par la méthodologie ROC<br />
1.6.1. Historique<br />
La méthode ROC est très largement employée pour valider des algorithmes de<br />
<strong>compression</strong> sur des images médicales. Elle bénéficie d'un consensus général, et elle est<br />
considérée comme la méthode de référence dans la communauté radiologique. Elle est<br />
beaucoup moins connue de la communauté cardiologique, sans doute parce que peu de<br />
trav<strong>aux</strong> n'ont encore porté sur la <strong>compression</strong> <strong>d'images</strong> d'<strong>angiographies</strong> <strong>cardiaques</strong>, et<br />
parce que la méthode ROC n'y est pas applicable de façon aussi évidente, comme nous<br />
le verrons plus loin.<br />
La méthode ROC a été développée initialement dans le cadre de la théorie de détection<br />
des sign<strong>aux</strong>. Ses premières applications ont été dans le domaine des radars. Le but est<br />
de pouvoir régler le radar avec le meilleur compromis entre sa sensibilité et sa spécificité.<br />
La sensibilité correspond au fait que les objets présents dans le ciel soient bien détectés<br />
lorsqu'ils sont effectivement présents. La spécificité correspond au fait que des objets ne<br />
soient pas détectés s'ils sont effectivement absents. Il est clair qu'en réglant une<br />
sensibilité trop forte, on risque de confondre du bruit avec des objets réels, et qu'en<br />
réglant une spécificité trop forte, on risque de manquer des objets effectivement présents.<br />
La méthode ROC a été employée avec succès dans les années soixante en psychologie<br />
et psychophysique. Lusted a mis en avant ses avantages dans l'étude de la décision<br />
médicale [LUST-76]. Swets et Metz ont publiés plusieurs articles de base pour expliciter la<br />
théorie et guider les expérimentateurs dans l'utilisation de la méthode ROC pour les<br />
applications médicales [SWET-78], [METZ-86], [METZ-89].<br />
- 142 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
1.6.2. Principe<br />
• Notion de seuil de décision<br />
La façon de discriminer le "normal" de ‘l’anormal" n'est pas stricte et absolue dans le<br />
domaine médical. Différents médecins peuvent placer différemment la limite entre le<br />
normal et l'anormal. En pratique, le médecin travaille inconsciemment avec un modèle de<br />
densité de probabilité des cas norm<strong>aux</strong> et anorm<strong>aux</strong> suivant des courbes gaussiennes,<br />
selon la figure II-1.2. Selon son expérience, le médecin place un seuil de décision<br />
correspondant à sa limite entre le normal et l'anormal. Les valeurs de Se et Sp dépendent<br />
de deux phénomènes: la position du seuil de décision que se fixe le médecin, et la<br />
capacité inhérente du test de séparer les populations normales et anormales (selon que<br />
les courbes de gauss de la figure II-1.2 se chevauvent ou sont distinctes).<br />
distribution des cas<br />
norm<strong>aux</strong> (négatifs)<br />
distribution des cas<br />
anorm<strong>aux</strong> (positifs)<br />
FP<br />
VP<br />
Figure II-1.2: Modèle de décision médicale<br />
• Génération d'une courbe ROC<br />
Une courbe ROC affiche des couples (Se, 1-Sp). Pour obtenir plusieurs de ces couples,<br />
on fait varier (artificiellement) le seuil de décision. L'approche la plus courante en<br />
radiologie est de poser une question faisant appel au degré de confiance que<br />
l'observateur a de voir ou non la pathologie cherchée dans les clichés: pathologie<br />
présente de façon certaine (1), probable (2), cas litigieux (3), pathologie absente de façon<br />
probable (4), certaine (5). Cela conduit à une réponse sur 5 nive<strong>aux</strong>. A partir de cette<br />
réponse, on construit 4 couples (Se, 1-Sp), en simulant des seuils de décisions qu'aurait<br />
pu avoir l'observateur si la réponse avait été strictement binaire. Par exemple, lorsqu'un<br />
observateur répond (3), on peut considérer que toutes ses réponses (1), (2), et (3) dans le<br />
cadre d'une réponse binaire auraient été positives, et toutes ses réponses (4) et (5)<br />
auraient été négatives. En additionnant les réponses (1), (2), et (3), on trouve une<br />
sensibilité. On peut déduite la spécificité du cumul des réponses (4) et (5). On en déduit<br />
un point (Se, 1-Sp) correspondant au seuil de décision sous-jacent au niveau de réponse<br />
(3). Les quatre couples ainsi définis, additionnés <strong>aux</strong> couples (0,0) et (1,1) forment les<br />
point de la courbe ROC. Il existe plusieurs manière de faire passer une courbe par ces 6<br />
points. La plus couramment employée repose sur des statistiques paramétriques [METZ-<br />
89]. Un exemple de courbe ROC est donné à la figure II-1-3.<br />
- 143 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Figure II-1.3: Exemple de courbe ROC. D’après [MACM-91].<br />
Lorsque la courbe ROC est proche du coin supérieur gauche, le test diagnostic a une<br />
bonne capacité à distinguer les cas norm<strong>aux</strong> et anorm<strong>aux</strong>. On peut établir une courbe<br />
ROC à partir d'un ensemble <strong>d'images</strong> originales, et une deuxième courbe à partir des<br />
images comprimées. Si la <strong>compression</strong> diminue la performance diagnostique du test, la<br />
deuxième courbe sera en dessous de la première. Une méthode courante pour comparer<br />
deux courbes ROC est de tester la différence entre les valeurs des aires sous la courbe<br />
[HANL-82].<br />
• Contraintes de la méthode ROC<br />
- "gold standard"<br />
La méthode ROC, ou toute méthode utilisant l'un des quatre indice diagnostic présenté<br />
plus haut, implique un gold standard fournissant un diagnostic de référence. Le gold<br />
standard est censé être un test diagnostic plus sûr que le système diagnostic en cours<br />
d'évaluation. Cette approche implique l'existence d'un gold standard, ce qui n'est pas<br />
toujours évident. Dans le cadre de l'angiographie cardiaque par exemple, l'examen n'est<br />
effectué qu'après une série de tests diagnostics (ECG de repos, ECG d'effort,<br />
scintigraphie...). Lorsque ces examens n'ont pas permis de poser un diagnostic ou de<br />
trouver une thérapeutique appropriée, une angiographie cardiaque est réalisée.<br />
L'angiographie cardiaque serait donc plutôt un gold standard en elle-même. Il en va de<br />
même pour de nombreux examens radiologiques. Pour résoudre ce problème, une<br />
approche couramment employée est de faire appel à un groupe d'experts auquel on<br />
demande d'établir un diagnostic sur les images étudiées. Soit on leur demande de porter<br />
leur jugement séparément, et on ne garde que les images pour lesquelles tous les experts<br />
portent le même diagnostic. Soit on leur demande d'analyser les images tous ensemble et<br />
de se mettre d'accord.<br />
Il est également possible de considérer que le gold standard est constitué par la réponse<br />
de chaque observateur sur les images originales. Dans ce cas, on de dispose pas d'une<br />
référence diagnostique extérieure supposée plus fiable. On peut alors uniquement<br />
comparer la performance diagnostique sur les origin<strong>aux</strong> et les comprimés, sans connaître<br />
son lien avec le diagnostic vrai. On peut évaluer une différence entre les diagnostics sur<br />
les origin<strong>aux</strong> et les comprimés, on ne peut pas juger si une éventuelle différence<br />
correspond à une amélioration ou une dégradation de la performance diagnostique.<br />
- tâche binaire<br />
- 144 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Les outils d'analyse ROC sont essentiellement appropriés pour des tâches diagnostiques<br />
binaires (normal/anormal). La méthode ROC traditionnelle n'est pas applicable dans le<br />
cas d'un diagnostic impliquant de multiples anormalités sur une même image. [CHAK-90]<br />
a développé une méthode permettant d'analyser un diagnostic comprenant plusieurs<br />
anormalités par image. Cette méthode n'a pas fait l'objet de beaucoup d'applications.<br />
- tâche non courante<br />
Un inconvénient majeur de la méthode ROC est qu'elle ne repose pas sur une tâche<br />
diagnostique courante, principalement à cause du système de score basé sur un degré de<br />
confiance qu'une anormalité est présente ou non. Il est nécessaire d'éduquer les<br />
observateurs à répondre à une telle question.<br />
1.6.3. Etudes de <strong>compression</strong> <strong>d'images</strong> radiologiques à base de<br />
méthode ROC<br />
De nombreux trav<strong>aux</strong> basés sur la méthode ROC ont montré une bonne fidélité<br />
diagnostique pour des modalités radiologiques telles que le scanner, la résonance<br />
magnétique, la radiographie numérisée. Ils montrent que des t<strong>aux</strong> allant de 10:1 à 28:1<br />
avec des méthodes de <strong>compression</strong> par transformation n'introduisent pas de dégradation<br />
de la fidélité diagnostique [SAYR-92], [MACM-91], [BRAM-89], [ISHI-90], [WILH-91].<br />
1.7. Fidélité diagnostique par d'autres méthodes<br />
Une série d'études très pertinente sur l'évaluation de la fidélité diagnostique <strong>d'images</strong><br />
comprimées a été réalisée par Cosman et al. avec une <strong>compression</strong> VQ 9 [COSM-93a],<br />
[COSM-93b], [COSM-94]. La tâche diagnostique de l'une de ces études consiste à<br />
détecter des nodules sur des clichés pulmonaires de scanner. Cette tâche est non binaire<br />
car un cliché peut présenter plus d'un nodule. Trois observateurs ont effectué leur<br />
diagnostic dans des conditions proches de la routine, interprétant chacune des 30 images<br />
dans sa version originale et comprimée selon 6 t<strong>aux</strong>. Le gold standard est obtenu par<br />
consensus entre les 3 observateurs sur les images originales. L'analyse statistique<br />
consiste a évaluer des courbes Se et PVP en fonction du débit. Les courbes sont<br />
obtenues par ajustement quadratique de courbes splines. Des intervalles de confiance<br />
basés sur des méthodes non-paramétriques “bootstrap” ont été évalués. Un exemple de<br />
résultat d’évaluation selon cette approche est donné dans la figure II-1.4.<br />
Les raisons qui ont poussé l'auteur a ne pas utiliser la méthode ROC sont les suivantes:<br />
• respecter la tâche diagnostique courante<br />
• utiliser un diagnostic non binaire (raison de l'utilisation de la PVP au lieu de la Sp car il<br />
n'est pas possible de savoir combien de nodules sont effectivement absents, autrement<br />
dit la notion de TN n'est pas applicable dans le cas d'une tâche non binaire)<br />
• s'affranchir des hypothèses de données gaussiennes sous-jacentes <strong>aux</strong> analyses<br />
ROC.<br />
9 VQ: Vector Quantization, voir chapitre I-2<br />
- 145 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Figure II-1.4: Exemple de courbe de sensibilité en fonction du débit. Tâche<br />
diagnostic: détection de nodules sur des scanners pulmonaires, méthode de<br />
<strong>compression</strong>: VQ.<br />
D’après [COSM-93a]<br />
2. Protocole expérimental de nos évaluations diagnostiques<br />
Dans le paragraphe précédant, nous avons vu les différentes méthodes rencontrées dans<br />
les trav<strong>aux</strong> sur l'évaluation <strong>d'images</strong> comprimées. Notre protocole d’évaluation<br />
diagnostique d’<strong>angiographies</strong> <strong>cardiaques</strong> comprimées repose sur des bases différentes.<br />
Nous allons voir en quoi consiste les tâches diagnostiques courantes en angiographie, et<br />
comment nous avons construit un protocole expérimental ainsi que des analyses<br />
statistiques qui leur correspondent le mieux possible.<br />
2.1. Choix du type d’examen<br />
Divers procédures de divers types peuvent être pratiquées avec un système<br />
d'angiographie cardiaque, au cours desquelles un ensemble de séquences <strong>d'images</strong> sont<br />
acquises. On distingue parmi ces procédures: les examens diagnostics, les interventions<br />
(angioplastie, pose de stent), les examens pédiatriques, les cathétérismes droits etc... Les<br />
aspects techniques et médic<strong>aux</strong> des examens de cathétérismes <strong>cardiaques</strong> au cours<br />
desquels sont réalisés les <strong>angiographies</strong> sont décrits dans [BERE-92] et dans des<br />
ouvrages spécialisés (par exemple [KERN-91]).<br />
Nous avons limité nos études à des procédures diagnostiques d'adultes. Il s'agit de<br />
l'examen le plus pratiqué et il comporte un ensemble complet de séquences permettant<br />
de visualiser le ventricule gauche (ventriculographie), les artères coronaires droite et<br />
gauche (coronarographie). D'une manière très simplifiée, on recherche principalement des<br />
défauts de contractilité du ventricule gauche, et des rétrécissements ou des occlusions<br />
des coronaires. Les examens interventionnels sont plus focalisés sur une lésion et<br />
présente un éventail de séquences moins complet et moins semblables d'un cas à l'autre.<br />
Nous n'avons retenus que des cas diagnostics complets. Ils comprenaient donc une ou<br />
deux incidences (angle de vue) du ventricule gauche, trois à cinq incidences permettant<br />
de visualiser l'artère coronaire droite, et trois à cinq séquences pour l'artère coronaire<br />
gauche.<br />
- 146 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Nous n'avons pas pratiqué de sélection particulière des cas inclus dans l'étude. Les seuls<br />
critères d'exclusion étaient le caractère non complet de l'ensemble des séquences dans<br />
l'examen. Nous n'avons pas cherché à constituer un échantillon particulier de patient<br />
quant à l'âge, les antécédents, les indications, ou les pathologies. Nous avons simplement<br />
collecté au hasard les films digit<strong>aux</strong> dans les institutions de Lille et de Houston avec<br />
lesquelles nous avons travaillé.<br />
2.2. Tâche diagnostique<br />
2.2.1. Tâche d’interprétation visuelle uniquement<br />
L'interprétation visuelle d'une angiographie cardiaque comporte deux volets: l'analyse de<br />
la contractilité du ventricule gauche, et l'analyse d'anormalités sur les artères coronaires.<br />
Nous nous sommes limités dans nos études à cette interprétation visuelle. Cette tâche<br />
comporte une détection, une localisation et une classification. Nous n'avons pas inclu de<br />
tâche relative à la décision thérapeutique sur le patient. Après une angiographie, il peut<br />
être orienté par exemple vers un traitement médicamenteux, une intervention, un pontage.<br />
Ce type de décision n’a pas été intégrée dans notre étude car elle est influencée par<br />
l'ensemble du dossier clinique du patient. Notre étude ne porte que sur la partie<br />
angiographique de ce dossier.<br />
Une description incomplète et simplifiée de l'interprétation d'un examen va être donnée<br />
dans le paragraphe suivant, puis nous aborderons l'influence des tâches diagnostiques<br />
particulières au domaine de l’angiographie cardiaque sur notre méthodologie d'évaluation.<br />
2.2.2. Ventriculographie<br />
Le ventricule gauche est la pompe principale du système sanguin, éjectant le sang dans<br />
les artères du corps. Le muscle cardiaque (le myocarde) est irrigué par les artères<br />
coronaires. La figure II-1.5 montre un schéma du coeur et de ses artères. En cas<br />
d'irrigation insuffisante d'un segment de ventricule par une artère malade, le muscle<br />
souffre, produisant une douleur ou un infarctus du myocarde. Si le défaut d'irrigation<br />
persiste plus de 6 heures, le muscle du segment ventriculaire correspondant meure. On<br />
parle de nécrose.<br />
- 147 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Figure II-1.5: Schéma du coeur et des artères coronaires.<br />
Lors d'une ventriculographie, un produit de contraste opaque <strong>aux</strong> rayons X est injecté<br />
dans le ventricule gauche pendant qu'une séquence d'image est acquise. La séquence<br />
permet de voir la pompe ventriculaire en action. La figure II-1.6 montre deux images du<br />
ventricules gauche correspondant à la phase de remplissage (diastole) et à la phase<br />
d’éjection (systole). Si un segment ventriculaire est atteint, il ne se contracte pas<br />
normalement, réduisant le quantité de sang éjectée à chaque battement de cœur.<br />
L'interprétation visuelle d'une ventriculographie consiste à vérifier si les segments du<br />
ventricule se contractent normalement.<br />
(a)<br />
Figure II-1.6: Image angiographique du ventricule gauche, projection OAD (oblique<br />
antérieur droit). (a) Fin de diastole, (b) fin de systole.<br />
La division du ventricule en plusieurs segment correspond à certaines nomenclatures<br />
médicales (segment antérieur, inférieur, latéral, apical, septal). La classification des<br />
anormalités suit aussi une terminologie établie. Le segment peut être normal,<br />
- 148 -<br />
(b)
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
hypokinétique (contraction faible), akinétique (pas de contraction), hyperkinétique<br />
(contraction d'amplitude plus importante que la normale). La segmentation du ventricule et<br />
les anormalités sont illustrées dans la figure II-1.7.<br />
Figure II-1.7: Segmentation du ventricule gauche et illustration de quelques<br />
anormalités. D’après [KERN-91].<br />
2.2.3. Coronarographie<br />
La coronarographie consiste à injecter dans l'artère coronaire droite ou gauche un produit<br />
de contraste opaque <strong>aux</strong> rayons X pendant que les images sont acquises. On obtient une<br />
séquence qui montre le remplissage des artères par le produit de contraste.<br />
L'interprétation visuelle de la coronarographie consiste à vérifier que chaque segment<br />
d'artère coronaire est bien ouvert et qu’il se remplit normalement. En cas d'obstruction par<br />
une plaque d'athérome, la sténose (ou rétrécissement) altère la progression du sang.<br />
Il existe plusieurs nomenclatures des artères coronaires. Nous avons choisi un système<br />
international recommandé par L'American Heart Association (AHA). Ce système est utilisé<br />
en routine à Lille, et il est bien connu des cardiologues de Houston. La nomenclature AHA<br />
est illustrée par le schéma d’artères coronaires de la figure II-1.8.<br />
- 149 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
N o abbr. F nom Français abbr. A nom Anglais.<br />
1 D1 Droite proximale RCAp Right coronary artery proximal<br />
2 D2 Droite moyenne RCAm Right coronary artery mid<br />
3 D3 Droite distale RCAd Right coronary artery distal<br />
4 RV&IVP Rétro ventriculaire & interventriculaire RCApda<br />
postérieure<br />
5 TC Tronc commun LMCA Left Main Coronary Artery<br />
6 IVAp Inter ventriculaire antérieure prox. LADp Left anterior descending prox.<br />
7 IVAm Inter ventriculaire antérieure moyenne. LADm Left anterior descending mid..<br />
8 IVAd Inter ventriculaire antérieure distale. LADd Left anterior descending distal<br />
9 Diag1 Diagonale 1 Diag1 Diagonal 1<br />
10 Diag2 Diagonale 2 Diag2 Diagonal 2<br />
11 CXp Circomflexe prox. LCXp Left circumflex prox.<br />
12 Marg1 Marginale 1 OM1 Obtuse marginal 1<br />
13 CXd Circomflexe distale LCXd Left circumflex distal<br />
14 Marg2 Marginale 2 OM2 Obtuse marginal 2<br />
15 Marg3 Marginale 3 OM3 Obtuse marginal 3<br />
16 PT IVA Pontage IVA graft LAD<br />
17 PT Diag1 Pontage diagonale 1 graft D1<br />
18 PT Marg Pontale marginale graft OM<br />
19 PT D Pontage droite graft RCA<br />
Figure II-1.8: Segmentation des artères coronaires selon la nomenclature du<br />
CASS 10 .<br />
L’interprétation visuelle de la coronarographie consiste à passer en revue les segments de<br />
coronaires, à évaluer leur degré d’anormalité . Des éventuelles sténoses peuvent avoir un<br />
impact sur la qualité de l’irrigation du muscle cardiaque. Un score fréquemment utilisé<br />
pour qualifier le segment d’artère est le pourcentage de sténose. Il indique de combien de<br />
pour cent l'artère est rétrécie par rapport <strong>aux</strong> segments sains adjacents. Cette valeur peut<br />
être quantifiée par un logiciel de mesure (voir chapitre II-6), mais au préalable les<br />
cardiologues l’estiment à l'œil nu. En pratique, l’interprétation des coronarographies est<br />
principalement basée sur une estimation visuelle. La figure II-1.9 montre un exemple de<br />
coronarographie de l’artère droite et de l’artère gauche en illustrant la segmentation des<br />
vaisse<strong>aux</strong>.<br />
10 CASS: Coranary Artery Surgery Study [CASS-81]<br />
- 150 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
D1<br />
TC<br />
IVAp<br />
IVAm<br />
CXp<br />
IVAd<br />
D2<br />
CXd<br />
OM1<br />
D3<br />
D3<br />
(a)<br />
Figure II-1.9: Exemple de coronarographies. (a) Artère coronaire droite présentant<br />
une lésion sévère sur le segment D3. (b) Artère coronaire gauche normale.<br />
Nous avons choisi de ne pas utiliser le pourcentage de sténose dans notre travail<br />
d’évaluation. La première raison est qu'il y a une ambiguité entre le pourcentage de<br />
réduction en diamètre et en surface. Les logiciels donnent l'une ou l'autre valeur, mais les<br />
cardiologues ne sont pas toujours conscients de celui qu'ils emploient. Il n'y a pas de<br />
consensus implicite sur la question. [FLEM-91] a observé dans une expérience sur<br />
quelques fantômes que les cardiologues n'ayant pas d'expérience de l’analyse<br />
quantitative avaient tendance à “voir” un pourcentage en surface, tandis que les<br />
cardiologues expérimentés “voyaient” un pourcentage en diamètre. Il y a un effet<br />
d'apprentissage dû à la pratique des mesures QCA, ce qui modifie la façon d'évaluer<br />
visuellement les sténoses. Cette ambiguité aurait pu attirer une imprécision purement due<br />
<strong>aux</strong> observateurs dans nos évaluations. La deuxième raison de ne pas utiliser le<br />
pourcentage de sténose est que l'échelle de 0 à 100% est bien plus fine que ce que<br />
l'observateur humain ne peut discriminer. En général, les cardiologues utilisent l'échelle<br />
par palier de 10% en 10% dans leur réponses. [FLEM-91] et [BERT-93] on pu observer<br />
qu'en fait l'interprétation visuelle du pourcentage de sténose est de distribution multimodale<br />
(alors que les valeurs mesurées par logiciels sont de distribution gaussienne).<br />
Dans ces deux études, les observateurs ont tendance a employer uniquement des valeurs<br />
autour de 0, 50 et 100% pour [FLEM-91], et de 30 et 70% pour [BERT-93] (qui a la<br />
particularité de porter sur des cathétérismes interventionnels).<br />
A la place du t<strong>aux</strong> de sténose en pourcentage, nous avons utilisé un score basé sur une<br />
échelle ordinale de 0 à 5:<br />
• 0 (normal),<br />
• 1 (irrégularités),<br />
• 2 (
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
de forme elliptoïdale ou irrégulière, ce qui nécessite de la voir sous plusieurs angles avant<br />
de pouvoir se déterminer.<br />
2.3. Protocole expérimental<br />
Nos expériences d'évaluation ont pour but de déterminer si la <strong>compression</strong> modifie<br />
significativement l'interprétation visuelle des <strong>angiographies</strong> <strong>cardiaques</strong>. Nous nous<br />
sommes fixé comme contrainte de respecter le plus possible la façon normale de<br />
travailler. Ces principes ont été appliqués dans nos deux évaluations diagnostiques, à Lille<br />
et à Houston.<br />
En particulier, l’expérimentation devait être basée sur:<br />
• des tâches diagnostiques usuelles<br />
• des conditions matérielles usuelles.<br />
En conséquence, nous avons mis au point un protocole expérimental basé sur la<br />
visualisation d’examens complets (et non pas de séquences ou d’images isolées).<br />
L’interprétation a été consignée sur un questionnaire diagnostic (annexe A).<br />
Le système de visualisation employé pour nos expérience était un système DCI de<br />
Philips. A Lille comme à Houston, un DCI dédié <strong>aux</strong> recherches cliniques était disponible.<br />
La figure II-1.10 montre un console avec ses écrans et son interface utilisateur.<br />
Figure II-1.10: Console de visualisation utilisée pour les évaluations diagnostiques.<br />
Le dispositif est strictement identique <strong>aux</strong> systèmes cliniques. La roue permet de<br />
faire défiler les séquences.<br />
Les tâches diagnostiques sur lesquelles nous devons tester l'influence de la <strong>compression</strong><br />
diffèrent en plusieurs points de celles rencontrées dans les études de <strong>compression</strong> en<br />
radiologie:<br />
• Le diagnostic d'un examen d’angiographie se fait sur un ensemble de séquences, et<br />
non sur une seule image comme dans les évaluation de radiologie.<br />
• Les tâches diagnostiques des études radiologiques sont des tâches de détection<br />
uniquement (présence d'une fracture, de nodules, cas anormal ou non). Nous avons à<br />
faire à une tâche qui combine une localisation, une détection et une classification. Nous<br />
n'avons pas trouvé dans les expériences publiées de protocole expérimental et de<br />
méthode statistique directement applicable à notre cas.<br />
- 152 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
• Le diagnostic est constitué non pas d’une réponse de type binaire, mais d’une réponse<br />
catégorielle par segment de ventricule, et d’une réponse ordinale par segment de<br />
coronaire.<br />
Ces particularités rendent difficile l’emploi de méthodes basée sur les indices<br />
diagnostiques de type sensibilité et spécificité.<br />
Nos études ont été basées sur l’estimation de la concordance intra- et inter-observateurs<br />
entre les interprétations visuelles de ventriculographies et coronarographie avec ou sans<br />
<strong>compression</strong>.<br />
3. Princip<strong>aux</strong> outils statistiques utilisés<br />
3.1. Méthodologie basée sur la concordance<br />
3.1.1. Types de concordances évaluées<br />
Nos protocoles expériment<strong>aux</strong> et nos analyses statistiques sont basés sur l'évaluation de<br />
la concordance (ou la reproductibilité, ou son contraire la variabilité) entre les diagnostics<br />
effectués par les observateurs avec ou sans <strong>compression</strong>. Les différentes concordances<br />
qui peuvent être estimées sont illustrés par la figure II-1.11. On distinguera:<br />
• les concordances inter-<strong>compression</strong>,<br />
• les concordances inter-observateurs,<br />
• les concordances intra-observateurs, qui seront aussi appelés intra-<strong>compression</strong><br />
INTER<br />
OBSERVATEURS<br />
{<br />
observateur 2<br />
observateur 1<br />
INTER<br />
COMPRESSION<br />
{<br />
origin<strong>aux</strong><br />
comprimés<br />
réplication 1 réplication 2<br />
{<br />
INTRA<br />
OBSERVATEUR<br />
Figure II-1.11: Types d'accord possibles<br />
- 153 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Les princip<strong>aux</strong> modes de comparaison des concordances ont été les suivants.<br />
• Concordance inter-observateurs<br />
La concordance inter-observateurs sur les origin<strong>aux</strong> est comparée à la concordance interobservateurs<br />
sur les images comprimées.<br />
• Concordance inter-<strong>compression</strong><br />
La concordance d’un observateur sur les origin<strong>aux</strong> est comparée à la concordance avec<br />
une lecture sur les origin<strong>aux</strong> et une lecture sur les images comprimées.<br />
• Concordance intra-observateurs<br />
L'approche inter-<strong>compression</strong> expliquée ci-dessus est en même temps une approche<br />
intra-observateur.<br />
La concordance intra-observateur avec entre les deux réplications sur les origin<strong>aux</strong> est<br />
comparée à celle entre les deux réplications sur les images comprimées.<br />
3.1.2. Reproductibilité des observateurs dans l'interpétation de<br />
coronarographies<br />
De nombreux trav<strong>aux</strong> font état d’une reproductibilité très pauvre de l’interprétation visuelle<br />
des coronarographies diagnostiques à partir de ciné-film. [DERO-77] observe un écart<br />
type de 18% sur l’estimation du t<strong>aux</strong> de sténose par un observateur, à partir d’une étude<br />
avec 11 observateurs et 10 artériographies. [DETR-75] indique un degré d’accord interobservateur<br />
qui varie entre 100% et le pur hasard. [VAS-85] trouve un écart type de 14%<br />
sur les interprétations par 4 observateurs de 36 lésions vues sur des images statiques.<br />
D‘autres études font état d’une reproductibilité quelque peu meilleure. [SCOB-84] trouve<br />
un écart type de 7%. [TRAS-84] observe que 2 observateurs ont un jugement concordant<br />
dans 86% des cas à partir de 340 segments de coronaires. Dans [SANM-78], 4<br />
observateurs établissant en commun un consensus tombent d’accord dans 95% des cas<br />
sur 186 segments de coronaires, même si l’écart type entre 2 lectures est de 14%.<br />
[BEAU-90] et [FLEM-91] ont montré que l’expérience de l’observateur n’a pas d’influence<br />
significative sur la variabilité.<br />
Il est difficile de comparer ces études entre elles car elles sont basées sur des protocoles<br />
expériment<strong>aux</strong> et des analyses statistiques différentes. Bien qu’on n’y trouve pas une<br />
claire indication de la limite tolérable de désaccord, un consensus semble établi qui<br />
contre-indique l’emploi de l’interprétation visuelle comme seul critère de mesures pour les<br />
protocoles de recherche clinique.<br />
Deux types de recommandations ont été émises pour pallier ce problème dans la<br />
recherche: l’interprétation par un groupe de lecteur ou le moyennage de plusieurs<br />
réponses [KUSS-92], et les mesures quantitatives par logiciel ([BEAU-90], [BERT-93]...).<br />
Il n’en reste pas moins que l’interprétation visuelle est la méthode diagnostique primaire,<br />
et qu’elle est pratiquée par les cardiologues individuellement dans une majorité<br />
d’institutions. Les concertations avec plusieurs experts ne concernent en général que les<br />
cas difficiles. Les mesures quantitatives ne sont effectuées que sur des lésions qui ont été<br />
identifiées visuellement comme potentiellement significatives.<br />
Il nous est donc paru incontournable d’étudier l’effet de la <strong>compression</strong> sur les<br />
interprétations visuelles, et de limiter le plus possible les sources de variabilités. Nous<br />
pensons que deux éléments de notre protocole expérimental contribuent à limiter cette<br />
variabilité:<br />
• L’utilisation d’un score dont l’échelle et la sémantique reflètent bien l’analyse mentale<br />
de l’expert. Un écart de 15% sur une même sténose n’a pas forcément d’impact sur la<br />
décision médicale, mais une classification de la sténose en tant que significative<br />
- 154 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
(50%) induira un traitement différent. Le score que nous<br />
avons employé est basé sur échelle suffisamment détaillée pour décrire le segment, et<br />
correspondant à un nombre de grades suffisamment limité pour que l’observateur<br />
puisse les distinguer (contrairement à une échelle sur 100%).<br />
• L’emploi de précautions quant à la localisation des segments de coronaires. Nous<br />
pensons que la détection d’une lésion sur une image est peu sujette à variation, mais<br />
qu’en revanche une imprécision importante est liée à la dénomination du segment de<br />
coronaire concerné. Il est fréquent de décaler de quelques millimètres la limite entre<br />
un segment proximal et moyen par exemple. Nous avons pris soin que les<br />
observateurs de nos études aient une approche rigoureuse de la localisation des<br />
segments de coronaire. C’est le cas des médecins de Lille qui établissent dans leur<br />
pratique clinique un compte rendu donnant un grade à chaque segment. Dans notre<br />
deuxième campagne d’évaluation avec Houston, nous avons même fait en sorte que<br />
la délimitation des segments soit fixe pour chaque angiographie, et employée de la<br />
même façon avec les images originales et comprimées.<br />
3.2. Estimation statistique de la concordance<br />
Nous allons présenter les outils statistiques employés dans nos analyses de données,<br />
dans la mesure où ils ne sont pas fréquemment rencontrés dans les études médicales ou<br />
sur la <strong>compression</strong>.<br />
3.2.1. Concordance par test de kappa<br />
Le coefficient de kappa est un mesure de concordance pour données catégorielles. Il se<br />
rapporte à la différence entre la concordance observée et la concordance aléatoire<br />
[COHE-60], [FLEI-81].<br />
Sa définition est:<br />
κ = p p 0<br />
−<br />
c<br />
, où p 0 est le t<strong>aux</strong> de concordance observé 11 , et p c est la concordance<br />
1−<br />
pc<br />
aléatoire 12 .<br />
Première interpétation catégorie 1 catégorie 2 total<br />
\ deuxième<br />
interpétation<br />
catégorie 1 p 11 p 12 p 1.<br />
catégorie 2 p 21 p 22 p 2.<br />
Total p .1 p .2 100%<br />
Table II-1.2: Exemple de tableau de contingence pour comparer deux interprétations<br />
selon une réponse à deux catégories.<br />
Les t<strong>aux</strong> de concordances observé et aléatoire se déduisent d’un tableau de contingence,<br />
dont un exemple est donné à la table II-1.2 pour un score à k=2 catégories (par exemple<br />
normal/anormal):<br />
p 0 = Erreur!p ii<br />
11 t<strong>aux</strong> de concordance observé, en anglais: overall proportion agreement<br />
12 concordance aléatoire, en anglais: agreement from chance alone<br />
- 155 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
p e = Erreur!p i. p .i<br />
[FLEIS-81] donne des tests pour si une valeur de κ est nulle, et pour comparer plusieurs<br />
valeurs de κ. Ces tests ont été employés pour les réponses d’interprétation visuelles des<br />
ventriculogrammes.<br />
3.2.2. Coefficient de corrélation de concordance de Lin<br />
• Nuages de points (analyse graphique)<br />
Avant l’utilisation de tout calcul statistique plus ou moins sophistiqué, nous avons cherché<br />
à visualiser les données de façon simple et informative.<br />
Si l’observateur répétait exactement la même réponse lors de deux interprétations<br />
différentes sur le même patient, alors toutes les paires de réponses seraient égales. En<br />
affichant les réponse de la première interprétation sur un axe et les de la deuxième<br />
réponse sur l’autre axe, on obtiendrait une série points passant tous sur la droite<br />
d’identité. Plus les résultats de premières et deuxièmes réponses sont différents, et plus le<br />
nuage de points est dispersé autour de la droite d’identité. Un exemple de diagramme en<br />
nuage de point d’après les données de l’évaluation QCA est donné à la figure II-1.12.<br />
5.5<br />
5<br />
4.5<br />
4<br />
3.5<br />
3<br />
2.5<br />
2<br />
1.5<br />
1<br />
Dref - Originals<br />
0.5<br />
1 2 3 4 5<br />
Figure II-1.12: Exemple de graphe en nuage de points, avec les données de<br />
l’évaluation QCA.<br />
• Statistique associée au graphique en nuage de points<br />
Deux méthodes sont très fréquemment employées pour quantifier le degré d’accord entre<br />
deux séries de réponses: le test de Student pour données appariées, et le coefficient de<br />
corrélation de Pearson. Ces deux approches apportent une information différente de celle<br />
que nous recherchons.<br />
Le test de Student pour données appariées est un test d’hypothèse sur l’égalité des<br />
moyennes de deux séries de mesures effectuées sur un même échantillon. En général, si<br />
la concordance des mesures est bonnes, les moyennes sont égales, mais cela n’est pas<br />
toujours le cas. La figure II-1.13 (a) montre des exemples d’interprétations erronées<br />
<strong>aux</strong>quelles ce test peut conduire, en concluant à des moyennes égales.<br />
Le coefficient de corrélation de Pearson quantifie le degré de linéarité qui relie les deux<br />
séries de mesures. Il se peut que les paires de mesures passent bien par une droite,<br />
donnant un coefficient proche de 1, mais que cette droite ne soit pas la droite d’identité.<br />
De tels exemples sont illustés par la figure II-1.13 (b).<br />
- 156 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
(a)<br />
(b)<br />
Figure II-1.13: Exemples de cas où le test de Student (a) et le coefficient de<br />
corrélation de Pearson (b) sont peu appropriés pour évaluer la concordance.<br />
• Coefficient de corrélation de concordance de Lin<br />
Ces constatations ont motivé la recherche d’un paramètre plus approprié au problème de<br />
la concordance entre deux séries de mesures. [LIN-89] a développé un coefficient de<br />
corrélation de concordance, qui mesure le degré avec lequel les paires de mesures<br />
passent par la droite d’identité.<br />
- 157 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Le coefficient de corrélation de concordance de Lin est défini par:<br />
2σ<br />
12<br />
ρ c =<br />
2 2<br />
2<br />
σ + σ + ( µ − µ )<br />
1<br />
2<br />
1<br />
2<br />
(II-1.1)<br />
où σ 1 et σ 2 sont les variances de la première et de la deuxième série de mesures,<br />
respectivement<br />
σ 12 est la covariance<br />
µ 1 et µ 2 sont les espérances mathématiques<br />
Son estimation à partir des échantillons est donnée par:<br />
2S12<br />
r c =<br />
2 2<br />
2<br />
S + S + ( Y − Y )<br />
1<br />
2<br />
1<br />
2<br />
(II-1.2)<br />
où<br />
N<br />
Y, − j = 1/N ∑<br />
S j , ² = 1/N<br />
S 12 = 1/N<br />
i=<br />
1<br />
N<br />
∑<br />
i=<br />
1<br />
N<br />
∑<br />
i=<br />
1<br />
Y ij<br />
(Y ij - Y, - j )² , j=1, 2<br />
(Y i1 - Y, - 1 ) (Y i2 - Y,- 2 )<br />
r c est un estimateur sans biais de ρc , avec une hypothèse de distribution gaussienne des<br />
populations. La distribution de rc est asymptotiquement gaussienne avec pour espérance<br />
mathématique ρc et pour variance:<br />
V(r c ) = Erreur! [ (1-ρ²) ρc ² (1-ρ c ²)/ρ² + 4ρ c 3 (1-ρc )u²/ρ - 2ρ c 4 u 4 /ρ² ]<br />
(II-1.3)<br />
σσ 1 2<br />
avec u=(µ1-µ2)/<br />
et ρ : coefficient de corrélation de Pearson<br />
Dans nos évaluations diagnostiques, nous avons utilisé ces définitions du coefficient de<br />
corrélation de concordance sur les scores de sévérité des lésion coronaires, en calculant<br />
des estimations de ρ c avec la formule (II-1.2), des estimations d’intervalles de confiance à<br />
partir de la définition (II-1.3) de la variance.<br />
Dans l’évaluation QCA, nous avons également utilisé des coefficients de Lin. L’estimation<br />
du coefficient et de son intervalle de confiance s’est faite à l’aide d’une technique de<br />
“bootstrap”.<br />
• Technique du “bootstrap”<br />
Nous avons observé que la distribution des mesures n’était pas gaussienne et que la taille<br />
des échantillons est relativement petite (N=37). Aussi avons-nous utilisé la méthode du<br />
bootstrap pour estimer la valeur du coefficient de Lin ainsi qu’un intervalle de confiance<br />
sur cette estimation.<br />
- 158 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
Le bootstrap permet d’estimer un paramètre sans faire d’hypothèse quant à la distribution<br />
de la population sous-jacente. Le principe est de ré-échantillonner les mesures un nombre<br />
de fois N b (N b très grand), et de calculer le paramètre N b fois. La moyenne de ces N b<br />
calculs du paramètre fournit une estimation de celui-ci. Le ré-échantillonnage consiste à<br />
tirer au hasard N valeurs avec remise parmi les N mesures. Par exemple, si on disposait<br />
de 5 valeurs 2, 1, 10, 3, 2, un ré-échantillonnage pourrait être 1, 10, 3, 3, 1, ou bien 10, 3,<br />
1, 2, 1, etc... L’idée sous-jacente est de simuler le fait de disposer de N b échantillons dans<br />
la population. Nous avons utilisé la médiane des N b valeurs du paramètre comme<br />
estimation du paramètre (avec N b =1000). [MOON-93] donne plusieurs façon d’estimer un<br />
intervalle de confiance par la méthode du bootstrap. Nous avons utilisé la valeur limite des<br />
percentiles 5% et 95% comme bornes de l’intervalle de confiance de l’estimateur Par cette<br />
approche bootstrap pour l’estimation des paramètres de Lin, aucune hypothèse n’est faite<br />
sur la distribution des mesures QCA.<br />
3.2.3. Graphiques des différences en fonction des moyennes<br />
Une façon de mettre en évidence l’étroitesse de l’accord entre deux mesures est de<br />
représenter la différence des paires de mesures en fonction de la moyenne de ces paires.<br />
Cette méthode graphique a été décrite par [ALTM-83] & [BLAN-86].<br />
Cette approche très simple et très informative a été utilisée dans l’évaluation QCA (par<br />
exemple figure II-4-3).<br />
Nous avons représenté par une droite horizontale la moyenne générale de toutes les<br />
différences entre les paires de mesures. La droite de moyenne est encadrée de deux<br />
droites correspondant à un intervalle de tolérance. La notion d’intervalle de tolérance est<br />
similaire à celle utilisée dans l’industrie pour l’acceptation ou le refus de pièces. C’est une<br />
notion différente de l’intervalle de confiance. Nous nous sommes basés sur la norme<br />
AFNOR (NF X06-032) concernant les intervalles statistiques de dispersion.<br />
Un intervalle statistique de dispersion 13 est un intervalle contenant, avec une probabilité 1-<br />
α (appelée aussi niveau de confiance), une fraction au moins égale à p des valeurs de<br />
mesure. Nous avons utilisé des intervalles bilatér<strong>aux</strong>. Les limites de tolérances L i et L s se<br />
calculent selon la formule:<br />
L i = x − - k n,p,1-α σ et L s = x − + k n,p,1-α σ<br />
Les valeurs de k n,p,1-α sont lues dans des tables.<br />
Nous avons défini de tels intervalles à partir des données sur les images originales, pour<br />
définir les limites tolérées des différences entre les deux réplications. Nous avons<br />
conservé les mêmes limites de tolérance sur les comparaisons impliquant les images<br />
comprimées, pour voir si la <strong>compression</strong> induit une dispersion au delà des limites de<br />
tolérance.<br />
3.2.4. Analyse de la variance<br />
L’analyse de la variance 14 (ANOVA) permet de comparer les moyennes de plusieurs<br />
populations. Certaines ANOVA sont des extensions du test de Student à plus de deux<br />
populations. L’ANOVA suppose que tous les populations ont la même variance et que les<br />
échantillons sont indépendants.<br />
Nous avons utilisé ce type de méthode statistique dans l’évaluation QCA.<br />
13 Intervalles statistiques de dispersion, en anglais: statistical tolerance interval<br />
14 Analyse de la variance, en anglais: ANalysis Of Variance (ANOVA)<br />
- 159 -
Chapitre II-1: Etude bibliographique des méthodes d’évaluation et proposition d'une<br />
nouvelle approche pour <strong>angiographies</strong><br />
• Analyse de la variance pour mesures répétées 15<br />
L’ANOVA pour mesures répétées doit être utilisée quand la même variable est mesurée<br />
plusieurs fois sur les mêmes sujets. Dans notre étude de QCA, la mesure est répétée<br />
avec des traitements différents sur les mêmes images de coronaires. Dans le cas des<br />
mesures répétés, la condition d’indépendance des échantillons est remplacée par une<br />
condition de sphéricité.<br />
Nous avons utilisé le programme 2V du logiciel BMPD. Les facteurs sur lesquels ont porté<br />
l’analyse étaient le facteur réplication (deux nive<strong>aux</strong>: réplication1 et réplication2) et le<br />
facteur <strong>compression</strong> (quatre nive<strong>aux</strong>: pas de <strong>compression</strong>, <strong>compression</strong> avec t<strong>aux</strong> de 5,<br />
8, ou 12:1)<br />
Le logiciel 2V donne une valeur p pour tester si les items suivants sont significatifs:<br />
- facteur réplication<br />
- tendance linéaire entre les nive<strong>aux</strong> du facteur <strong>compression</strong><br />
- tendance quadratique<br />
- tendance cubique<br />
- interaction entre la réplication et la tendance linéaire<br />
- interaction entre la réplication et la tendance quadratique<br />
- interaction entre la réplication et la tendance cubique<br />
- interaction entre la réplication et la <strong>compression</strong> globalement.<br />
Si la condition de sphéricité n’est pas vérifiée, 2V fournit des coefficients rectificatifs des<br />
valeurs de p affectées.<br />
• Test de Friedman<br />
Nous avons une ANOVA particulière dans l’évaluation QCA: l’ANOVA de Friedman à deux<br />
critères de classification 16 . Nous avons utilisé le programme 3S du logiciel BMDP. Le test<br />
de Friedman fait partie des méthodes statistiques non-paramétriques. De ce fait, il n’est<br />
pas basé sur une hypothèse de distribution normale des population sous-jacentes. Ce test<br />
est une extension du test des signes pour plus de deux variables appariées. Le test de<br />
Friedman est basé sur les rangs. A chaque niveau de traitement, les valeurs du paramètre<br />
mesuré sont ordonnés et la somme des rangs des mesures est calculée. Une valeur de<br />
type chi-2 est déduite de ces sommes, permettant le test d’identité des différents<br />
traitements<br />
15 Analyse de la variance pour mesures répétées, en anglais: repeated measures ANOVA<br />
16 En anglais: Friedman’s two way ANOVA<br />
- 160 -
CHAPITRE II-2<br />
PREMIERE ETUDE D’EVALUATION<br />
DIAGNOSTIQUE<br />
- 161 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
Préliminaires<br />
L’application de la <strong>compression</strong> avec perte dans le domaine médical requiert une évaluation<br />
sur le contenu diagnostic des images comprimées. Nous avons conduit une première<br />
campagne d’évaluation basée sur les interprétations diagnostiques d’<strong>angiographies</strong><br />
complètes avec ou sans <strong>compression</strong>.<br />
Ces trav<strong>aux</strong> ont fait l’objet d’une rédaction en anglais en vue de leur communication au sein<br />
de la Société Philips, et en vue d’une publication qui sera soumis dans les prochains mois<br />
dans une revue cardiologique.<br />
Cette étude a été présentée au congrès de la Société Européenne de Cardiologie en Août<br />
1995.<br />
Lossy Data Compression of Digital Cardiac Angiograms: Clinical<br />
Evaluation of the Image Quality.<br />
1. INTRODUCTION<br />
The assessment of images of the heart or of the coronary arteries for diagnostic purposes or<br />
to determine the feasibility of therapeutic interventions is usually based on cine-film<br />
recordings. Even when the catheterization laboratory images were originally digitized, they<br />
are still not stored in a digital format due to technological and financial constraints: a standard<br />
cardiac angiogram comprises 1000 to 3000 images, representing 250 to 750 Mega Bytes for<br />
512x512 pixel images coded in 8 bits. Image data <strong>compression</strong> is necessary to achieve fully<br />
digitized archiving of cardiac angiography and to enable images to be transmitted via<br />
networks.<br />
Real time lossless data <strong>compression</strong> has already been available for several years on the<br />
Philips Digital Cardiac Imaging (DCI) system. It doubles the disk capacity of the angiography<br />
system. But this additional capacity is still not sufficient to store the daily work load of a<br />
catheterization laboratory. Lossfree <strong>compression</strong> is generally associated with reduction<br />
factors or <strong>compression</strong> ratios (CR) of 2:1 for this type of image [ROOS-88]. This means that<br />
two compressed images can be stored on the same disk space as one single non<br />
compressed image. For full storage of patient image data, we estimated that a <strong>compression</strong><br />
ratio of 8 to 16:1 was necessary. Such CRs are only possible with lossy data <strong>compression</strong><br />
methods, implying that the image is irreversibly changed. One must therefore ensure in<br />
clinical conditions that the diagnostic quality of cardiac angiograms is not altered after lossy<br />
data <strong>compression</strong> .<br />
We performed a study on 18 patients to evaluate whether cardiac angiograms after lossy<br />
<strong>compression</strong> could replace the originals in the working catheterization laboratory<br />
environment. Two <strong>compression</strong> algorithms were assessed with a reduction factor of 12:1: the<br />
- 162 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
standard MPEG technique, and a scheme based on the so called MLOT transform specially<br />
developed for this study. Two observers reviewed separately the digital films. Each patient<br />
angiogram was displayed at least three times in the course of the study, in its original, MPEG<br />
compressed, and MLOT compressed version. The interpretation was performed using the<br />
standard procedures of the Service d'Hémodynamique in the Hôpital Cardiologique, Lille,<br />
France.<br />
2. MATERIALS & METHODS<br />
2.1. Patient selection<br />
The full digital cardiac angiograms of 18 patients were acquired from a mono-plane DCI<br />
system. Each angiogram included a ventriculogram and a coronary angiogram. Only<br />
diagnostic procedures were studied. Purely interventional procedures were not included. If a<br />
diagnostic procedure was followed by an intervention, the intervention images were removed.<br />
Patients with normal coronary arteries, with single, double, or triple vessel disease were<br />
studied.<br />
2.2. Image selection<br />
In Lille, a diagnostic examination follows a standardized format. The left ventriculogram is<br />
obtained in the 9" Image Intensifier (I I) mode with a Right Anterior Oblique 30° projection<br />
(RAO-30); sometimes a Left Anterior Oblique 45° (LAO-45) is also performed. The left<br />
coronary artery is filmed in the 7" I I mode in six projections: RAO-30, RAO-15/Ca15 (Ca<br />
means caudal), RAO-10/Cr15 (Cr means cranial), RAO-10/Cr40, LAO-55/Cr25, and LAO 90.<br />
The right coronary is viewed in the 7" I I mode in three projections: LAO-90, LAO-45, RAO-<br />
45. Sometimes artery segments are magnified in 5" I I mode or filmed in other projections in<br />
order to further assess a lesion. The film speed is always 12.5 images per second for both<br />
the LV and coronary imaging. We removed some images of no diagnostic use such as those<br />
with no contrast medium, resulting in an average number of images per patient of 580,<br />
ranging from 430 to 740; this is rather low compared to many catheterization laboratories<br />
where the acquisition speed is higher. Images were exported from a DCI system into a Sun<br />
platform with the PMSnet TM networking. They were converted from their ACR-NEMA format to<br />
Unix files and stored on digital tapes.<br />
2.3. Image processing<br />
All images from the 18 patient angiograms were compressed and reconstructed with the<br />
MPEG and MLOT algorithms, at a <strong>compression</strong> ratio of 12:1 We will later refer to MPEG 12 or<br />
MLOT 12 compressed images or angiograms. In this paper the word "compressed" refers to an<br />
image after it has been compressed and reconstructed. Strictly speaking, the compressed<br />
image is a binary file of small size that cannot be visualized; the reconstructed image is a<br />
pixel file with the same size as the original and which can be visualized. The words<br />
coded/coding are have here the same meaning as compressed/<strong>compression</strong>.<br />
Block-based transform coding is currently the most widespread lossy <strong>compression</strong> technique.<br />
Some standards are now commonly used. The Moving Picture Experts Group (MPEG) has<br />
proposed a video <strong>compression</strong> standard for multimedia applications [LEGA-91]. Briefly, the<br />
- 163 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
redundancy from one frame to the other is reduced by a block-based motion compensation;<br />
the spatial or intra-frame redundancy is reduced by quantizing the frequency components<br />
derived from a particular mathematical transform of the image pixels: the block Discrete<br />
Cosine Transform (DCT). A disadvantage of block-based <strong>compression</strong> lies in the fact that<br />
individual blocks become visible at high <strong>compression</strong> ratios. This is particularly true for<br />
medical images and cardiac angiograms because of the viewing conditions. The latter tends<br />
to enhance the contours of the vessels, and in the same time the block boundaries. To<br />
overcome the so-called "blocking effect" or "block artifact", a dedicated algorithm was<br />
investigated. It is an intra-frame coding based on the Modified Lapped Orthogonal Transform<br />
(MLOT) [BREE-94]. In the process of transforming the pixels from spatial gray values into<br />
frequency coefficients, some information from adjacent blocks is used. This does not<br />
generate blocking in the reconstructed image. In the development of the MLOT algorithm, the<br />
quantization of frequency coefficients has been adapted to the viewing conditions of the<br />
catheterization laboratory, and especially to the edge enhancement applied by default in the<br />
digital cardiac angiography DCI system. This edge enhancement is a convolution filter. It<br />
increases the medium and high frequencies of the image. This makes the vessel contours<br />
and the small vessels more visible, at the cost of increasing the visibility of the image noise<br />
and ... enhancing some <strong>compression</strong> artifacts.<br />
2.4. Observers and viewing sessions<br />
Non-compressed and compressed angiograms were interpreted by two observers: two<br />
experienced angiographers and interventionalists, one junior and one senior. The viewing<br />
sessions took place in the normal clinical environment. A viewing system was built and<br />
installed there for the study; it has exactly the same operator console and display devices as<br />
the catheterization laboratory DCIs. Typically, a viewing session took 45 minutes, the time<br />
needed to review, interpret and report on 9 patient angiograms. Of the 9 sets of patient<br />
images reviewed in a single session, some were original, some were MPEG 12 and some were<br />
MLOT 12 ; the observer was not informed which was which. In the course of the study, both<br />
observers interpreted separately the 18 original angiograms, the 18 MPEG 12 and the 18<br />
MLOT 12 ones. In addition, 5 original, 5 MPEG 12 , and 5 MLOT 12 angiograms were also<br />
reviewed a second time to analyse the intra-observer variability. Ideally we should have<br />
repeated all 18 originals, 18 MPEG 12 and 18 MLOT 12 angiograms but this was impossible for<br />
time constraints. About 35 000 images were handled for this study. Finally, 69 angiograms<br />
were interpreted by the two observers, resulting in a total of 138 interpretations.<br />
Observers were free to review each film at their own pace, to move forward and backward<br />
and change the speed. But changing the post-processing settings was not allowed, such as<br />
applying zoom, increasing the default edge enhancement, changing contrast and brightness.<br />
All these have an influence on the visibility of <strong>compression</strong> artifacts, especially for MPEG,<br />
and it would be a non-reproducible factor making the analysis of our data very difficult.<br />
2.5. Diagnostic task<br />
In interpreting the angiograms of this study, observers were asked to do the same diagnostic<br />
task as in the clinical practice at their Cardiology Department. A sheet was derived from the<br />
information recorded after every catheterization laboratory procedure. This sheet or<br />
diagnostic questionnaire included the interpretation of the left ventricle and the coronary<br />
arteries (see appendix). The cardiologists had to locate and grade the abnormalities of the LV<br />
and the coronary artery segments. The segments were classified using the CASS system<br />
- 164 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
currently used in the Department. No patient information was provided, the diagnostic<br />
questionnaires were filled in using the image information only.<br />
Briefly, the diagnostic tasks performed on the angiograms by cardiologists consists in<br />
assessing the Left Ventricle (LV) function, and the presence and severity of coronary<br />
disease. The ventriculogram shows the dynamics of the LV. If an LV segment does not<br />
contract properly, the ability of the heart to eject blood to the body is reduced. Doctors judge<br />
the contraction patterns of the LV walls. Absence of contraction is in many cases due to<br />
coronary disease. The coronary arteriogram shows the coronary arteries lumen. Doctors look<br />
for narrowing, partial or total occlusions of the main coronary branches.<br />
3. Statistical analysis<br />
3.1. Introduction<br />
Angiography is generally considered as the definitive procedure for coronary disease. The<br />
only standard available for assessing the diagnostic value of a compressed angiogram is the<br />
non-compressed angiogram. We compare a new imaging technique with an established one<br />
to see whether they agree sufficiently for the new to replace the former. Comparing the new<br />
technique with the "true" diagnostic is not possible. The main objective for the statistical<br />
analysis of the diagnostic questionnaires was to assess the degree of agreement between<br />
the compressed and the original angiograms. The protocole of this study is novator in many<br />
respects: review of digital angiogram on a catheterization laboratory system, not a computer;<br />
assessment of the diagnostic quality of full cardiac angiograms; use of the ordinary diagnostic<br />
tasks. We had to design a new approach in order to assess the impact of lossy data<br />
<strong>compression</strong> on the cardiologists' diagnostic from cardiac angiograms. An exam consists of<br />
diagnostic tasks, for the LV and the coronary artery. We have analyzed them separately.<br />
3.2. Analysis of the LV interpretations<br />
The LV segments assessed for the diagnostic questionnaire were the anterior, apical, inferior<br />
and lateral ones. For each segment, the observers had to classify wall motion as: "normal",<br />
"akinetic", "hypokinetic", "dyskinetic". This type of rating is categorial. An appropriate<br />
measurement of agreement for this type of data is the kappa introduced by [COHE-60] and<br />
described by [FLEI-81]. Kappa compares the degree of agreement between two ratings with<br />
the agreement from chance alone; it sample estimate is denoted here k,^. If there is complete<br />
agreement k,^=1; if the observed agreement is greater than chance k,^ >0; if it is less than<br />
chance k,^
Chapitre II-2: Première étude d’évaluation diagnostique<br />
3.3. Analysis of the coronary angiogram interpretations<br />
On each diagnostic questionnaire, the observers graded 15 coronary segments and 4<br />
possible grafts. The vessel diameter narrowing were graded from 0 (normal) to 5 (occlusion),<br />
with 3 sub-divisions for occlusion using the TIMI system. A correspondence of the grades and<br />
percent stenosis is given in table 7, section 3-3-1<br />
Like for the ventriculograms, we had to estimate the agreements between the interpretations<br />
of original and compressed films, or between the interpretations of observer 1 and observer<br />
2. The rating is here ordinal and will be treated like a numerical value. As explained in section<br />
3-3-1, we had to modify the grades into global scores for the main coronary branches.<br />
Nevertheless, the principle of the analysis remained unchanged.<br />
For comparing interpretations, the first step was to plot the data of one set of interpretations<br />
versus the data of the second set. If the interpretation of each patient were all identical, all<br />
the points would fall on the line of equality. A simple observation of the data on such a plot is<br />
very informative.<br />
The second step is to summarize the agreement gauged by the eye into an appropriate<br />
statistics. A natural approach seems to be the estimate of the Pearson correlation coefficient<br />
r but it is misleading here [BLAN-86], [LIN-89]. The Pearson correlation coefficient measures<br />
the strength of a linear relationship between two sets of grading, not the agreement between<br />
them. Another widespread method is the paired t-test. It evaluates whether the estimated<br />
means of the two sets of grading are equal, this may be true even with a very poor<br />
agreement.<br />
We chose a concordance correlation coefficient ρ c proposed by Lin [LIN-89]. It evaluates the<br />
degree to which pairs of grading fall on the line of equality. It is scaled between -1 and +1. +1<br />
is the perfect agreement, -1 the perfect reversed agreement, and 0 the absence of<br />
agreement (i.e. the grading are independent). We computed the estimates r c and derived the<br />
confidence intervals from the estimates of the variance s ² , rc under a gaussian assumption.<br />
4. RESULTS<br />
4.1. Image quality judgements<br />
Observers reviewed original and compressed angiograms. They were aware of this fact and<br />
had been informed of the purpose of the study. But to their surprise they were never able to<br />
tell whether a film was compressed or not, they could see nothing in the images that would<br />
make <strong>compression</strong> distinguishable, neither for MPEG, nor for MLOT. This is a very important<br />
qualitative result: in the default viewing conditions of the catheterization laboratory, MPEG or<br />
MLOT <strong>compression</strong> at a <strong>compression</strong> ratio of 12:1 were not detected by the doctors.<br />
A side item was asked in the diagnostic questionnaire: observers had to give their global<br />
opinion of the image quality on a three-point scale (good, average, poor). The grade "poor"<br />
was never used for any of the 138 diagnostic questionnaires, and the grade "good" was the<br />
most common. On 46 interpretations of the original angiograms, 7 were "average"; on 46<br />
interpretations of the MPEG 12 angiograms, 12 were "average"; and on the 46 interpretations<br />
of the MLOT 12 , 8 were "average". The MPEG 12 films seem to be slightly worse than the<br />
original and MLOT 12 ones, but this differences are not statistically significant (χ² test :<br />
- 166 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
p>0.10). The observed numbers of "average" on original, MPEG 12 or MLOT 12 are not<br />
statistically different.<br />
The opinion of the investigators, who have a technical background, provides an additional<br />
qualitative result. To their eyes the MPEG 12 films could be recognized because some<br />
blocking structures were clearly visible in the background of the images. This was probably<br />
not noted by the doctors as there is no diagnostic information in the background. During<br />
dynamic viewing it gave the impression of moving square patterns, and a horizontal and<br />
vertical texture could be seen on still frames. As the actual frequency contents of each block<br />
is different and as blocks are coded separately, one can see that some blocks are more<br />
blurred than others. Moreover, a slight haziness can be seen on MPEG 12 images for tiny<br />
vessels. It is harder to see in large vessels in the default viewing conditions.<br />
One can also detect that a film is MLOT 12 coded but this requires much closer attention. Only<br />
a very slight difference in the usual noise pattern or noise texture can be seen.<br />
If the default viewing conditions are changed, by applying zoom for instance, MPEG 12 images<br />
look poor: very "grainy" (blocking effect) and blurred, the contours of large vessels are not<br />
very well defined and would be difficult to draw in a quantization software. Zoomed MLOT 12<br />
images were of good quality, slightly lacking in definition.<br />
4.2. Left ventricle interpretations<br />
4.2.1. Introduction<br />
The two cardiologists assessed four LV segments (anterior, apical, inferior, lateral). The<br />
lateral segment is only seen in the LAO-45 projection which was performed in only 4 of the 18<br />
patient angiograms. Thus data for the lateral segments was not analyzed. The category<br />
"dyskinetic" was never used by the observer and will not appear in the analysis.<br />
Classification of abnormalities on medical images is subject to inter and intra-observer<br />
variability. We focused on assessing whether the possible variability caused by lossy data<br />
<strong>compression</strong> in the ventriculogram interpretations was comparable to the observer variability.<br />
4.2.2. Inter-observer agreement<br />
We firstly analyzed the inter-observers agreement resulting from the interpretations of the<br />
original angiograms by the two observers, as shown in table 1. We indicated “Npatient”, the<br />
number of patients interpreted for each LV segment; “Ndisag”, the number of disagreements;<br />
the kappa estimate, and “p”, the p-value from the test of independence.<br />
- 167 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
observer 1: original / observer 2: original<br />
LV segment Npatient Ndisag k,^ p<br />
Anterior 18 2 0.73
Chapitre II-2: Première étude d’évaluation diagnostique<br />
The kappa estimates are statistically significant (the agreement is beyond chance alone),<br />
except on the inferior segment when observer 1 interprets the originals and observer 2 the<br />
MPEG 12 films (p=0.089) . The kappa estimates seem globally smaller when one of the two<br />
interpretations was done on compressed films than when they were both on originals. For<br />
each LV segment, we tested whether the estimated kappa values from original and<br />
compressed interpretations were statistically significant. The results from these tests is given<br />
hereafter for the following sets of kappas:<br />
- k,^ from originals by both observers, k,^ from interpretations on originals by observer 1 and<br />
on MPEG 12 by observer 2, k,^ from interpretations on MPEG 12 by observer 1 and original by<br />
observer 2;<br />
the three underlying values of kappa are not statistically different (p>0.25);<br />
- k,^ from originals by both observers, k,^ from interpretations on originals by observer 1 and<br />
on MLOT 12 by observer 2, k,^ from interpretations on MLOT 12 by observer 1 and original by<br />
observer 2;<br />
the three underlying values of kappa are not statistically different (p>0.25);<br />
- k,^ from originals by both observers, k,^ from MPEG 12 by both observers, k,^ from MLOT 12<br />
by both observers;<br />
the three underlying values of kappa are not statistically different (p>0.25)<br />
There is no statistically significant difference in the inter-observer agreement from the original<br />
and the MPEG 12 films, or from the original and the MLOT 12 films, or from the original,<br />
MPEG 12 , and MLOT 12 films.<br />
In conclusion, the agreement between the two observers on the LV segments is globally good<br />
or average, and beyond chance alone. No statistically significant difference in the interobserver<br />
agreement was found, whether the observers both interpreted original angiograms,<br />
whether one of the two observers interpreted compressed angiograms (MPEG 12 or MLOT 12 ),<br />
or whether the two observers interpreted compressed angiograms (MPEG 12 or MLOT 12 ).<br />
4.2.3. Intra-observer agreement<br />
To complete the analysis of the LV diagnostic questionnaire, the intra-observer agreement<br />
could be assessed. Unfortunately the five repeated interpretations realized on the original<br />
angiogram is not sufficient to evaluate the intra-observer agreement on original angiograms<br />
(the problem is identical for the intra-observer agreement on the MPEG 12 and the MLOT 12<br />
angiograms).<br />
We have estimated the intra-observer agreement between the interpretation on originals and<br />
the interpretation on compressed angiogram, as shown in table 6.<br />
- 170 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
Observer 1: original / observer 1: MPEG 12<br />
LV segment Npatient Ndisag k,^ p<br />
Anterior 18 2 0.75
Chapitre II-2: Première étude d’évaluation diagnostique<br />
Diagnostic of the branch Score Max. grade of % stenosis<br />
the segments<br />
NORMAL 0 0 0<br />
NON SIGNIFICANT LESION 1 1 or<br />
2<br />
0-25%<br />
25-50%<br />
SIGNIFICANT LESION 2 3 or<br />
4<br />
50-75%<br />
75-99%<br />
OCCLUSION 3 5 TIMI 2 or<br />
5 TIMI 1 or<br />
5 TIMI 0<br />
slow perfusion of the distal bed<br />
incomplete opacification of the distal bed<br />
total occlusion<br />
Table 7 : Coronary branch scores and segments grades.<br />
Other scores based on the number of diseased segments or on a ponderation of the<br />
segments grades were tested but were of lesser diagnostic meaning. By grouping 15<br />
segments into 3 branches, we reduced the statistical power of the analysis. This is the price<br />
we paid for experimenting this new protocol and staying as close as possible to the clinical<br />
practice. We also switched from a scale of 8 grades to a scale of 4 scores. The objective was<br />
to focus on the major major steps of the diagnostic: first detect a lesion and then classify it as<br />
significant or not. The therapeutic incidence of this decision is high whereas a more refined<br />
classification of the lesion in grade 3 or 4 for example has little consequences. The analysis<br />
reported here is based on the 4-level score we designed. A sharper analysis could also be<br />
conducted by using the maximum segment grade of each branch instead of the score we<br />
designed.<br />
Like for the LV diagnostic questionnaires, we tried to assess whether the potential variability<br />
introduced by lossy data <strong>compression</strong> on the interpretation of coronary arteriograms is<br />
significantly higher than the observers' variability.<br />
4.3.2. Inter-observer agreement<br />
The inter-observer agreement on the interpretation of original coronary angiograms is an<br />
important information. It can be observed visually for each branch on a MLOT: the scores<br />
given by observer 1 on the x axis, and the scores given by observer 2 on the y axis. Ideally,<br />
all points should fall on the line of equality. The degree to which pairs of interpretation fall on<br />
this line is evaluated by the estimate of the Lin concordance correlation coefficient r c . For the<br />
three coronary branches, the inter-observer agreements on originals and their confidence<br />
interval are shown in table 8. We also indicate “N Mdisag ”, the number of so-called major<br />
disagreements (score 0 against score 1 is not a major disagreement), and “N Tdisag ”, the total<br />
number of disagreements (including score 0 against score 1).<br />
- 171 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
observer 1: original / observer 2: original<br />
Coro. branch N patient N Mdisag N Tdisag r c<br />
RCA 18 3 6 0.87±0.12<br />
LAD 18 1 3 0.91±0.08<br />
CX 18 4 7 0.74±0.20<br />
Table 8: Inter-observer agreement on the interpretation of original coronary arteriograms.<br />
The agreement between the two observers in their interpretation of original arteriograms is<br />
good. The agreement of the three coronary branches are not statistically different.<br />
Table 9 and 10 summarize the inter-observer agreements when one observer interprets the<br />
original angiograms and the second observer interprets the compressed angiogram.<br />
observer 1: original / observer 2: MPEG 12<br />
Coro. Branch N patient N Mdisag N Tdisag r c<br />
RCA 18 3 6 0.87±0.12<br />
LAD 18 1 3 0.91±0.08<br />
CX 18 4 7 0.74±0.20<br />
observer 1: MPEG 12 / observer 2: original<br />
Coro. branch N patient N Mdisag N Tdisag r c<br />
RCA 18 3 6 0.85±0.14<br />
LAD 18 1 3 0.87±0.10<br />
CX 18 4 7 0.82±0.02<br />
Table 9: Inter-observer agreement for originals and MPEG 12<br />
observer 1: original / observer 2: MLOT 12<br />
Coro. Branch N patient N Mdisag N Tdisag r c<br />
RCA 18 3 6 0.93±0.06<br />
LAD 18 1 3 0.88±0.10<br />
CX 18 4 7 0.81±0.14<br />
observer 1: MLOT 12 / observer 2: original<br />
Coro. branch N patient N Mdisag N Tdisag r c<br />
RCA 18 3 6 0.89±0.10<br />
LAD 18 1 3 0.85±0.12<br />
CX 18 4 7 0.86±0.12<br />
Table 10: Inter-observer agreement for originals and MLOT 12<br />
These tables show that the total number of major disagreements between the interpretations<br />
by the two observers range from 3 to 7 out 18 pairs of comparisons. The estimates of the<br />
concordance correlation coefficients r c are all in the same range, and no statistically<br />
significant difference can be observed.<br />
In conclusion, lossy <strong>compression</strong> did not change statistically the inter-observer agreements<br />
when one observer interpreted the original and the other interpreted the compressed<br />
angiograms.<br />
4.3.3. Intra-observer agreement<br />
The assessment of intra-observer agreement is a good complement to the preceding<br />
conclusion. We were not able to measure the intra-observer agreements on the original<br />
angiograms because the number of repeated interpretation was too small. Table 11 and 12<br />
show the intra-observer agreement when one observer interpreted the original films and the<br />
second observer interpreted the compressed films.<br />
- 172 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
observer 1: original / observer 2: MPEG 12<br />
Coro. Branch N patient N Mdisag N Tdisag r c<br />
RCA 18 0 1 0.98±0.02<br />
LAD 18 1 2 0.95±0.04<br />
CX 18 0 1 0.97±0.04<br />
observer 1: original / observer 2: MLOT 12<br />
Coro. branch N patient N Mdisag N tdisag r c<br />
RCA 18 0 1 0.98±0.12<br />
LAD 18 2 2 0.94±0.08<br />
CX 18 1 2 0.94±0.20<br />
Table 11: Coronary intra-observer agreements for observer 1.<br />
Observer 1: original / observer 2: MPEG 12<br />
Coro. branch N patient N Mdisag N Tdisag r c<br />
RCA 18 3 5 0.86±0.12<br />
LAD 18 1 2 0.93±0.06<br />
CX 18 4 6 0.65±0.26<br />
observer 1: original / observer 2: MLOT 12<br />
Coro. branch N patient N Mdisag N tdisag r c<br />
RCA 18 0 2 0.94±0.06<br />
LAD 18 0 1 0.97±0.04<br />
CX 18 2 3 0.87±0.12<br />
Table 12: Coronary intra-observer agreements for observer 2.<br />
Table 11 indicates that the intra-observer agreements of observer 1 are very high when<br />
comparing one reading on originals versus one reading on compressed films. The<br />
concordance correlation coefficients r c for intra-observer agreements are higher than the<br />
inter-observer ones and have narrower confidence intervals. The intra-observer agreements<br />
of observer 2 vary with the coronary branch and the <strong>compression</strong> method. The agreement for<br />
the LAD is slightly higher than for the RCA and the CX. Furthermore, observer 2 agrees with<br />
himself less when one reading is on original and the other on MPEG 12 films. For the three<br />
branches, the intra-observer agreement of observer 2 with MPEG 12 is smaller than is<br />
agreement with MLOT 12 . This difference is however not significant. Agreements of observer 2<br />
are smaller than agreements of observer 1.<br />
As a conclusion, the intra-observer agreements are very high for observer 1. The intraobserver<br />
agreements of observer 2 are globally smaller, especially when one of his reading is<br />
made with MPEG 12 films.<br />
5. CONCLUSION<br />
This paper examined the diagnostic use of digital ventriculograms and coronary arteriograms<br />
after lossy image data <strong>compression</strong>. We assessed the performance of a standard algorithm,<br />
MPEG, and a dedicated algorithm, MLOT. MPEG has been proposed by the International<br />
Standardization Organization for multimedia applications and moving pictures. MPEG is<br />
widely used in the computer world and many software and hardware implementations are<br />
available. It has a major drawback due to its underlying principle: blocking artifacts are<br />
introduced by the block decomposition of the image and are made more visible in the<br />
angiograms, due to an edge enhancement processing. To overcome this problem, a new<br />
algorithm, MLOT, was developed by Philips Research. It enables higher <strong>compression</strong> ratios<br />
and is free of blocking artifacts.<br />
- 173 -
Chapitre II-2: Première étude d’évaluation diagnostique<br />
As there is no reliable measure to predict the visual quality of an image judged by an<br />
observer, the assessment of the diagnostic quality of compressed angiograms must be<br />
conducted. An evaluation study was done at the Lille Cardiology Hospital with the digital<br />
angiograms from 18 patients, and with two expert cardiologists. They interpreted the original<br />
and the compressed films blindly and separately. Two <strong>compression</strong> algorithms were applied:<br />
MPEG and MLOT, both at a <strong>compression</strong> ratio of 12:1. The study protocol was original<br />
because it was based on the ordinary clinical practice, which implied the use of complete<br />
angiograms (hundreds of images per case). A diagnostic questionnaire was used to record<br />
the observers’ interpretations on the left ventriculogram and the coronary arteriogram. The<br />
statistical analysis was based on measures of observers’ agreement.<br />
It is noteworthy that the observers were not able to detect the presence of <strong>compression</strong> on<br />
any of the reviewed films.<br />
The left ventricle agreements were measured with the kappa statistics. Inter-observer<br />
agreements were good or average, and above chance alone. No statistically significant<br />
difference were found for the inter-observer and intra-observer agreements with or without<br />
<strong>compression</strong>.<br />
The coronary agreements were measured with a concordance correlation coefficient<br />
introduced by Lin [LIN-89]. Inter-observer agreements were good and intra-observer<br />
agreements were excellent. No statistically significant difference was found for the intraobserver<br />
agreements with or without <strong>compression</strong>. One of the two observer has slightly lower<br />
intra-observer agreements, especially with MPEG.<br />
This study gives promising results about the application of lossy data <strong>compression</strong> on cardiac<br />
angiograms. More studies should confirm these findings with a stronger focus on intraobserver<br />
agreement than our protocol allowed. Complementary type of work are:<br />
- apply the same type of protocol (addressing intra-observer agreements) at a different site<br />
(other acquisition equipment, other observers),<br />
- assess the influence of viewing parameters such as zoom, edge enhancement, contrast or<br />
brightness,<br />
- evaluate the results of quantitative coronary analysis on compressed images.<br />
- 174 -
CHAPITRE II-3<br />
DEUXIEME ETUDE D’EVALUATION<br />
DIAGNOSTIQUE<br />
- 175 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
Préliminaires<br />
Pour compléter les résultats de la campagne d’évaluation dans un centre européen, nous<br />
avons travaillé avec un site américain. Nous souhaitions savoir si les premiers résultats se<br />
confirmeraient avec un autre système d’acquisition, et si la <strong>compression</strong> était tout aussi bien<br />
acceptée par les cardiologues outre Atlantique. Quelques nuances culturelles entre pays<br />
aboutissent à des préférences différentes quant <strong>aux</strong> paramètres d’acquisitions et de posttraitements<br />
utilisés. Par exemple <strong>aux</strong> Etats-Unis, le filtre de renforcement de contour des<br />
systèmes DCI est légèrement différent car les utilisateurs préfèrent une image un peu moins<br />
bruitée.<br />
Nous avons amélioré notre protocole expérimental en deux points:<br />
- une précaution du superviseur des sessions d’interprétation a permis d’éviter le problème<br />
de localisation anatomique des segments d’artères coronaires,<br />
- des interprétations répétées sur tous les origin<strong>aux</strong> ont permis de mesurer les accords interobservateurs<br />
sur les origin<strong>aux</strong>, qui constituent la référence.<br />
L’analyse des données de cette seconde campagne d’évaluation a été axée sur les accords<br />
intra-observateurs uniquement.<br />
Ces trav<strong>aux</strong> ont fait l’objet d’une rédaction en anglais en vue de leur communication au sein<br />
de la Société Philips, et car ce document a servi de base pour une publication qui sera<br />
prochaînement soumise à Circulation [KIRK-97].<br />
Cette étude a été présentée comme poster au congrès de l’American Colledge of Cardiology<br />
en mars 1997.<br />
Lossy data <strong>compression</strong> does not alter visual interpretation of<br />
digital coronary arteriograms<br />
1. Introduction<br />
Digitization of angiography images has become one of the key technologies enabling<br />
diagnostic and interventional procedures of catheterization laboratories. There is a general<br />
consensus about the advantages of digital imaging, [NISS-94], but cine-less cardiac<br />
catheterization departments remain a technological, financial, and legal challenge. In order to<br />
replace cine-film, a digital system must fulfill its three main functionality: archiving, dynamic<br />
review, and exchange. Technologies allowing the replacement of cine-film at a reasonable<br />
cost are emerging, but image data <strong>compression</strong> is currently a necessary step. Compression<br />
can reduce the number of bits required to represent a digital image, and therefore reduce the<br />
storage space, the access time from a medium, or the speed of transmission on a network.<br />
Lossless <strong>compression</strong> is completely reversible but only permits <strong>compression</strong> ratios (CR) of<br />
2:1 to 3:1, i.e. the coded bit stream of the compressed image occupies 2 to 3 times less<br />
storage space than the original pixel stream. Such CRs are insufficient for applications like<br />
dynamic review of angiographic sequences from current CD media, or transmission at a<br />
reasonable speed over standard computer networks. Lossy <strong>compression</strong> achieves higher<br />
CRs and is useful for fully digital cardiac catheterization laboratory departments, but changes<br />
the digital representation of the image in an irreversible manner.<br />
- 176 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
The key question addressed in this paper is whether a digital cardiac angiography case after<br />
lossy <strong>compression</strong> can be used for the clinical work based on visual interpretation. Though it<br />
is an open research topic [ESKI-95], [COSM-93b], there is no usable measure to predict the<br />
visual or diagnostic quality of an image. Therefore, statistical comparisons based on image<br />
interpretation by cardiologists with and without <strong>compression</strong> are necessary. We conjectured<br />
that for a reasonably chosen <strong>compression</strong> ratio, the objective degradation introduced by lossy<br />
<strong>compression</strong> does not alter the diagnostic content of images, and we conducted a<br />
reproducibility study based on the visual interpretation done by angiographers.<br />
In designing this study, our goal was to stay as close as possible to the normal clinical<br />
practice of diagnostic work in the catheterization laboratory. Case review and interpretation<br />
was done on exactly the same view station as in the routine work. We used complete patient<br />
angiograms that were reviewed and interpreted individually by observers. This is a unique<br />
design for a <strong>compression</strong> assessment study. To our knowledge, few <strong>compression</strong> studies<br />
were done on cardiac angiograms [ECKS-95], [RIGO-96]. These studies were based on<br />
sequences of images isolated from the complete case angiogram, or on static frames.<br />
Twenty four angiograms containing a left ventriculogram and a coronary arteriogram were<br />
reviewed by four angiographers. Two <strong>compression</strong> methods were assessed, the standard<br />
JPEG technique and an advanced technique called MLOT. For both methods, a <strong>compression</strong><br />
ratio of 12:1 was used. We will refer to JPEG-12 and MLOT-12 for images compressed and<br />
reconstructed with JPEG at a CR of 12:1, and with MLOT at a CR of 12:1, respectively. The<br />
digital angiograms were compressed with JPEG and MLOT. Original, JPEG, and MLOT<br />
digital films were blindly presented to the angiographers. During several viewing sessions<br />
each observer reviewed and interpreted all angiograms four times with a different image<br />
treatment: once as Original, once as a Repeat of the original, once as JPEG-12 and once as<br />
MLOT-12. Statistical comparisons of intra-observer agreements without and with<br />
<strong>compression</strong> were derived from the LV-grams and coronary arteriogram interpretations.<br />
2. Methods<br />
2.1. Angiography<br />
The 24 angiograms selected randomly from the normal catheterization work were those of 14<br />
males and 10 females whose age ranged from 38 to 77 years (mean 57.2 ± 11.4). The BSA<br />
ranged from 1.52 to 2.37 m 2 (average 2.01 ± 0.2 m 2 ).<br />
The 24 angiograms were diagnostic procedures only, or combined diagnostic and<br />
interventional procedures out of which only the diagnostic runs were kept. All the digital films<br />
included a left ventriculogram and a coronary arteriogram.<br />
The digital angiograms were copied from two Philips bi-plane DCI systems. The DCI images<br />
were 512x480 pixels images with a depth of 8 bits/pixel. They were acquired at 30<br />
frames/sec.<br />
- 177 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
2.2. Images<br />
2.2.1. Images selection and transfer<br />
After the angiographic procedures, the images were reviewed on the DCI consoles by the<br />
study supervisor. He unselected runs of no clinical value for visual interpretation (i.e., missed<br />
injections, lead markers...) and images in the runs with no contrast medium at all. The<br />
purpose was to remove of the digital copies the completely irrelevant images and to save<br />
transfer time or computer storage capacity for the study. This did not result in “clinical<br />
<strong>compression</strong>”, or removal of clinical data, as only images with absolutely no inherent<br />
diagnostic information were removed. The selected images were transferred via a<br />
PMSnet/Ethernet link onto a Sun station where they could be copied on digital tapes.<br />
The digital tapes were sent to Philips Medical Systems laboratories in Best, The Netherlands.<br />
All the images of the angiograms were compressed and reconstructed. Four cases were<br />
created per angiogram: the Original, the Repeat, the JPEG-12 and the MLOT-12.<br />
2.2.2. Image treatments<br />
Various lossy data <strong>compression</strong> methods have been investigated over the past decade in the<br />
field of radiology imaging [WONG-95]. The choice of a <strong>compression</strong> technique is difficult. It is<br />
admitted that the JPEG image industry standard is not be the best solution for medical<br />
images. Compression methods better suited to this field are numerous, but suffer from<br />
absence of widely spread hardware and software implementations. We chose to evaluate the<br />
JPEG method, and to investigate a presumably better method for medical application that<br />
would be suitable for hardware implementation.<br />
JPEG or Joint Photographic Expert Group is an industry standard for still image <strong>compression</strong><br />
[PENN-93]. It is a block-based <strong>compression</strong> method: the image is first divided into adjacent<br />
blocks of 8x8 pixels. Then blocks are compressed by applying particular mathematical and<br />
rounding techniques. At high <strong>compression</strong> factors, the block-based JPEG <strong>compression</strong><br />
method yields visible block boundaries in the image, called blocking artifacts. JPEG was<br />
optimized for photographs of the consumer market, not for medical images. With cardiac<br />
angiography images, and in the viewing conditions of the cath lab systems, blocking artifacts<br />
are quite visible with JPEG at <strong>compression</strong> factors above 8:1. Three unfavorable conditions<br />
play a role in the visibility of the artifacts: the nature of the image itself (very different from<br />
photographs), the high luminosity output of the B/W medical monitors used on cardiac<br />
systems, and edge enhancement image processing used to make the vessel contours more<br />
visible.<br />
To overcome blocking artifact, a novel method called MLOT was developed [BREE-94]. The<br />
mathematical and rounding technique differs from JPEG because it uses information from<br />
adjacent blocks. In addition, we found that for cardiac angiographic images, the best block<br />
size was 32x32 and not 8x8. Several parameters in the MLOT method were optimized for<br />
cardiac angiography images, and can easily be adapted to other medical modalities [HEUS-<br />
95].<br />
2.2.3. Film review<br />
After <strong>compression</strong> of the digital films, a randomization scheme was used in order to<br />
determine the content of the viewing sessions. Each viewing session contained 4 to 5 cases.<br />
Consecutive viewing sessions were separated by at least one week. All the cases of a<br />
- 178 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
session were from different patients, and the occurrence of a patient was not possible in two<br />
consecutive sessions, to avoid a learning effect. Amongst the cases of a session, some were<br />
Originals, Repeats, JPEG-12 or MLOT-12. One tape was created per session and labeled<br />
according to its session number.<br />
The tapes were sent to Houston where the supervisor and the observers were blinded about<br />
their content. The supervisor loaded the cases of each session tape on a DCI system and<br />
organized viewing sessions with the 4 observers separately.<br />
The review station hardware was a Philips DCI with exactly the same operator console and<br />
display monitors as the clinical DCI of the acquisition cath labs. The study DCI had some<br />
extra disc capacity, which was needed for the purpose of having 4 to 5 cases.<br />
During a session, the observer reviewed each digital film at his own pace. He could use the<br />
wheel of the DCI operating console to play forward, backward, or change the viewing speed.<br />
The observer was asked not to use the image post-processing (change edge enhancement,<br />
contrast, brightness, or zoom) as we found that they have a strong influence on the visibility<br />
of <strong>compression</strong> artifacts. Making artifacts more visible on some images, for some observers,<br />
was a possible source of bias.<br />
2.3. Data collected during review<br />
2.3.1. Segment classification<br />
The observers were asked to assess the degree of abnormality of LV and coronary<br />
segments. For the left ventricles, the wall segments were: anterior, apical, inferior, lateral, and<br />
septal. The LV wall motion was classified by observers as: normal, hypokinetic, akinetic,<br />
dyskinetic, or N/A. For the coronary arteries, the vessel segments were the 15 segments (no<br />
graft were present) of the CASS system [CASS-81]. Figure 1 illustrates the segments<br />
classification. The coronary segments were graded by the observers as: normal, irregular,<br />
mild, moderate, severe, occluded, or N/A.<br />
LMCA<br />
LAD pro<br />
LAD mid<br />
RCApro<br />
LCX pro<br />
LAD dis<br />
RCAmid<br />
LCX dis<br />
LCX OM1<br />
RCA dis<br />
RCA<br />
PDA<br />
Figure 1: Coronary vessel segmentation<br />
- 179 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
We had noticed, in a previous unpublished study [BERE-95b], that a very important<br />
discrepancy in the location of coronary segments is common with angiographers. This<br />
observer effect could greatly modify the results of this study for a reason independent of the<br />
<strong>compression</strong>. For example, if a lesion was scored severe on the RCA mid during a first<br />
review and then positioned on the RCA distal during a second review, the comparison of the<br />
two scores indicates high degree of disagreement (RCA mid: severe vs. normal, RCA distal:<br />
normal vs. severe).<br />
We chose a protocol free of observer location discrepancies to determine if the scoring of<br />
coronary lesions was modified by <strong>compression</strong>. During the review sessions, doctors pointed<br />
on the screen the location of the lesions they observed, and scored them. The supervisor<br />
recorded the lesion score and noted its location. Once the doctors had pointed all the lesions<br />
they would normally report in their routine diagnosis, the remaining segments were reviewed<br />
systematically and their score recorded. To remain consistent in the segment location of a<br />
patient, the supervisor made a map of the coronary tree by printing images from the main<br />
views and determining the anatomical location of segments. A single map per patient was<br />
used for the four occurrences of his film throughout the viewing sessions.<br />
2.3.2. Scoring sheet<br />
The study supervisor collected a scoring sheet for all the cases reviewed during a session.<br />
The sheet contained the LV-gram subjective image quality appreciation, the LV segments<br />
disease categories, the arteriogram subjective image quality, the artery segments disease<br />
scores. For both LV and coronary segments, the category N/A was used when the observers<br />
were not able to give a score: absence of adequate projection, poor contrast injection, poor<br />
image quality, etc...<br />
2.4. Data analysis<br />
Numerous <strong>compression</strong> studies in radiology are based on the Receiver Operating Curve<br />
(ROC) methodology [SWET-79], [METZ-86]. We did not chose this method because it<br />
involves a detection and/or classification task that differs a lot from the usual practice of<br />
cardiac angiogram interpretation, and because it partially addresses diagnostic tasks with<br />
multiple location and classification of disease.<br />
This <strong>compression</strong> study was based on the assessment of intra-observer agreements. We<br />
compared the interpretations of the four cardiologists by assessing Original vs. Repeat (O vs.<br />
R), Original vs. JPEG-12 (O vs. J), and Original vs. MLOT-12 (O vs. M) agreements. The O<br />
vs. R agreement values were used as a base of comparison, and represent the inherent<br />
observer agreements. They were compared to the O vs. J, and O vs. M agreements. The<br />
rational is the following: if <strong>compression</strong> modifies the diagnostic interpretation, the O vs. J or<br />
the O vs. M agreement values will significantly differ from the O vs. R value.<br />
The observer agreement values were derived from contingency tables. Observers’<br />
agreements of the LV-grams interpretation were measured by the kappa statistic [COHE-50],<br />
[FLEI-81] because of the categorial nature of the data (normal, hypokinetic, akinetic,<br />
dyskinetic). The scoring of the coronary artery was a discrete numerical data (1=normal,<br />
2=irregular, 3=mild, 4=moderate, 5=severe, 6=occlusion). Proportion of agreement were<br />
measured. A concordance correlation coefficient proposed by Lin [LIN-89] was utilized. This<br />
coefficient indicates how two pairs of readings differ from the identity line i.e. from perfect<br />
agreement. A Lin coefficient of 1 denotes perfect agreement, of 0 total absence of<br />
agreement, of -1 perfect reversed agreement. In contrast, the Pearson correlation coefficient<br />
- 180 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
only indicated how two pairs of reading differ from a line: a Pearson coefficient of 1 despite<br />
systematic disagreement is possible.<br />
3. Results<br />
3.1. Ventriculograms<br />
3.1.1. Side by side comparisons. (O-J-L)<br />
Figure 2 shows side by side the enlarged part of a left ventricle image with the three following<br />
image treatments: original, JPEG-12, MLOT-12. In pilot experiments, we tried several<br />
<strong>compression</strong> factors. The JPEG images could be distinguished visually from the original for a<br />
<strong>compression</strong> of 8:1 and higher. In contrast, the MLOT was distinguishable from the original<br />
for <strong>compression</strong> factors of 12:1 and higher. Increasing the <strong>compression</strong> factor with JPEG<br />
makes the blocking artifacts more and more visible, and removes sharpness of vessel details.<br />
Increasing the <strong>compression</strong> factor with MLOT decreases the sharpness of fine details, and a<br />
slightly changes the texture of the background. We found that the JPEG image quality<br />
became quite degraded visually for <strong>compression</strong> factors of 16:1 and higher, and doctors who<br />
saw some examples did not feel satisfied by the visual appearance of such images, whereas<br />
MLOT was still acceptable. These visual and subjective preliminary tests led us to chose a<br />
<strong>compression</strong> factor of 12:1 for the study.<br />
(a) (b) (c)<br />
Figure 2: Comparison of an original (a), JPEG-12 (b), and MLOT-12 (c) image of left<br />
ventricle (enlarged).<br />
- 181 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
3.1.2. LV-gram quality and docs comments on perceptual quality<br />
Observers gave their subjective and perceptual judgment of the quality of ventriculograms.<br />
Table 1 gives the percentage of ventriculograms judged as “good”, “fair”, and “poor” by the<br />
four observers. The perceived quality of left ventriculogram is statistically independent of the<br />
image treatment (chi-2 test, p=0.42).<br />
LV-gram Original Repeat JPEG-12 MLOT-12 Average<br />
Good 88% 84% 86% 81% 85%<br />
Fair 6% 9% 4% 13% 8%<br />
Poor 0% 0% 0% 0% 0%<br />
N/A 6% 6% 9% 6% 7%<br />
Table 1: Perceptual quality of ventriculograms: percentage of segments judged good,<br />
fair, poor or N/A. For each treatment N=96 and for the average N=384<br />
In addition to scoring the image quality on the rough 3-points scale reported here, observers<br />
freely commented the quality of the films they were reviewing. Despite their blindness<br />
regarding <strong>compression</strong>, they could often tell that a film was compressed, especially with<br />
JPEG. However, non of the films reviewed was considered as inappropriate for diagnosis.<br />
Poor image quality was mainly reported as due to procedural imperfection, like inadequate<br />
view, poor contrast injection. Procedural errors were reported as more annoying than the<br />
<strong>compression</strong> artifacts. Some of the JPEG films were qualified as grainy, with square patterns,<br />
and sometimes with unsharp vessel contours. About the MLOT films, it was sometimes noted<br />
that there appeared to be a veil in the background. Globally, if any artifact was perceived, it<br />
was said to require additional attention to interpret the film, never to hamper the<br />
interpretation.<br />
3.1.3. Location of LV abnormalities<br />
The spectrum of abnormality categories for each LV segment on Original and Repeat films is<br />
given in Table 2. For each segment N=192 (4 doctors x 24 patients x 2 image treatments)<br />
and for the average N=960 (id x 5 LV segments). A large majority of LV segments were<br />
scored normal (66%). The inferior wall shows slightly more abnormalities than the others.<br />
LV Normal Hypokinetic akinetic Dyskinetic N/A<br />
Segment<br />
Anterior 66% 25% 4% 3% 3%<br />
Apical 66% 19% 4% 6% 4%<br />
Inferior 52% 30% 14% 1% 3%<br />
Lateral 77% 19% 1% 1% 3%<br />
Septal 68% 18% 4% 2% 8%<br />
Average 66% 22% 5% 2% 4%<br />
Table 2: Distribution of the LV categories of abnormality from Original and Repeat<br />
films.<br />
- 183 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
3.1.4. Distribution of abnormalities per image treatment<br />
Table 3 shows the proportion of abnormality categories for each image treatment. The<br />
observers were able to give a score for 92% to 98% of all uncompressed LV segments<br />
reviewed. If image <strong>compression</strong> yielded a fair amount of degradation of the image quality, a<br />
possible effect would be an increase of the number of non analyzable segments. The<br />
proportion of N/A segments is not significantly different for the four image treatments. An<br />
other possible effect of <strong>compression</strong> on LV assessment could be a change of the distribution<br />
of abnormalities distribution on compressed images. The LV category is independent of the<br />
image treatment (chi-2 test, p=0.43).<br />
LV Segment Original Repeat JPEG-12 MLOT-12 Average<br />
Normal 65% 67% 68% 66% 66%<br />
Hypokinetic 23% 22% 21% 22% 22%<br />
Akinetic 5% 6% 6% 4% 5%<br />
Dyskinetic 3% 2% 2% 1% 2%<br />
N/A 5% 3% 3% 7% 5%<br />
Table 3: Proportion of LV abnormality category per image treatment.<br />
3.1.5. Agreement tables<br />
Intra-observer agreements were derived from the reviewers’ interpretations, out of analyzed<br />
segments. We compared the intra-observer agreements between interpretations based on<br />
Original & Repeat (O&R) with the agreement based on Original & JPEG-12 (O&J), and<br />
Original & MLOT-12 (O&M) respectively. Table 4 gives the percentage of perfect agreement<br />
for each LV segment.<br />
- 184 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
LV<br />
O&R<br />
O&J O&M Average<br />
segment agreement agreement agreement<br />
Anterior 78.1% 84.4% 82.3% 81.6%<br />
Apical 78.1% 75.0% 82.3% 78.5%<br />
Inferior 72.9% 77.1% 77.1% 75.7%<br />
Lateral 83.3% 87.5% 82.3% 84.4%<br />
Septal 80.2% 72.9% 72.9% 75.3%<br />
Overall<br />
agreement<br />
78.5%<br />
(N=480)<br />
79.4%<br />
(N=480)<br />
79.4%<br />
(N=480)<br />
79.1%<br />
(N=1440)<br />
Table 4: Intra-observer agreement of the 4 observers per LV segment.<br />
The LV-gram agreements of Table 4 show that the observer agreements are high. The<br />
overall proportion agreements are 78.5%, 79.4%, and 79.4% for the O&R, O&J and O&M<br />
agreements respectively. The corresponding kappa values are 0.62, 0.63, 0.64, respectively.<br />
The three kappa values are significantly above chance alone, they indicate a good degree of<br />
observer agreement. They are not significantly different. The relatively low values of kappa<br />
compared to the overall proportion of agreement is an effect of the correction for chance<br />
alone introduced in the computation of the kappa coefficient. The distribution of LV diagnostic<br />
categories are unbalanced, the amount of normal segments greatly exceeds the amount of<br />
any other category. Unbalanced category distribution yields artificially low kappa values due<br />
to the "kappa paradox", reported in [FEIN-90], [CICC-90].<br />
The LV data analysis shows that the observer agreements on LV interpretation are high, and<br />
not significantly modified by <strong>compression</strong>.<br />
3.2. Arteriograms<br />
3.2.1. Side by side comparisons (O-J-L)<br />
(a) (b) (c)<br />
Figure 3: Comparison of an original (a), JPEG-12 (b), and MLOT-12 (c) image a right<br />
coronary artery (enlarged).<br />
- 185 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
3.2.2. Coronary arteriogram quality and comments<br />
Table 5 shows the percentage of arteriograms judged as “good”, “fair’, and “poor”, and N/A by<br />
the four observers as they reviewed the arteriograms with each image treatment. The<br />
perceived quality of coronary arteriograms is statistically independent of the image treatment<br />
(chi-2 test, p=0.08).<br />
Cgram Original Repeat JPEG-12 MLOT-12 Average<br />
Good 83% 86% 76% 79% 81%<br />
Fair 15% 13% 18% 20% 16%<br />
Poor 0% 0% 4% 0% 1%<br />
N/A 2% 1% 2% 1% 2%<br />
Table 5: Perceptual quality of arteriograms<br />
3.2.3. Location of coronary arteries abnormalities<br />
The distribution of coronary arteries scores from Original and Repeat films is illustrated by<br />
Figure 4. For an easier interpretation of the graph, we used in Figure 4-a the category<br />
“insignificant” for irregular and mild lesions, and the category “significant” for moderate and<br />
severe lesions. Figure 4-b shows with more detail the spectrum of scores of abnormal<br />
segments. The graphs of Figure 4-a and -b show that the occurrence of abnormalities is<br />
higher for some coronary segment, in particular the LAD mid and prox, the RCA prox and<br />
mid. Some segments were more often classified N/A, in particular the LCX Marginal 3, the<br />
LAD Diagonal 2, the LCX Marginal 2, the RCA distal and PDA.<br />
RCA pro<br />
RCA mid<br />
RCA dis<br />
RCA pda<br />
LMCA<br />
LAD pro<br />
LAD mid<br />
LAD dis<br />
LAD D1<br />
LAD D2<br />
LCX pro<br />
LCX dis<br />
LCX OM1<br />
LCX OM2<br />
LCX OM3<br />
0% 20% 40% 60% 80% 100%<br />
N/A<br />
Significant<br />
Unsig<br />
Normal<br />
(a)<br />
(b)<br />
Figure 4: a) Location of CAD from Original and Repeat films. For each segment N=192,<br />
in total N=2880.<br />
- 186 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
3.2.4. Distribution of abnormalities per image treatment<br />
Table 6 gives the spectrum of coronary artery diseased for each image treatment.<br />
Original Repeat JPEG-12 MLOT-12<br />
Normal 46.0% 45.3% 43.7% 42.7%<br />
Irregular 23.4% 22.6% 24.0% 24.2%<br />
Mild 8.9% 9.5% 9.4% 9.4%<br />
Moderate 4.4% 4.5% 4.0% 4.9%<br />
Severe 4.3% 4.7% 5.1% 5.2%<br />
Occlusion 2.3% 2.4% 2.2% 2.2%<br />
N/A 10.7% 11.0% 11.7% 11.5%<br />
Table 6: Distribution of coronary artery segments grades. For each treatment, N=1440<br />
(24 cases x 4 reviewers x 15 segments) .<br />
The distribution of abnormalities is very unbalanced, and not gaussian. In the cases of this<br />
study, almost half of the scored segments are normal (44 to 46%), and two third are normal<br />
or irregular (67 to 69%). Compression does not significantly increase the number of N/A<br />
coronary segments.<br />
3.2.5. Differences of scores between image treatments<br />
In order to easily visualize possible modification of the observer interpretations due to<br />
<strong>compression</strong>, we plotted the distribution of differences between Repeat minus Original (R-O),<br />
JPEG-12 minus Original (J-O), MLOT-12 minus Original (M-O). The effect of <strong>compression</strong> is<br />
expected to appear if the distribution of the differences M-O or L-O departs from the<br />
distribution of R-O.<br />
All segments<br />
80%<br />
70%<br />
60%<br />
50%<br />
40%<br />
30%<br />
20%<br />
10%<br />
0%<br />
-5 -4 -3 -2 -1 0 1 2 3 4 5<br />
grade difference<br />
R-O<br />
J-O<br />
L-O<br />
Figure 5: Distribution of the differences R-O (N=1280), J-O (N=1270), and L-O (N=1274).<br />
Figure 5 shows that scoring differences between compressed and original sets, J-O and M-O,<br />
have the same distribution as the inherent intra-observer variability in visual scoring, R-O.<br />
- 187 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
The average of the differences R-O is not significantly different from the average of the J-O<br />
differences and from the average of the M-O differences (paired t-tests). These results show<br />
that the variability introduced by <strong>compression</strong> is not significantly different from the observers<br />
variability, and that <strong>compression</strong> does not yield over- or under-estimation of coronary lesions.<br />
Table 7 shows the percentage of perfect agreements for O&R, O&J, O&M.<br />
% agreement O&R O&J O&M Average<br />
Overall 60% 59% 58% 59%<br />
RCA 61% 59% 58% 59%<br />
LAD 60% 61% 58% 60%<br />
LCX 59% 58% 58% 58%<br />
Proximal 62% 64% 64% 63%<br />
Distal 59% 55% 53% 56%<br />
Observer1 74% 71% 70% 72%<br />
Observer 2 72% 74% 73% 73%<br />
Observer 3 62% 61% 62% 62%<br />
Observer 4 76% 73% 69% 73%<br />
Table 7: Agreement table for coronary segments scores<br />
The overall kappa values range from 0.48 to 0.51 and are not significantly different from<br />
another for O&R, O&J and O&M agreement (p>0.25). Like for the LV-gram data, the<br />
unbalance of the score distribution tends to artificially diminish the kappa value though the<br />
overall proportions of agreement are very high, due to the kappa paradox. The Lin<br />
concordance correlation coefficient confirm a high degree of overall agreement: 0.80±0.2,<br />
0.81±0.2, and 0.79±0.2 for O&R, O&J, O&M overall agreements respectively. Lin<br />
concordance correlation coefficients are not significantly different without or with <strong>compression</strong><br />
for the overall agreements. Table 7 and Table 8 also give the agreements of the RCA, LAD,<br />
LCX coronary branches, of the proximal, distal segments, and of the observers individually.<br />
All these agreements are not significantly different for O&R, O&J, and O&M, except for the<br />
distal segments. The Lin concordance correlation coefficient of O&M agreement for distal<br />
segments is lower that the O&R agreement, at the limit of statistical significance. Independent<br />
of <strong>compression</strong>, the Lin values show that the intra-observer agreements differ between the<br />
coronary branches: the RCA agreements are significantly higher than the LAD agreements,<br />
which are higher than the LCX agreements (non significantly). The agreement of distal<br />
segments is higher (but not significantly) than that of proximal segments. One observer has<br />
significantly higher agreements than two others, one observer has significantly lower<br />
agreements than two others.<br />
In conclusion, we used a scoring system that reflects adequately the clinical implication and<br />
usual manner of interpreting coronary arteriograms, and that is free of an ambiguity raised by<br />
anatomical location and denomination. The intra-observer agreement in the interpretation of<br />
arteriograms based on original films is high. It is globally not significantly modified by data<br />
<strong>compression</strong>.<br />
- 188 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
Lin coef O&R O&J O&M<br />
Overall 0.806 ± 0.0193 0.8127 ± 0.0187 0.789 ± 0.0208<br />
RCA 0.830 ± 0.0632 0.8627 ± 0.0515 0.834 ± 0.0615<br />
LAD 0.648 ± 0.1155 0.8115 ± 0.0701 0.597 ± 0.1329<br />
LCX 0.484 ± 0.1590 0.5504 ± 0.1419 0.529 ± 0.1471<br />
Prox 0.830 ± 0.0632 0.8627 ± 0.0515 0.834 ± 0.0615<br />
Dist 0.895 ± 0.0440 0.7883 ± 0.0841 0.722 ± 0.1056<br />
Obs1 0.835 ± 0.0333 0.8089 ± 0.0384 0.798 ± 0.0402<br />
Obs2 0.863 ± 0.0280 0.8614 ± 0.0284 0.825 ± 0.0350<br />
Obs3 0.736 ± 0.0504 0.7654 ± 0.0455 0.750 ± 0.0483<br />
Obs4 0.767 ± 0.0452 0.8023 ± 0.0393 0.769 ± 0.0450<br />
4. Discussion<br />
Table 8: Values of concordance correlation coefficients<br />
4.1. Major Findings<br />
With the sample of digital angiograms we acquired randomly for this <strong>compression</strong> study, with<br />
the chosen <strong>compression</strong> methods (JPEG and MLOT), and at a <strong>compression</strong> factor of 12:1,<br />
the main findings of this work can be summarized as follow:<br />
• In routine diagnostic arteriograms, the proportion of normal or insignificantly diseased<br />
segments exceeded greatly the proportion of significantly diseased segments: 78% and<br />
11% respectively. Some coronary segments were more often diseased than others: the<br />
LAD mid, the RCA mid, the RCA proximal and the RCA distal.<br />
• Compression did not significantly change the proportion of non analyzable segments.<br />
• The <strong>compression</strong> artifacts were often perceived, but they did not significantly change the<br />
subjective appreciation of image quality. The compressed cases were considered as<br />
suitable for diagnostic purposes by the four cardiologists.<br />
• Compression did not significantly change the observer agreements for LV segments wall<br />
motion. Compression did not significantly change the observer agreements for coronary<br />
stenosis, it did not yield a systematic over or under estimation of lesions.<br />
• A <strong>compression</strong> ratio of 12:1 gave promising results regarding the perceptual and<br />
diagnostic of JPEG and MLOT compressed images.<br />
We suspect that higher CRs would more clearly differentiate the two algorithm performance.<br />
We observed that JPEG-16 <strong>compression</strong> yielded a rather poor perceptual quality, which lead<br />
us not to choose such a high CR. We also observed that MLOT-16 images had an<br />
acceptable perceptual quality . It was reported in [RIGO-96] that JPEG-15 <strong>compression</strong> did<br />
not alter the diagnostic assessment of lesion severity. It is likely that diagnostic tasks can be<br />
adequately performed even if the perceptual quality is relatively poor. The influence of<br />
observer fatigue under such conditions remains unclear.<br />
- 189 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
4.2. Discussion of issues related to the method<br />
4.2.1. Interpretation of complete cases<br />
The rationale of this study was to evaluate the effect of <strong>compression</strong> on the routine diagnostic<br />
process of the cath lab work. We chose not to modify the normal working procedures and<br />
therefore based the study on the interpretation of complete digital cases. The drawback of<br />
this approach is to necessitate the handling of thousands of digital images for a relatively low<br />
number of different patients included in the study (24 patients). However, the number of<br />
assessed segments was high: 120 LV segments (24 patients x 5 LV segments), and 360<br />
coronary segments (24 patients x 15 coronary segments). In our protocol, we avoided several<br />
possible biases: the possible effect of changing the normal diagnostic task by for instance<br />
having interpretation of isolated runs or frames, of having a higher proportion of diseased<br />
segments than usual, of not seeing a segments from different views, of not having dynamics.<br />
4.2.2. Gold standard<br />
In most image <strong>compression</strong> studies for radiology ([COSM-94], [SAYR-92]), a “Gold Standard”<br />
is used. A gold standard is a diagnostic method which provides an ultimate diagnostic truth<br />
about the patients included in the study. For instance, a biopsy can be used to control the<br />
truth of diagnosis made for breast cancers with mammograms. No recognized method exists<br />
for checking coronary artery disease other than arteriography itself, which is still considered<br />
as the ultimate method of diagnostic. In such situations, a consensus from a panel of expert<br />
clinicians can be used as gold standard. We found that panel interpretation was a very<br />
unusual practice in our institution and that it would add to the timing and complexity of the<br />
study process. The drawback of not having a panel diagnosis as a true reference for cases<br />
interpretation is the following: if <strong>compression</strong> would modify observers’ interpretation, it cannot<br />
be said if it improves or degrades the diagnostic performance the of observers, it can only<br />
concluded about a significant change, or no significant change.<br />
4.2.3. Variability of observers’ visual interpretation<br />
Several authors reported that the observer variability for visual interpretation of coronary<br />
arteriograms is very high (DETR-75], [DERO-77], [SNAM-78], [TRAS-84], [KUSS-92]). In our<br />
study, we found very good intra-observer agreements. We think that it is due to two<br />
precautions in the study design. Firstly, the scoring system was not too detailed and was<br />
meaningful to the cardiologist. The percentage stenosis implies a much too detailed score<br />
with 100 possible grades, and there is an ambiguity about percentage diameter or area<br />
stenosis. The 6 grade scale we used is a natural one (normal, irregular, mild, moderate,<br />
severe, occluded). Secondly, we avoided a high discrepancy in our results by preventing in a<br />
non cumbersome way that observers vaguely locate the lesion they detected. Cardiologists<br />
very often vary the positioning of the same lesion between two adjacent segments. As these<br />
imprecision often have no major consequence on the decision, they are not given much<br />
attention in clinical routine. In studies comparing several diagnosis based on the same patient<br />
angiogram, a mechanism to avoid location shifts is useful.<br />
- 190 -
Chapitre II-3: Deuxième étude d’évaluation diagnostique<br />
4.3. Need for complementary studies<br />
Confirmation of the findings of this work by similar studies based on complete angiograms<br />
would be very interesting, as our conclusions are only valid for a sample of 24 patients. Four<br />
observers represents reasonably well the population of cardiologists of our institution. [KUSS-<br />
92] showed that the precision of the averaging scores of several observers is not much<br />
increased above 3 observers. Before making final conclusions about the absence of effect of<br />
lossy <strong>compression</strong> on the cath lab work, complementary assessment could be done from<br />
visual interpretation of complete diagnostic and interventional cases, from visual<br />
interpretation of specific disease (i.e. severe lesions, concentric/non concentric, or ostial<br />
stenosis, thrombus, calcification, etc...), and also from quantitative analysis measurements.<br />
- 191 -
CHAPITRE II-4<br />
MESURES QUANTITATIVES SUR LES<br />
IMAGES COMPRIMEES<br />
- 191 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
1. Etude bibliographique des méthodes d’analyse<br />
quantitative des coronaires<br />
1.1. Brève description de l’analyse quantitative<br />
Les systèmes de QCA 1 sont des logiciels semi automatisés pour la mesure du degré de<br />
sévérité d’une lésion d’artère coronaire. La portion normale du vaisseau est comparée à la<br />
portion la plus rétrécie sur le segment à analyser. Les mesures portent sur les sections<br />
transversales du vaisseau. On obtient un pourcentage de sténose en diamètre ou en<br />
surface, au choix. Il est nécessaire de sélectionner une image qui met la lésion en<br />
évidence, avec une déformation géométrique minimale due à la projection. En effet, si le<br />
faisceau de rayon X n’est pas perpendiculaire au segment, on obtient des sections<br />
obliques qui donneront des résultats inexacts.<br />
1.2. Historique<br />
Les systèmes de mesures de coronaires sont apparus au débuts des années soixantedix,<br />
à partir d’une image de radiocinéma projetée sur un écran, filmée par une caméra et<br />
numérisée. Les premiers logiciels étaient basés sur l’approche par “calipers” [GENS-71],<br />
[SCOB-84]. L’observateur trace sur l’écran une ligne allant d’un bord du vaisseau à l’autre,<br />
et correspondant au diamètre à mesurer. Cette méthode s’est avérée imprécise [KATR-<br />
88], [KALB-90], elle sous-estime les lésions sévères et surestime les lésions moins<br />
sévères en comparaison avec les résultats obtenus avec des systèmes QCA qui vont être<br />
décrits dans le prochain paragraphe. Ensuite est venue la méthode des contours manuels<br />
à partir de deux vues orthogonales, supposant une géométrie ellipsoïdales [BROW-77],<br />
[McMA-79], [BROW-86]. Cette approche a aussi ses inconvénients [BROW-82]. Elle est<br />
limitée par sa lenteur et le fait qu’elle est basée sur l’appréciation visuelle pour le tracé du<br />
contour. Au milieu des années quatre-vingt sont apparu des systèmes qui détectent<br />
automatiquement les contours entre deux points indiqués par l’opérateur (système du<br />
CAAS [REIB-84]) ou dans une région d’intérêt sélectionnée (système ARTREK [LEFR-<br />
86]).<br />
Une analyse de la bibliographie des méthodes de mesure de coronaires est donnée dans<br />
[REIB-84], [HERM-92]<br />
1.3. Système QCA des appareils Philips<br />
Le logiciel de QCA utilisé dans notre étude de <strong>compression</strong> est basé sur le système du<br />
CAAS. C’est l’algorithme d’analyse disponible sur les systèmes d’angiographie cardiaque<br />
numérique de Philips [REIB-89]. L’opérateur indique deux points du vaisseau entre<br />
lesquels se situe la lésion à analyser. Le système calcule une ligne centrale. Ensuite il<br />
échantillonne de nouveau les données en segments rectilignes perpendiculaires à la ligne<br />
centrale. La courbe des nive<strong>aux</strong> de gris le long de ces segments est utilisée pour<br />
déterminer les bords du vaisseau. Une pondération de la dérivée première et de la<br />
dérivée seconde de ces courbes sert à l’évaluation des contours, en cherchant un tracé<br />
qui optimise certains critères (matrice de coût minimale).<br />
Les principales étapes du processus de mesure sont les suivantes:<br />
1 QCA: de l’anglais “Quantitative Coronary Analysis”<br />
- 192 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
• Etape de calibrage<br />
1. sélection par l’opérateur de l’image de calibrage<br />
2. sélection par l’opérateur d’un segment de cathéter (dont le diamètre est connu) en<br />
indiquant deux points sur le cathéter<br />
3. détection par l’ordinateur de la ligne centrale du cathéter<br />
4. détection par l’ordinateur des contours du cathéter<br />
5. indication par l’opérateur du diamètre réel du cathéter<br />
6. calcul par l’ordinateur du diamètre moyen du segment de cathéter<br />
7. calcul par l’ordinateur du facteur de calibrage exprimé en mm/pixel<br />
• Etape de mesure<br />
1. sélection par l’opérateur de l’image du vaisseau, dans la même séquence que l’image<br />
de calibrage<br />
2. sélection par l’opérateur du segment à analyser, en indiquant un point en amont et un<br />
point en aval de la lésion<br />
3. détection par l’ordinateur d’une ligne centrale<br />
4. facultatif: correction manuelle par l’opérateur de la ligne centrale<br />
5. détection par l’ordinateur des bords du segment<br />
6. facultatif: corrections manuelles par l’opérateur des contours automatiques<br />
7. détermination par l’ordinateur du diamètre le plus petit (diamètre d’obstruction), et du<br />
diamètre moyen en dehors de la zone rétrécie (diamètre de référence).<br />
• Quelques résultats fournis par le système<br />
1. diamètre de référence, en mm<br />
2. diamètre d’obstruction, en mm<br />
3. aire de la section d’obstruction et de référence, en mm 2 (en supposant une section<br />
circulaire)<br />
4. pourcentage de rétrécissement en diamètre, en %<br />
5. pourcentage de rétrécissement en surface, en %<br />
6. longueur d’obstruction, en mm<br />
Un résultat typique de mesure est illustré dans la figure II-4.1.<br />
- 193 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
Figure II-4. 1: Exemple de résultats de mesures QCA.<br />
1.4. Précision et limitations du système<br />
Le système du CAAS est considéré comme un dispositif de grande précision. Sa<br />
validation à partir de fantômes de dimensions connus donne une différence moyenne<br />
entre les valeurs mesurées et les valeurs vraies de 0.03 mm (justesse), et un écart type<br />
de ces différences de 0.13mm (précision) [REIB-94].<br />
Une limitation propre à l’algorithme de tracé de contours est la tendance à sous-estimer<br />
les sténoses abruptes, si l’opérateur n’en corrige pas les contours.<br />
Une limitation inhérente à toute méthode semi-automatique provient de facteurs<br />
radiographiques. On peut citer la “pénombre” due au fait que la source radiogène n’est<br />
pas ponctuelle, le flou cinétique dû au mouvement des vaisse<strong>aux</strong>, les aberrations de la<br />
chaîne d’imagerie, les défauts d’exposition (surexposition ou sous-exposition).<br />
Une limitation est due à la forme de la lésion par rapport au modèle ellipsoïdal supposé.<br />
La lésion peut être excentrée et asymétrique.<br />
D’autres limitations sont due à l’opérateur humain lors de l’acquisition de l’image ou de la<br />
mesure elle-même. Il est nécessaire de choisir une projection appropriée, sans vaisse<strong>aux</strong><br />
superposés, et où le segment de vaisseau à analyser est perpendiculaire au plan de<br />
l’image pour éviter des distorsions géométriques. Le choix de l’image dans la séquence et<br />
le positionnement des points autour de la lésion sont primordi<strong>aux</strong>.<br />
Pour restreindre les limitations dues au facteur humain entre les répétitions des mesures<br />
de notre étude, une approche rigoureuse dans la sélection des points délimitant la lésion<br />
a été utilisée. Cette approche est décrite dans l’annexe B. Il faut noter qu’un léger écart de<br />
positionnement de ces point entraîne des résultats de mesure assez différents. Dans la<br />
routine des examens angiographiques, la variabilité des observateurs est bien supérieure<br />
<strong>aux</strong> variabilités généralement mentionnées dans les études publiées, où les opérateurs<br />
sont formés et spécialisés dans la pratique des mesures.<br />
- 194 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
2. Méthodes pour tester un système de QCA<br />
• Fantômes<br />
La justesse des systèmes QCA est en général validée à l’aide de fantômes de dimensions<br />
connues [REIB-94]. Il s’agit de cylindres creux en Plexiglas, dont la lumière contient des<br />
rétrécissements, imitant la lumière des vaisse<strong>aux</strong>. Les cylindres sont remplis de produit de<br />
contraste opaque <strong>aux</strong> rayons X, placés dans un milieu aqueux pour reproduire<br />
approximativement les conditions d’un patient (rayonnement diffusé...), et font l’objet<br />
d’acquisition d’images. Les résultats des mesures sur ces images de fantômes de<br />
dimensions variées sont comparés avec les valeurs vraies. Une précision entre valeurs<br />
vraies et mesurées de l’ordre 0.10-0.13 mm est considérée comme bonne [REIB-94]. La<br />
précision est définie ici comme l’écart type sur les différences entre les valeurs vraies et<br />
les valeurs mesurées.<br />
Cette méthode serait idéale pour évaluer si la justesse des mesures était préservée sur<br />
des images comprimées. Malheureusement, son emploi n’est pas correct, bien qu’on la<br />
rencontre parfois. En effet, les images de fantômes ont des propriétés statistiques fort<br />
différentes des images réelles. Or, la <strong>compression</strong> par transformation est complètement<br />
dépendante des propriétés statistiques de l’image. En d’autres termes, pour un t<strong>aux</strong> de<br />
<strong>compression</strong> donné, la nature et l’importance des artefacts introduits par la <strong>compression</strong><br />
seront vraisemblablement complètement différentes sur une image de fantômes, et sur<br />
une image réelle de patient. Les résultats de justesse des mesures sur des images de<br />
fantômes comprimées ne permettraient en rien de porter des conclusions sur les résultats<br />
de justesse avec des images réelles.<br />
La seule approche possible pour évaluer l’effet de la <strong>compression</strong> sur les résultats de<br />
QCA est d’effectuer une campagne de mesures sur des images réelles.<br />
• Campagnes mesures<br />
Les campagnes de mesures consistent à sélectionner un certain nombre d’images, et à<br />
effectuer les mesures dans les différentes conditions que l’on cherche à comparer. Dans<br />
notre cas, nous cherchons à comparer les résultats sur des images originales, et les<br />
résultats sur les mêmes images ayant subi une <strong>compression</strong>. Par des méthodes<br />
statistiques descriptives et quantitatives, nous voulons évaluer si la fidélité des mesures<br />
est significativement modifiée par la <strong>compression</strong> ou non.<br />
Par cette approche, il n’est pas possible de comparer les valeurs mesurées avec les<br />
valeurs vraies qui sont inconnues (notion de justesse), mais seulement de vérifier si<br />
l’étroitesse entre l’accord sur plusieurs mesures est perturbée par la <strong>compression</strong> (notion<br />
de fidélité).<br />
Une fidélité inter et intra-observateur (écart type des différences entre deux mesures sur<br />
une images) de 0.2-0.3mm est considérée comme bonne [REIB-94].<br />
3. Trav<strong>aux</strong> de la littérature sur la QCA avec <strong>compression</strong><br />
Il existe peu de trav<strong>aux</strong> publiés sur l’effet de la <strong>compression</strong> sur les mesures de QCA.<br />
Nous avons connaissance principalement de deux études.<br />
[KONI-94] a étudié l’effet d’une <strong>compression</strong> avec perte à base de DPCM, avec des t<strong>aux</strong><br />
de 2 (sans pertes), et 3 et 4 (avec pertes). L’une de ses évaluations porte sur des<br />
fantômes, l’autre (la seule dont il sera fait mention ici) sur des images de patients<br />
- 195 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
contenant 40 lésions. Ses résultats ne montrent pas de différences significatives de la<br />
fidélité des mesures, dans des conditions de répétabilité (un même opérateur répète deux<br />
fois chaque mesure). La méthode de comparaison est basée sur la moyennes des écarts<br />
entre les deux séries de mesures sur les images d’un même type (comparaison intraobservateur).<br />
Cette moyenne pour les images originales est comparée avec la moyenne<br />
pour les images comprimées à l’aide d’un test de Student. Ces moyennes étaient de<br />
l’ordre de 0.01 à 0.04 mm. Leurs écarts types ont été comparés par un test de Fischer.<br />
Les écarts types étaient de l’ordre de 0.09 à 0.14 mm. De façon similaire, des<br />
comparaisons ont été effectuées entre la moyenne et l’écart type des écarts entre une<br />
première mesure sur les images originales, et une deuxième mesure sur les images<br />
comprimées (comparaison inter-<strong>compression</strong>).<br />
[RIGO-96] a évalué la corrélation avec les mesures de QCA sur 40 lésions entre les<br />
images originales et comprimées avec JPEG-15. L’algorithme de QCA employé repose<br />
sur une de détection de contour proche de celle du CAAS ([HERM-92], [CUSM-95]). Les<br />
résultats indiquent que la corrélation entre les images originales et les images<br />
comprimées est similaire à la corrélation entre une première mesure et une deuxième<br />
mesure sur les origin<strong>aux</strong>. Les auteurs concluent que dans les conditions de leur étude, la<br />
<strong>compression</strong> n’a pas d’effet significatif sur les mesures.<br />
4. Méthode de notre étude de QCA appliquée sur des images<br />
comprimées<br />
Notre étude de QCA a fait l’objet d’une publication ([KONI-97]).<br />
4.1. Protocole expérimental<br />
Notre campagnes de mesures QCA sur des images comprimées s’est déroulés dans le<br />
cadre de l’AZL de Leiden. Les princip<strong>aux</strong> éléments de notre protocole expérimental sont<br />
indiqués ci-après.<br />
• Opérateur<br />
Un opérateur expert de l’analyse quantitative a réalisé toutes les mesures. En<br />
comparaison avec les conditions cliniques de routine, le choix d’un tel opérateur limite les<br />
inconsistances fréquemment rencontrées quant au choix de l’image à utiliser au sein de la<br />
séquence, et au positionnement des deux points en aval et en amont de la lésion à<br />
analyser.<br />
• Système de mesure<br />
Le système de QCA utilisé dans cette étude était un système de recherche comportant<br />
exactement le même algorithme que le système DCI, mais avec une interface utilisateur<br />
différente. En particulier, le logiciel permet de connaître la position exacte des points<br />
donnés par l’opérateur, et d’entrer des points de coordonnées voulues.<br />
• Images<br />
Les images incluses dans cette étude proviennent d’un DCI et d’un Integris de l’Hôpital<br />
Cardiologique de Lille. Le recoupement entre les images de la campagne d’interprétation<br />
visuelle de Lille a malheureusement été restreint, car peu d’images se prêtaient <strong>aux</strong><br />
mesures quantitatives.<br />
- 196 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
30 images ont été incluses dans cette campagne QCA, à partir desquelles 37 lésions ont<br />
pu être mesurées.<br />
• Traitements d’image<br />
Les images originales ont été comprimées avec la méthode JPEG (abréviation JP), et la<br />
méthode MLOT (abréviation LO), à des t<strong>aux</strong> de 5, 8, et 12:1. Les mesures ont donc porté<br />
sur 7 lots d’images: les images originales OR, les images comprimées JP5, JP8, JP12, et<br />
LO5, LO8, LO12.<br />
• Réplications des mesures<br />
Chaque lot d’image a été mesuré à deux reprises, séparées par quelques semaines.<br />
• Calibrage<br />
Pour chaque image, la calibrage a été effectué une fois sur l’original lors de la première<br />
réplication. Les deux points donnés par l’opérateur le long du cathéter ont été réutilisés<br />
pour toutes les autres premières mesures, c’est à dire lors de la première mesure sur<br />
l’image correspondante avec chacun des traitements JP5, JP8, JP12, et LO5, LO8, LO12.<br />
Lors de la deuxième réplication, l’opérateur a de nouveau indiqué deux points pour la<br />
calibrage sur l’original. Ces points ont été réutilisés pour toutes les autres deuxièmes<br />
mesures avec chacun des traitements.<br />
Ainsi, les différences de calibrage qui peuvent survenir entre les origin<strong>aux</strong> et les images<br />
comprimées sur la première réplication, ou sur la deuxième réplication ne peuvent être<br />
imputées qu’à une modification du contour du cathéter due à la <strong>compression</strong>.<br />
• Mesures<br />
Les mesures ont été effectuées en limitant au strict minimum l’interaction de l’opérateur.<br />
Seuls les points en amont et en aval de la lésion ont été indiqués. Aucune correction<br />
manuelle de la ligne centrale, ou du contour n’a été effectuée.<br />
Le même principe que pour la calibrage a été appliqué: réutilisation des points en amont<br />
et en aval de la lésion trouvée sur l’original et appliqués de nouveau sur les images<br />
comprimées.<br />
On voit que par un tel protocole, l’interaction entre l’opérateur et l’image n’a en fait<br />
réellement eu lieu que sur les origin<strong>aux</strong>. Sur les images comprimées, l’opérateur n’avait<br />
pas à choisir de points sur l’image, mais juste à les entrer dans la machine et à laisser le<br />
résultat se calculer.<br />
Ainsi les différences de résultats de mesures observées peuvent être imputées à un effet<br />
de la <strong>compression</strong> sur la calibrage ou sur la détection des contours du vaisseau.<br />
4.2. Valeurs mesurées et analysées<br />
• Mesures sur lesquelles ont portées les analyses<br />
Pour la clarté de cet exposé, nous avons choisi de limiter le nombre de mesures par<br />
rapports à toutes celles fournies par le logiciel de QCA. Les résultats de QCA sur lesquels<br />
nous avons effectué nos analyses de données sont le diamètre de référence Dref, et le<br />
diamètre d’obstruction Dobs. Ce sont des valeurs très importantes pour le clinicien, à<br />
partir d’elles sont déduites le pourcentage de sténose exprimé soit en diamètre, soit en<br />
surface.<br />
• Comparaisons intra- et inter-<strong>compression</strong><br />
Toutes les mesures de cette campagne QCA ont été effectuées dans des conditions de<br />
répétabilité, le même opérateur répétant chaque mesure deux fois.<br />
- 197 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
Dans les comparaisons intra-<strong>compression</strong>, nous avons utilisé, pour un lot d’images<br />
donné, une comparaison des résultats de la réplication 1 et de la réplication 2.<br />
Dans les comparaisons inter-<strong>compression</strong>, nous avons pris la moyenne des deux<br />
mesures sur les origin<strong>aux</strong>, et nous l’avons comparé à la moyenne des deux mesures avec<br />
un traitement donné.<br />
• Résumé des méthodes d’analyses<br />
Notre analyse statistique a été basée sur des méthodes graphiques simples similaires à<br />
[GRIM-96], sur un coefficient de concordance [LIN-89], et sur l’analyse de la variance.<br />
On a donné au chapitre II-2 une liste des principales méthodes statistiques employées<br />
dans cette thèse.<br />
5. Résultats<br />
L’analyse des données a pour objectif de répondre principalement <strong>aux</strong> deux questions:<br />
1. La <strong>compression</strong> rend-elle les mesures moins exactes? Nous regarderons si en<br />
moyenne les valeurs mesurées sur les images comprimées sont significativement<br />
différentes des valeurs mesurées sur les images originales.<br />
2. La <strong>compression</strong> rend-elle les mesures moins précises? Nous regarderons si l’écart<br />
entre les mesures répliquées est en moyenne significativement différent avec les<br />
images comprimées et originales.<br />
5.1. Comparaisons inter-<strong>compression</strong><br />
Dans cette section nous allons étudier si en moyenne les mesures effectuées sur les<br />
images originales diffèrent significativement ou non des mesures effectuées sur chacun<br />
des lots d’images comprimées.<br />
5.1.1. Graphes des différences par rapport <strong>aux</strong> moyennes<br />
Une première interprétation visuelle des données va être fournie par des graphes traçant<br />
les différences par rapport <strong>aux</strong> moyennes (figure II-4.2 et II-4.3).<br />
Cette méthode graphique a été proposée par [BLAN-86]. Chaque point du graphe<br />
correspond à une lésion. Dans cette section, la moyenne des deux mesures de la lésion<br />
sur l’image originale (“moyenne originale”) est comparée à la moyenne des deux mesures<br />
sur l’image comprimée (“moyenne comprimée”). Pour cela, la différence entre la moyenne<br />
originale et la moyenne comprimée est tracée en fonction de la moyenne de ces deux<br />
moyennes.<br />
En plus des points correspondant <strong>aux</strong> lésions, une droite horizontale indique la moyenne<br />
de toutes les différences. Si toutes les valeurs des moyennes comprimées étaient égales<br />
<strong>aux</strong> valeurs des moyennes originales, cette droite passerait par l’axe des origines. Cette<br />
droite de moyennes générale des différences est entourée de deux autres droites<br />
indiquant un intervalle de tolérance. La notion d’intervalle de tolérance est différente de la<br />
notion d’intervalle de confiance. Il s’agit de déterminer à partir des données sur les<br />
origin<strong>aux</strong> une limite acceptable pour les écarts de moyennes.<br />
Les figures II-4.2 et II-4.3 montrent que les moyennes générales des écarts entre les<br />
moyennes comprimées et originales sont très voisines de zéro. On peut constater que les<br />
différences sont en dehors des bornes de tolérances pour 5 à 13 lésions sur 37, selon le<br />
traitement concerné.<br />
- 198 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
D’après cette interprétation graphique, la différence entre les moyennes comprimées et<br />
originales est quasi nulle, mais il y a une dispersion autour de cette moyenne qui dépasse<br />
parfois les bornes de tolérances.<br />
0.8<br />
Dobs, OR et JP5<br />
0.8<br />
Dobs, OR et LO5<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dobs, OR et JP8<br />
0.8<br />
Dobs, OR et LO8<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dobs, OR et JP12<br />
0.8<br />
Dobs, OR et LO12<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
Figure II-4.2 Comparaisons inter-<strong>compression</strong> : Graphe des différences par rapport<br />
<strong>aux</strong> moyennes pour les diamètres d’obstruction<br />
- 199 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
0.8<br />
Dref, OR et JP5<br />
0.8<br />
Dref, OR et LO5<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dref, OR et JP8<br />
0.8<br />
Dref, OR et LO8<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dref, OR et JP12<br />
0.8<br />
Dref, OR et LO12<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
Figure II-4.3 Comparaisons inter-<strong>compression</strong> : Graphe des différences par rapport<br />
<strong>aux</strong> moyennes pour les diamètres d’obstruction<br />
5.1.2. Coefficients de concordance de Lin<br />
Le coefficient de corrélation de concordance de Lin mesure avec quel degré les paires de<br />
mesures passent par la droite d’identité.<br />
Nous avons estimés les coefficients de Lin pour les comparaisons inter-<strong>compression</strong> à<br />
l’aide de la technique du bootstrap. Des intervalles de confiances à 95% sont aussi<br />
estimés par bootstrap. Comme les données ne suivent pas précisément une distribution<br />
gaussienne, cette approche statistique est utile. Le principe du bootstrap a été expliqué à<br />
la section 3.2.2 du chapitre II-1.<br />
- 200 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
Les figures II-4.4 et II-4.5 donnent les valeurs estimées des coefficients de Lin inter<strong>compression</strong>,<br />
ainsi que les valeurs des intervalles de confiance. On constate que toutes<br />
les concordances inter-<strong>compression</strong> sont très bonnes, et se situent entre 0.91 et 0.98. Les<br />
intervalles de confiance se chevauchant, il ne semble pas y avoir de différence<br />
significative entre les coefficients de Lin des différents traitements.<br />
Dobs Lin IC- IC+<br />
OR/J5 0.962 -0.027 0.015<br />
OR/J8 0.967 -0.018 0.011<br />
OR/J12 0.919 -0.047 0.032<br />
OR/L5 0.942 -0.034 0.025<br />
OR/L8 0.946 -0.028 0.019<br />
OR/L12 0.945 -0.034 0.021<br />
Concordance Lin<br />
1.00<br />
0.98<br />
0.96<br />
0.94<br />
0.92<br />
0.90<br />
0.88<br />
0.86<br />
0.84<br />
0.82<br />
0.80<br />
Dobs - Inter-<strong>compression</strong><br />
OR/J5<br />
OR/J8<br />
OR/J12<br />
OR/L5<br />
OR/L8<br />
OR/L12<br />
Figure II-4. 4: Coefficients de concordance de Lin inter-<strong>compression</strong> pour les<br />
diamètres d’obstruction. (IC-: valeur inférieure de l’intervalle de confiance, IC+:<br />
valeur supérieure)<br />
Dref Lin IC- IC+<br />
OR/J5 0.962 -0.032 0.019<br />
OR/J8 0.967 -0.041 0.026<br />
OR/12 0.919 -0.040 0.025<br />
OR/L5 0.942 -0.036 0.023<br />
OR/L8 0.946 -0.029 0.017<br />
OR/L12 0.945 -0.058 0.031<br />
Concordance Lin<br />
1.00<br />
0.98<br />
0.96<br />
0.94<br />
0.92<br />
0.90<br />
0.88<br />
0.86<br />
0.84<br />
0.82<br />
0.80<br />
OR/J5<br />
Dref - Inter-<strong>compression</strong><br />
OR/J8<br />
OR/12<br />
OR/L5<br />
OR/L8<br />
OR/L12<br />
Figure II-4. 5: Coefficients de concordance de Lin inter-<strong>compression</strong> pour les<br />
diamètres de référence. (IC-: valeur inférieure de l'intervalle de confiance, IC+:<br />
valeur supérieure).<br />
- 201 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
5.2. Comparaisons intra-<strong>compression</strong><br />
Dans cette section nous allons étudier les écarts entre les deux réplications de chaque<br />
traitement. Nous cherchons à savoir si la variabilité des mesures sur les images<br />
comprimées diffère de la variabilité sur les images originales.<br />
Cette analyse se fera par l’intermédiaire de comparaisons intra-<strong>compression</strong> (voir figure II-<br />
1-1).<br />
5.2.1. Graphes des différences par rapport <strong>aux</strong> moyennes<br />
Les graphes des différences entre les deux réplications de chaque traitement par rapport<br />
<strong>aux</strong> moyennes de ces deux réplications sont données dans les figures II-4.6 et II-4.7 Les<br />
intervalles de tolérances sont déterminés à partir des origin<strong>aux</strong>, comme à la section<br />
5.1.1.<br />
D’après ces graphes, l’accord entre les deux réplications sur les origin<strong>aux</strong> est très bon.<br />
Les points sont alignés le long d’une moyenne des différences très proche de 0. Pour les<br />
images comprimées, les points sont un peu plus dispersés autour de leur moyenne. On<br />
remarque une variabilité un peu plus importante avec JP5 et JP8 pour le diamètre<br />
d’obstruction. Pour JP8, un groupe de sept points a une première réplication nettement<br />
supérieure à la deuxième réplication, ce qui a pour effet d’augmenter la moyenne des<br />
différences.<br />
- 202 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
0.8<br />
Dobs, ORIGINAUX<br />
0.6<br />
1 point > borne sup<br />
0.4<br />
0.2<br />
borne sup: 0.251<br />
0<br />
moyenne écarts: 0.011<br />
-0.2<br />
borne inf: -0.219<br />
-0.4<br />
2 points < borne inf<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dobs, JPEG-5<br />
0.8<br />
Dobs, MLOT-5<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dobs, JPEG-8<br />
0.8<br />
Dobs, MLOT-8<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dobs, JPEG-12<br />
0.8<br />
Dobs, MLOT-12<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
Figure II-4. 6 Comparaisons intra-<strong>compression</strong> : Diagramme des différences par<br />
rapport <strong>aux</strong> moyennes, avec intervalles de tolérance, pour les diamètres<br />
d’obstruction.<br />
- 203 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
0.8<br />
Dref, ORIGINAUX<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
-0.2<br />
-0.4<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dref, JPEG-5<br />
0.8<br />
Dref, MLOT-5<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dref, JPEG-8<br />
0.8<br />
Dref, MLOT-8<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
0.8<br />
Dref, JPEG-12<br />
0.8<br />
Dref, MLOT-12<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
-0.2<br />
-0.2<br />
-0.4<br />
-0.4<br />
-0.6<br />
-0.6<br />
-0.8<br />
1 2 3 4 5<br />
-0.8<br />
1 2 3 4 5<br />
Figure II-4. 7 Comparaisons intra-<strong>compression</strong> : Diagramme des différences par<br />
rapport <strong>aux</strong> moyennes, avec intervalles de tolérance, pour les diamètres<br />
d’obstruction.<br />
- 204 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
5.2.2. Coefficients concordance de Lin<br />
Les figures II-4.8 et II-4.9 montrent les coefficients de Lin pour les accords intra<strong>compression</strong>.<br />
Dobs Lin borne itc- borne itc+<br />
OR 0.962 -0.014 0.008<br />
JP5 0.962 -0.030 0.021<br />
JP8 0.967 -0.024 0.015<br />
JP12 0.919 -0.021 0.015<br />
LO5 0.942 -0.013 0.008<br />
LO8 0.946 -0.016 0.010<br />
LO12 0.945 -0.030 0.023<br />
Concordance Lin<br />
1.00<br />
0.98<br />
0.96<br />
0.94<br />
0.92<br />
0.90<br />
0.88<br />
0.86<br />
0.84<br />
0.82<br />
0.80<br />
OR<br />
Dobs - Intra-<strong>compression</strong><br />
JP5<br />
JP8<br />
JP12<br />
LO5<br />
LO8<br />
LO12<br />
Figure II-4. 8: Coefficients de concordance de Lin intra-<strong>compression</strong> pour les<br />
diamètres d’obstruction.<br />
Dref Lin borne itc- borne itc+<br />
OR 0.962 -0.010 0.006<br />
JP5 0.962 -0.021 0.010<br />
JP8 0.967 -0.015 0.009<br />
JP12 0.919 -0.018 0.012<br />
LO5 0.942 -0.012 0.008<br />
LO8 0.946 -0.032 0.018<br />
LO12 0.945 -0.033 0.019<br />
Concordance lin<br />
1.00<br />
0.98<br />
0.96<br />
0.94<br />
0.92<br />
0.90<br />
0.88<br />
0.86<br />
0.84<br />
0.82<br />
0.80<br />
OR<br />
Dref - Intra-<strong>compression</strong><br />
JP5<br />
JP8<br />
JP12<br />
LO5<br />
LO8<br />
LO12<br />
Figure II-4.9: Coefficients de concordance de Lin intra-<strong>compression</strong> pour les<br />
diamètres de référence.<br />
Les estimations des coefficients de Lin donnent des valeurs d’accords intra-<strong>compression</strong><br />
excellentes. Tous les coefficients de corrélation de concordance sont supérieurs à 0.97 et<br />
sont relativement homogènes entre tous les nive<strong>aux</strong> de <strong>compression</strong>, que ce soit avec<br />
Dobs ou Dref.<br />
Il ne semble pas y avoir de différence significative entre les valeurs de concordance sur<br />
les images comprimées et originales. On constate que les intervalles de confiance pour<br />
quelques-unes des <strong>compression</strong>s sont moins étroits que ceux des origin<strong>aux</strong>, par exemple<br />
pour JP5, JP8 et LO12 pour Dobs, et LO8 et LO12 pour Dref.<br />
5.2.3. Coefficients de variations<br />
Les coefficients de variations (CV) sont des indices de la variabilité de chaque paire de<br />
mesure (réplication 1 et réplication 2). Ils sont calculés selon la formule:<br />
CV = s , où s est l’estimation de l’écart type des deux mesures, et x− leur<br />
−<br />
x<br />
moyenne.<br />
- 205 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
Les 37 CV intra-<strong>compression</strong> pour chaque niveau de traitement ont été représentés à<br />
l’aide de diagrammes dits de ‘box-plot’ (figure II-4.10 et II-4.11). Les box-plots<br />
représentent la distribution des CV de chaque traitement par une boite. La boite contient<br />
50% des valeurs autour de la médiane. La médiane est indiquée par une barre horizontale<br />
dans la boite. Une ligne verticale indique l’étendue de la distribution, et les valeurs<br />
extrêmes ou aberrantes sont représentés par des croix.<br />
Ces diagrammes montrent que la distribution des coefficients de variation est plus étalée<br />
avec <strong>compression</strong> que sans, et de façon plus prononcée avec les Dobs. Toutefois, les<br />
médianes restent toutes très voisines de la médiane de CV sur les origin<strong>aux</strong>.<br />
Nous avons testé si les nive<strong>aux</strong> de <strong>compression</strong> induisaient une différence significative<br />
des valeurs de CV à l’aide d’une ANOVA de Friedman à deux critères de classification 2 .<br />
Nous avons utilisé le programme 3S du logiciel BMDP. Les résultats des tests de<br />
Friedman pour MLOT et JPEG, avec Dobs ou Dref montrent que les traitements d’image<br />
n’ont pas un effet significatif sur les CV des mesures.<br />
Dobs, JPEG<br />
Dobs, MLOT<br />
0.25<br />
0.25<br />
coefficient de variation (%)<br />
0.2<br />
0.15<br />
0.1<br />
0.05<br />
coefficient de variation (%)<br />
0.2<br />
0.15<br />
0.1<br />
0.05<br />
0<br />
0<br />
1 2 3 4<br />
traitement image<br />
1 2 3 4<br />
traitement image<br />
Figure II-4.10: Box-plot des coefficients de variation avec les Dobs. Niveau 1:<br />
origin<strong>aux</strong>; niveau 2: t<strong>aux</strong> de 5; niveau 3: t<strong>aux</strong> de 8; niveau 4: t<strong>aux</strong> de 12<br />
Dref, JPEG<br />
Dref, MLOT<br />
0.25<br />
0.25<br />
coefficient de variation (%)<br />
0.2<br />
0.15<br />
0.1<br />
0.05<br />
coefficient de variation (%)<br />
0.2<br />
0.15<br />
0.1<br />
0.05<br />
0<br />
0<br />
1 2 3 4<br />
traitement image<br />
1 2 3 4<br />
traitement image<br />
Figure II-4.11: Box-plot des coefficients de variation avec les Dref. Niveau 1:<br />
origin<strong>aux</strong>; niveau 2: t<strong>aux</strong> de 5; niveau 3: t<strong>aux</strong> de 8; niveau 4: t<strong>aux</strong> de 12<br />
5.3. Analyse de la variance<br />
L’analyse de la variance permet de comparer les moyennes des réalisations des nive<strong>aux</strong><br />
d’un facteur. Nous allons utiliser cet outil pour comparer entre elles les moyennes des<br />
mesures sur les origin<strong>aux</strong> avec les moyennes des mesures à chaque t<strong>aux</strong> de<br />
2 En anglais: Friedman’s two way ANOVA<br />
- 206 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
<strong>compression</strong>. Nous allons séparément étudier le facteur “<strong>compression</strong> JPEG”, et le<br />
facteur “<strong>compression</strong> MLOT”. Chacun de ces facteurs a quatre nive<strong>aux</strong>: 1 (origin<strong>aux</strong>), 5,<br />
8, et 12.<br />
• Moyennes des réplications et des nive<strong>aux</strong> de <strong>compression</strong><br />
Les figures II-4.12 et II-4.13 montrent les moyennes de la réplication 1 et de la réplication<br />
2 à chaque niveau de <strong>compression</strong>, ainsi que leur moyenne totale.<br />
On n’observe pas de tendance à la sous-estimation, ni à la surestimation des valeurs<br />
mesurées car il n’y a pas augmentation ou diminution systématiques des moyennes avec<br />
les nive<strong>aux</strong> de <strong>compression</strong>.<br />
Il n’y a pas de parallélisme entre l’évolution des moyennes des réplications selon le niveau<br />
de <strong>compression</strong>. Ceci indique la possibilité d’interactions entre les nive<strong>aux</strong> du facteur<br />
<strong>compression</strong> et les nive<strong>aux</strong> du facteur réplication.<br />
L’écart entre la moyenne de la réplication 1 et 2 semble plus importante avec JP 8 pour<br />
Dobs. Cet écart concorde avec la figure II-4.6, mais il n’est pas accompagné d’une<br />
variation inter-<strong>compression</strong> significative (figure II-4.4).<br />
L’analyse de la variance permet de vérifier si ces diverses observation correspondent à<br />
des variations significatives des moyennes.<br />
Dobs - JPEG<br />
Dobs - MLOT<br />
1.79<br />
1.79<br />
1.77<br />
1.77<br />
Moyenne<br />
1.75<br />
1.73<br />
1.71<br />
1.69<br />
OR J5 J8 J12<br />
Repl 1<br />
Repl 2<br />
Total<br />
Moyenne<br />
1.75<br />
1.73<br />
1.71<br />
1.69<br />
OR L5 L8 L12<br />
Repl 1<br />
Repl 2<br />
Total<br />
1.67<br />
1.67<br />
1.65<br />
1.65<br />
Figure II-4.12: Moyennes des réplications et moyennes totales pour chaque niveau<br />
de <strong>compression</strong> sur les diamètres d’obstruction.<br />
- 207 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
Dref - JPEG<br />
Dref - MLOT<br />
Moyenne<br />
3.44<br />
3.42<br />
3.40<br />
3.38<br />
3.36<br />
3.34<br />
3.32<br />
OR J5 J8 J12<br />
Repl 1<br />
Repl 2<br />
Total<br />
Moyenne<br />
3.44<br />
3.42<br />
3.40<br />
3.38<br />
3.36<br />
3.34<br />
3.32<br />
OR L5 L8 L12<br />
Repl 1<br />
Repl 2<br />
Total<br />
3.30<br />
3.30<br />
Figure II-4.13: Moyennes des réplications et moyennes totales pour chaque niveau<br />
de <strong>compression</strong> sur les diamètres de référence.<br />
• Analyse de la variance pour mesures répétées<br />
L’analyse de la variance permet de comparer globalement les moyennes des réplications<br />
et des nive<strong>aux</strong> de <strong>compression</strong>, et de tester si la différence observée entre les moyennes<br />
est significative.<br />
Quatre ANOVA pour mesures répétées ont été réalisées avec 2V de BMDP: une pour<br />
Dobs et JPEG, une pour Dobs et MLOT, une pour Dref et JPEG, une pour Dref et MLOT.<br />
Pour chacune, deux facteurs fixes et emboîtés 3 ont été définis: un facteur <strong>compression</strong><br />
(par exemple MLOT) emboîté dans un facteur réplication. Les nive<strong>aux</strong> du facteur<br />
<strong>compression</strong> sont par exemple MLOT-1 (origin<strong>aux</strong>), MLOT-5, MLOT-8, MLOT-12. Les<br />
nive<strong>aux</strong> du facteur réplication sont 1 et 2. Dans les ANOVA effectuées, aucun des<br />
facteurs et des interactions n’est significatif (p>0.05) pour Dobs avec MLOT et pour Dref<br />
avec JPEG et MLOT. Pour Dobs avec JPEG, l’interaction entre le facteur <strong>compression</strong><br />
JPEG et le facteur réplication est à la limite d’être significative (p=0.06). L’écart entre les<br />
moyennes des deux réplications pour JP8 en est la cause.<br />
On en conclut que les moyennes des mesures pour chaque niveau du facteur<br />
<strong>compression</strong> ne sont pas significativement différentes, avec MLOT ou JPEG, pour Dref, et<br />
avec MLOT pour Dref. Un doute subsiste avec JPEG pour Dobs compte tenu d’une<br />
ANOVA à la limite d’être significative.<br />
6. Discussion<br />
6.1. Résultats des analyses de données<br />
Toutes les analyses graphiques tendent à montrer que les valeurs mesurées sur les<br />
images comprimées concordent avec les valeurs sur les origin<strong>aux</strong>. Mais elles indiquent<br />
aussi que les dispersions intra-<strong>compression</strong>s sont un peu plus importantes sur les images<br />
comprimées que sur les origin<strong>aux</strong>. Toutefois ces résultats ne sont pas statistiquement<br />
significatifs, comme l’attestent les coefficients de concordance de corrélation ou les<br />
analyses de la variance.<br />
3 En anglais facteurs emboités se dit: nested factors<br />
- 208 -
Chapitre II-4: Mesures quantitatives sur les images comprimées<br />
On n’observe aucune tendance systématique à une surestimation des valeurs, ou à une<br />
sous-estimation des valeurs du fait de la <strong>compression</strong>. On n’observe pas de différence<br />
claire entre les méthodes de <strong>compression</strong> JPEG ou de MLOT <strong>aux</strong> nive<strong>aux</strong> de<br />
<strong>compression</strong> 5, 8, ou 12. Il n’y a pas de tendance linéaire, quadratique ou cubique<br />
d’augmentation ou de diminution des valeurs mesurées lorsque le t<strong>aux</strong> de <strong>compression</strong><br />
augmente.<br />
Il est difficile de porter une conclusion catégorique sur nos trav<strong>aux</strong> de QCA car certaines<br />
analyses sont justes à la limite d’être significatives. Aucune des différences testées entre<br />
les images originales et comprimée n’est significative, une seule en est à la limite<br />
(ANOVA pour mesures répétés avec JPEG pour Dobs).<br />
6.2. Aspects méthodologiques du protocole expérimental<br />
Toutes les mesures QCA ont été effectuées dans des conditions de répétabilité<br />
(comparaisons intra-opérateur). Ne disposant que d’un seul opérateur, il n’a pas été<br />
possible de travailler dans des conditions de reproductibilité (comparaisons interobservateurs).<br />
En vue d’améliorer le protocole et la méthode d’analyse de ce type de<br />
campagne d’évaluation, l’implication de plusieurs opérateurs est recommandable.<br />
6.3. Robustesse de la QCA à la <strong>compression</strong><br />
Les résultats de cette étude ne sont valables que pour l’algorithme de QCA employé, et<br />
pour les méthodes de <strong>compression</strong> JPEG et MLOT, à des t<strong>aux</strong> de <strong>compression</strong> de 5, 8, et<br />
12. Compte tenu de l’augmentation de variabilité non significative observée<br />
graphiquement, on peut se demander si pour des t<strong>aux</strong> de <strong>compression</strong> plus importants,<br />
l’influence de la <strong>compression</strong> deviendrait significative. Il semble logique que cette<br />
influence se fasse sentir plus tôt avec JPEG, à cause des artefacts de blocks qui sont<br />
susceptibles de modifier les contours détectés par le système.<br />
7. Conclusion<br />
Nous avons observé une légère augmentation de variabilité des mesures sur les images<br />
comprimées par rapport <strong>aux</strong> origin<strong>aux</strong>, mais les tests statistiques ne permettent pas de<br />
conclure à des différences significatives. Il semble utile de compléter ce travail par une<br />
étude incluant plus de lésions et plus d’un opérateur avant de conclure définitivement sur<br />
l’utilisation des images comprimées pour les mesures QCA. Au moment de la rédaction<br />
de ce mémoire, une telle étude est en cours sous l’égide de l’American College of<br />
Cardiology.<br />
Quelles que soient les conclusions qui seront portées, il faut garder en mémoire les<br />
nombreuses possibilités d’adapter le traitement de l’image comprimée lorsque l’on connaît<br />
les conditions d’utilisation de l’image. Ainsi, [DING-96] a montré qu’une régularisation de<br />
l’image JPEG, selon un approche similaire à celle développée au chapitre II-5, permet<br />
d’améliorer de façon significative la détection des contours sur des images très<br />
comprimées.<br />
- 209 -
CHAPITRE II-5<br />
CONCLUSION DE LA PARTIE<br />
EVALUATION<br />
- 210 -
Chapitre I-5: Conclusion de la partie évaluation<br />
1. Objet des évaluations<br />
La deuxième partie de ce mémoire a été consacrée à l’évaluation de la qualité<br />
d’<strong>angiographies</strong> <strong>cardiaques</strong> ayant subi une <strong>compression</strong> avec perte.<br />
Nous avons étudié l’impact des <strong>compression</strong>s MPEG, JPEG et MLOT à un t<strong>aux</strong> maximum<br />
de 12:1 sur les interprétations visuelles (évaluations diagnostiques de Lille et Houston) et<br />
sur les mesures quantitatives (évaluation QCA de Leiden).<br />
Avant de synthétiser l’apport de ces expérimentations, nous allons évoquer les<br />
enseignements tirés en matière de la qualité subjective des images comprimées.<br />
2. Qualité subjective<br />
Les tests de qualité visuelle et les expériences d’évaluation ont été effectuées avec des<br />
moniteurs noirs et blancs médic<strong>aux</strong>. Il est utile de souligner l’importance des conditions de<br />
visualisation sur l’impression subjective pour une image originale, et sur la visibilité<br />
d’artefacts de <strong>compression</strong>. Les conditions de visualisation des systèmes d’<strong>angiographies</strong><br />
sont parmi les plus exigeantes.<br />
2.1. Comparaison de JPEG, MPEG et MLOT<br />
Les observations subjectives recueillies au cours de ces années d’expériences avec<br />
ingénieurs et médecins nous permettent de conclure à une supériorité incontestée en<br />
matière de qualité visuelle de la méthode MLOT par rapport <strong>aux</strong> standards JPEG et<br />
MPEG. A un t<strong>aux</strong> de 12:1, JPEG et MPEG présentent des artefacts de blocs alors que<br />
MLOT se distingue peu de l’original. A un tel t<strong>aux</strong>, les trois algorithmes ont une qualité<br />
visuelle bien acceptée par les médecins. A partir de t<strong>aux</strong> de 16:1, JPEG et MPEG<br />
présentent des artefacts de blocs importants et une perte de netteté. Les commentaires<br />
des médecins nous avaient incités à ne pas considérer un tel t<strong>aux</strong> pour ces algorithmes<br />
dans nos évaluations. En revanche, MLOT présente des artefacts légers: une modification<br />
de la texture du bruit principalement.<br />
2.2. Visibilité de la présence de la <strong>compression</strong> selon les observateurs<br />
L’appréciation de la qualité d’image subjective dépend beaucoup de la spécialité de<br />
l’observateur. Les jugements portés par les développeurs d’algorithmes ou les ingénieurs<br />
(les “techniciens”) étaient différents de ceux des médecins (les “cliniciens”). En particulier,<br />
une grande attention a été portée par les techniciens sur les artefacts de blocs. Il s’est<br />
avéré que les cliniciens étaient beaucoup moins gênés que prévu. Comme les<br />
<strong>angiographies</strong> <strong>cardiaques</strong> sont par nature des images très bruitées, un niveau relatif<br />
d’artefacts semble tolérable dès lors que les ventricules et les vaisse<strong>aux</strong> présentent un<br />
bon contraste.<br />
Cette remarque confirme qu’il est indispensable d’évaluer la qualité des images<br />
comprimées avec leurs utilisateurs fin<strong>aux</strong>.<br />
A des t<strong>aux</strong> de 12:1, l’une des deux équipes médicales impliquées dans les évaluations<br />
subjectives ne s’est jamais aperçu que les images étaient comprimées, que ce soit avec<br />
MPEG ou MLOT, même en faisant porter l‘attention sur une zone ‘artéfactée’. Dans l’autre<br />
équipe, les médecins arrivaient en général à reconnaître la présence de la <strong>compression</strong>,<br />
assez souvent pour MLOT et très souvent pour JPEG. Cette différence peut être due <strong>aux</strong><br />
- 211 -
Chapitre I-5: Conclusion de la partie évaluation<br />
conditions d’acquisition et de visualisation d’un site à l’autre, et à une connaissance<br />
inégale sur les aspects techniques du traitement de l’image entre les deux équipes.<br />
Il n’est pas pareil de porter un jugement qualitatif sur une image, et de pouvoir établir un<br />
diagnostic correct. Dans l’équipe qui reconnaissait les images comprimées (en les jugeant<br />
légèrement moins bonnes que des origin<strong>aux</strong>), les interprétations visuelles diagnostiques<br />
n’étaient pas significativement différentes avec ou sans <strong>compression</strong>.<br />
2.3. Effet des post-traitements<br />
Quelques expérimentations pilotes ont mis en évidence l’impact majeur de certains posttraitements<br />
sur la visibilité des artefacts de <strong>compression</strong>. Le principal post-traitement dont<br />
l’utilisation doit être surveillée en combinaison avec la <strong>compression</strong> est le renforcement de<br />
contour. Ensuite viennent le zoom et le réglage du contraste.<br />
3. Evaluations diagnostiques<br />
3.1. Conditions expérimentales<br />
Nous avons cherché à savoir si la performance diagnostique concernant les tâches<br />
d’interprétation visuelle des <strong>angiographies</strong> était modifiée par la <strong>compression</strong>, avec JPEG,<br />
MPEG et MLOT à un t<strong>aux</strong> de 12:1.<br />
Nous avons tenté de placer les observateurs dans des conditions identiques à celles dans<br />
lesquelles ils établissent normalement leur diagnostic, en leur demandant d’effectuer des<br />
tâches correspondant à leurs pratiques courantes. En conséquence, notre protocole<br />
expérimental a été basé sur des examens complets comportant plusieurs centaines<br />
d’images chacun, visualisé sur un système identique <strong>aux</strong> systèmes cliniques. Nous avons<br />
enregistré l’interprétation visuelle complète des <strong>angiographies</strong>, impliquant la localisation et<br />
la classification d’anormalités sur 3 à 5 segments de ventricule gauche et 15 segments<br />
d’artère coronaires.<br />
3.2. Méthode statistique et variabilité des observateurs<br />
La méthodologie statistique a été basée sur l’estimation de concordances interobservateur,<br />
intra-observateur et inter-<strong>compression</strong>.<br />
Nous avons constaté des concordances inter- et intra-observateur bonnes à excellentes.<br />
De nombreux trav<strong>aux</strong> font état d’une variabilité importante des interprétations visuelles sur<br />
les films de radio-cinéma ([KUSS-92]). Nous pensons qu’une approche rigoureuse pour la<br />
localisation des segments d’artères coronaires est indispensable à ce genre d’étude et<br />
qu’elle nous a permis de limiter le problème. Dans notre première campagne d’évaluation,<br />
ce problème a été observé malgré une attention portée sur le sujet. Nous l’avons résolu<br />
en créant un score global par artère principale à partir des réponses sur tous les<br />
segments. Dans la deuxième étude, une cartographie des coronaires de chaque patient a<br />
été établie à partir des images réelles, et utilisée pour toutes les occurrences originales ou<br />
comprimées du même patient. Le deuxième élément de notre protocole qui contribue<br />
vraisemblablement à de bons accords est l’utilisation d’une réponse qui discrimine les<br />
anormalités coronaires de façon sémantique, au lieu d’une réponse basée sur un<br />
pourcentage de sténose.<br />
- 212 -
Chapitre I-5: Conclusion de la partie évaluation<br />
3.3. Princip<strong>aux</strong> résultats<br />
Nos résultats montrent qu’il n’y a aucune différence significative des concordances sur les<br />
ventriculographies avec ou sans <strong>compression</strong>. Globalement, il n’y a pas de différence<br />
significative des concordances sur les coronarographies. Quelques analyses ont donné<br />
des concordances modifiées par la <strong>compression</strong>, mais les tests sont justes à la limite<br />
d’être significatifs. Dans la campagne d’évaluation de Lille, un observateur seulement<br />
présente une concordance inter-<strong>compression</strong> entre les origin<strong>aux</strong> et MPEG inférieure <strong>aux</strong><br />
autres concordances inter-<strong>compression</strong> pour les trois artères coronaires, mais pas de<br />
façon significative. Dans l’évaluation de Houston, la concordance globale intraobservateur<br />
des segments coronaires dist<strong>aux</strong> uniquement est légèrement inférieure <strong>aux</strong><br />
autres pour MLOT. Compte tenu de l’ensemble des résultats, nous pensons que ces<br />
observations ne correspondent pas à des phénomènes représentatifs.<br />
Les campagnes d’évaluation diagnostiques ne permettent pas de conclure à une<br />
modification significative de l’interprétation visuelle sur des <strong>angiographies</strong> comprimées.<br />
Ces résultats sont très positifs quant à l’application de la <strong>compression</strong>. Ils méritent d’être<br />
complétés par des études similaires. De plus , des évaluations axées sur des pathologies<br />
particulières (thrombus, dissection) seraient également utiles car les cas sélectionnés<br />
aléatoirement dans une population de patient de service d’hémodynamique en incluent un<br />
nombre assez faible. Au moment de la rédaction de ce mémoire, une étude multicentrique<br />
est en cours sous l’égide de l’ACC avec l’algorithme JPEG. Des séquences<br />
extraites d’examens et présentant des types d’anormalités précises ont été sélectionnées<br />
sur plusieurs sites américains et européens. Ils font l’objet d’une interprétation visuelle par<br />
des observateurs de plusieurs institutions.<br />
4. Evaluation QCA<br />
Nous avons cherché à savoir si les mesures quantitatives était modifiées par la<br />
<strong>compression</strong>, avec JPEG et MLOT à des t<strong>aux</strong> de 5, 8 et 12:1.<br />
Nous avons observé une légère augmentation de variabilité des mesures sur les images<br />
comprimées par rapport <strong>aux</strong> origin<strong>aux</strong>. Mais les tests statistiques ne permettent pas de<br />
conclure à des différences significatives. Il semble utile de compléter ce travail par une<br />
étude incluant plus de lésions et plus d’un opérateur avant de conclure définitivement sur<br />
l’utilisation des images comprimées pour les mesures QCA. Au moment de la rédaction<br />
de ce mémoire, une telle étude est en cours sous l’égide de l’American College of<br />
Cardiology, avec JPEG.<br />
Quelles que soient les conclusions qui seront portées, il faut garder en mémoire les<br />
nombreuses possibilités d’adapter le traitement de l’image comprimée lorsque l’on connaît<br />
les conditions d’utilisation de l’image. Ainsi, [DING-96] a montré qu’une régularisation de<br />
l’image JPEG, selon un approche similaire à celle développée au chapitre I-4, permet<br />
d’améliorer de façon notoire la détection de contours sur des images présentant de<br />
sévères artefacts de blocs.<br />
5. Perspectives<br />
L’évaluation de la <strong>compression</strong> appliquée <strong>aux</strong> <strong>angiographies</strong> <strong>cardiaques</strong> est un sujet<br />
d’actualité. Face à l’essor des solutions entièrement numériques des laboratoires de<br />
cathétérismes, la communauté cardiologique est à la recherche d’une réponse sur les<br />
limites d’applications de la <strong>compression</strong> avec perte.<br />
- 213 -
Chapitre I-5: Conclusion de la partie évaluation<br />
Les résultats de nos études sont très prometteurs, bien qu’ils méritent d’être complétés.<br />
Tout laisse à penser que les algorithmes standards à des t<strong>aux</strong> moyens (8 à 12:1) vont<br />
être encore plus largement utilisés si les comités médic<strong>aux</strong> ad hoc se prononcent sur les<br />
tâches pour lesquels ils sont appropriés (diagnostic primaire, QCA, ou revue du dossier<br />
patient). On peut s’attendre à pouvoir travailler avec des t<strong>aux</strong> supérieurs avec des<br />
méthodes dédiées telles que MLOT.<br />
- 214 -
BILAN ET PERSPECTIVES<br />
- 215 -
Bilan et perspectives<br />
Motivation de ces trav<strong>aux</strong><br />
Le fil d’Ariane de cette thèse a été une question riche de conséquences pour les<br />
laboratoires de cathétérismes <strong>cardiaques</strong>: peut-on utiliser la <strong>compression</strong> avec perte<br />
d’information contrôlée sur les <strong>angiographies</strong>?<br />
L’accès à des solutions entièrement numériques pour le plus grand nombre d’institutions<br />
passera par la digitalisation de tous les maillons de la chaîne d’imagerie: acquisition,<br />
stockage, visualisation dynamique, et échange. Bien sûr, le maillon le plus faible<br />
détermine la performance, ou le coût de l’ensemble. La <strong>compression</strong> est une solution<br />
prometteuse pour rendre la chaîne viable. Mais quelle méthode faut-il choisir, et comment<br />
valider ce choix?<br />
Face à ces deux interrogations, nos trav<strong>aux</strong> ont porté en parallèle sur quelques aspects<br />
techniques de la <strong>compression</strong>, et sur l’évaluation de la qualité des images comprimées<br />
dans un contexte clinique.<br />
Synthèse de nos recherches<br />
Nos développements algorithmiques ont été validés dans le cadre d’une méthode à base<br />
de Full-Frame DCT. L’étude de l’adaptabilité de la quantification et de l’impact du<br />
renforcement de contour sur les images comprimées ont conduit à des résultats<br />
favorables par rapport au standard JPEG.<br />
Nos évaluations ont porté sur l’interprétation visuelle et sur les mesures quantitatives de<br />
sténoses avec les méthodes de <strong>compression</strong> standard JPEG et MPEG, et avec la<br />
méthode dédiée MLOT développée par Philips. Un t<strong>aux</strong> maximum de 12:1 a été utilisé<br />
dans nos campagnes d’évaluation. A partir de protocoles expériment<strong>aux</strong> basés sur les<br />
concordances inter-observateur, intra-observateur et inter-<strong>compression</strong>, nous avons pu<br />
observer que ni les interprétations visuelles, ni les mesures quantitatives ne présentent de<br />
différences significatives avec ou sans <strong>compression</strong> (dans les conditions de nos études).<br />
Ces résultats méritent d’être confirmés par d’autres trav<strong>aux</strong>, notamment à cause de la<br />
limite de signification d’un petit nombre d’analyses détaillées des données avec MPEG et<br />
JPEG.<br />
Globalement, les résultats de ces expériences sont très prometteurs, car ils attestent que<br />
la <strong>compression</strong> est acceptable pour le travail du clinicien.<br />
Nous souhaitions mettre au point une nouvelle méthodologie d’évaluation de la<br />
performance diagnostique applicable en angiographie cardiaque. Effectivement, il est<br />
possible d’estimer, dans des conditions proches de la pratique clinique courante, la<br />
reproductibilité des observateurs avec ou sans <strong>compression</strong>.<br />
Nous nous attendions à pouvoir démontrer qu’une méthode de <strong>compression</strong> dédiée<br />
surpasse les méthodes standard JPEG et MPEG. Effectivement, la supériorité d’une<br />
méthode telle que MLOT est incontestable en matière de rapport signal à bruit et de<br />
qualité visuelle. Avec un peu plus de développement et le test sur une plus grande base<br />
d’images, nous pensons qu’il serait possible de donner le même type de confirmation<br />
avec la méthode à base de Full-Frame DCT. Nous estimons qu’à des t<strong>aux</strong> supérieurs à<br />
ceux de nos évaluations diagnostiques et quantitatives, il est probable que MLOT<br />
surpasserait les standards d’un point de vue de la performance diagnostique, mais que<br />
jusqu’à un t<strong>aux</strong> de 12:1, les standards sont également acceptables.<br />
- 216 -
Bilan et perspectives<br />
Les résultats de nos trav<strong>aux</strong> contribuent donc à montrer que la <strong>compression</strong> est viable<br />
pour les <strong>angiographies</strong> <strong>cardiaques</strong>, et qu’un algorithme dédié tel que MLOT est le choix le<br />
plus approprié en terme de performance.<br />
Critères de choix pour une méthode de <strong>compression</strong>:<br />
scientifiques ou pragmatiques?<br />
Mais d’autres considérations doivent aussi être intégrées lors de la sélection d’une<br />
méthode de <strong>compression</strong>. Le meilleur algorithme, même validé cliniquement, n’est pas<br />
forcément celui qui va s’imposer dans la pratique. Voilà un enseignement important relatif<br />
au contexte général de ce travail, et qui dépasse le cadre purement scientifique.<br />
Avant de se déterminer pour l’une ou l’autre méthode, trois questions doivent être<br />
clarifiées:<br />
1. A quoi vont servir les images comprimées?<br />
Lors des essais techniques d’un algorithme, il faut intégrer dès le départ les propriétés<br />
intrinsèques des images, les conditions de visualisation (moniteurs, traitements d’image),<br />
les tâches <strong>aux</strong>quelles sont destinées les images comprimées. Nous avons travaillé sur<br />
quelques-unes des nombreuses possibilités d’adapter la <strong>compression</strong> à ces éléments.<br />
2. Sur quoi vont être utilisées les images comprimées?<br />
Cette question nous ramène <strong>aux</strong> maillons de la chaîne numérique d’imagerie. Au début de<br />
ce projet, le stockage des images en temps réel pendant l’acquisition et leur restitution<br />
dynamique constituaient le maillon faible. Les disques durs utilisés étaient extrêmement<br />
onéreux, de capacité limitée, et présentaient une courbe d’évolution prix/performance très<br />
modérément rapide. Compte tenu de l’environnement complexe et propriétaire à l’intérieur<br />
d’un système d’angiographie cardiaque, il était légitime d’envisager un hardware de<br />
<strong>compression</strong> avec perte basé sur une méthode dédiée et sans compromis de qualité,<br />
ayant attesté de ses performances cliniques. Mais en quelque temps, l’évolution des<br />
performances des disques durs est devenue exponentielle, avec des prix en chute libre.<br />
La <strong>compression</strong> pour le maillon acquisition n’était plus justifiée.<br />
Les autres parties de la chaîne commençaient alors à poser un problème. Le compact<br />
disc s’est imposé pour remplacer le film de radio-cinéma en tant que médium numérique<br />
remplissant le même rôle (stockage, visualisation dynamique, échange). Lors de<br />
l’introduction par l’ACC en 1995 du compact disc cardiologique, les lecteurs de CD ne<br />
permettaient pas une visualisation dynamique directement depuis le disque. Il fallait<br />
transférer pendant 15 à 20 mn l’examen sur un disque dur avant d’avoir accès <strong>aux</strong><br />
séquences dynamiquement. Le maillon faible devenait la visualisation depuis le médium.<br />
Conforté par les résultats préliminaires de nos campagnes d’évaluation sur le potentiel de<br />
la <strong>compression</strong> avec perte, Philips a ajouté un format comprimé avec JPEG sur son CD<br />
(en plus des images originales). Compte tenu de l’application de la <strong>compression</strong> sur des<br />
consoles de visualisation de prix modéré, un investissement dans un hardware dédié<br />
n’était pas envisageable et un hardware de dé<strong>compression</strong> JPEG a été utilisé. D’autant<br />
plus que le problème apparaissait déjà comme temporaire avec l’apparition de lecteurs de<br />
CD toujours plus rapides. A cette époque, l’ACC a entrepris une série d’études pour<br />
valider les limites d’application de JPEG. La motivation principale était l’utilisation des<br />
images JPEG sur CD.<br />
Aujourd’hui, ce maillon ne pose plus de problème, car les lecteurs sont devenus<br />
suffisamment rapides.<br />
Mais l’essor des autoroutes de l’information motive une autre approche pour échanger<br />
des images entre institutions: pourquoi ne pas utiliser un modem, ou Internet? La faible<br />
- 217 -
Bilan et perspectives<br />
bande passante des lignes de télécommunication est désormais le maillon faible. Compte<br />
tenu de la démocratisation des outils multimédia, un autre standard devient un sérieux<br />
candidat: MPEG.<br />
3. Comment évolue la technologie sur laquelle la <strong>compression</strong> est appliquée?<br />
L’historique abordé ci-dessus invite à considérer de près le maillon sur lequel est<br />
appliquée la <strong>compression</strong>. L’aspect temporaire ou non de sa faiblesse doit être anticipé.<br />
Pendant que le pôle d’intérêt pour la <strong>compression</strong> s’est déplacé de l’acquisition vers le<br />
médium, puis vers la ligne de communication, un besoin clair s’est révélé: celui<br />
d’employer des standards. Le coût de réalisation hardware d’un algorithme dédié est<br />
rédhibitoire pour un besoin qui s’avère temporaire, sur des consoles de travail de prix<br />
modéré, pour des petites séries.<br />
Quel avenir pour la <strong>compression</strong> en angiographie cardiaque?<br />
Le progrès des technologies pendant la durée de ce projet a été étonnant et a bouleversé<br />
les attentes par rapport à un système de <strong>compression</strong> en angiographie cardiaque.<br />
L’évolution des mentalités a aussi été remarquable. Au début de nos recherches, l’idée de<br />
la <strong>compression</strong> avec perte appliquée en routine était presque en avance sur son temps.<br />
Elle suscitait de la méfiance de la part du monde médical. L’accent était mis sur<br />
l’obtention de la meilleure qualité possible. Aujourd’hui, l’accent porte sur la fonctionnalité<br />
supplémentaire apportée par le numérique.<br />
Il nous semble que l’avenir de la <strong>compression</strong> en angiographie cardiaque est très<br />
prometteur. Il est vraisemblable qu’elle ne sera pas appliquée pour l’acquisition et<br />
l’archivage tant qu’une multitude d’études n’aura pas prouvé son innocuité et que la<br />
législation ne l’approuvera pas comme équivalente <strong>aux</strong> origin<strong>aux</strong>. Mais on voit fleurir les<br />
applications avec télécommunication, dossiers patients numériques et multimédia etc... La<br />
démocratisation de la <strong>compression</strong> avec perte en cardiologie sera facilitée par<br />
l’incorporation d’algorithmes standards dans le format DICOM, par des trav<strong>aux</strong><br />
d’évaluation complémentaires de ceux présentés dans ce mémoire, par l’amélioration des<br />
performances des standards eux-mêmes.<br />
- 218 -
REFERENCES BIBLIOGRAPHIQUES<br />
- 219 -
[AFNO-73] AFNOR : " Statistique et Qualité : Traitement statistique des Données -<br />
Détermination d'un<br />
Intervalle Statistique de Dispersion " , NF X 06-032, 1973.<br />
[AHME-74] AHMED N., NATARAJAN T., RAO K.R. : " Discrete Cosine Transform " ,<br />
IEEE Trans. on<br />
Computers, 1974,Vol C-23, p90-93.<br />
[AKAN-92] AKANSU A.N., HADDAD R.A. : " Multiresolution Signal Decomposition -<br />
Transforms, Subbands, Wavelets " , Morristown : Academic Press, 1992,<br />
376p.<br />
[AKRO-92] AKROUT N., DIAB C., PROST R., GOUTTE R., AMIEL M. : " Subband<br />
Directional Vector<br />
Quantization in Radiological Image Compression " , SPIE Medical Imaging,<br />
1992,Vol 1653,<br />
N° 6, p203-212.<br />
[AKRO-93] AKROUT N., PROST R., GOUTTE R. : " A Fast Algorithm for Vector<br />
Quantization in<br />
Radiological Image Compression " , SPIE Medical Imaging, 1993, Vol 1897,<br />
p259-265.<br />
[ALTM-83] ALTMAN D.G., BLAND J.M. : " The Analysis of Method Comparison Studies<br />
" , Statistician,<br />
1983,Vol 32, p307-317.<br />
[ARNE-79] ARNETT E.N., ISNER J.M., REDWOOD D.R., KENT K.M., BAKER W.P.,<br />
ACKERSTEIN H.,<br />
ROBERTS W.C. : " Coronary Artery Narrowing in Coronary Heart Disease :<br />
Comparison of<br />
Cineangiographic and Necropsy Findings " , Annals of Internal Medicine,<br />
1979,Vol 91, N° 3, p350-356.<br />
[BARL-94] BARLAUD M., SOLE P., GAIDON T., ANTONIONI M., MATHIEU P. : "<br />
Pyramidal Lattice<br />
Vector Quantization for Multiscale Image Coding " , IEEE Trans. on Image<br />
Processing, 1994,Vol 3, N° 4, p367-381.<br />
[BEAU-90] BEAUMAN G.J., VOGEL R.A. : " Accuracy of Individual and Panel Visual<br />
Interpretation of<br />
Coronary Arteriograms : Implications for Clinical Decisions " , J. Am. Col.<br />
Cardiol., 1990,Vol 16, N°1, p108-113.<br />
[BERE-94] BERETTA P.V., PROST R., AMIEL M. : " Optimal Bit Allocation for Full-<br />
Frame DCT Coding<br />
Schemes - Application to Cardiac Angiography " , SPIE Medical Imaging,<br />
- 220 -
1994,Vol 2164, p291-301.<br />
[BERE-95] BERETTA P.V., PROST R. : " Unsharp Masking and Its Inverse Processing<br />
Integrated in a<br />
Compression / De<strong>compression</strong> Scheme - Application to Cardiac Angiograms<br />
" , SPIE Medical Imaging, 1995,Vol 2431, p233-244.<br />
[BERT-93] BERTRAND M.E., LABLANCHE J.M., BAUTERS C., LEROY F., MAC<br />
FADDEN E. : "<br />
Discordant Results of Visual and Quantitative Estimates of Stenosis Severity<br />
Before and<br />
After Coronay Angioplasty " , Catheterization and Cardiovascular Diagnosis,<br />
1993,Vol 28, p1-6.<br />
[BLAN-86] BLAND J.M., ALTMAN D.G. : " Statistical Method for Assessing Agreement<br />
between two<br />
Methods of Clinical Measurement " , The Lancet, 1986,Vol 8, p307-310.<br />
[BREE-92] BREEUWER M., HEUSDENS R., ZWART P. : " Data Compression of X-Ray<br />
Angiographic<br />
Image Sequences " , Eindhoven : Philips research, 1992, 27p,Technical note<br />
297/92.<br />
[BREE-94] BREEUWVER M., HEUSDENS R., ZWART P. : " Overlapped Transform<br />
Coding of Medical<br />
X-ray Images " , SPIE Medical Imaging, Newport Beach (CA), 1994, Vol<br />
2164, p264-275.<br />
[BREE-95] BREEUWER M., HEUSDENS R., GUNNEWIEK R.K., ZWART P., HAAS<br />
H.P.A. : " Data<br />
Compression of X-ray Cardio-angiographic Image Series " , International<br />
Journal of Cardiac Imaging, 1995,Vol 11, N° 3, p179-186.<br />
[BROW-77] BROWN B.G., BOLSON E.L., FRIMER M., DODGE H.T. : " Quantitative<br />
Coronary Arteriography : Estimation of Dimension, Hemodynamic Resistance,<br />
and Atheroma Mass of Coronary Artery Lesions<br />
Using the Arteriogram and<br />
Digital Computation " , Circulation, 1977,Vol 55, p329-337.<br />
[BROW-82] BROWN B.G., BOLSON E.L., DODGE H.T. : " Arteriographic Assessments<br />
of Coronary<br />
Arteriosclerosis : Review of Current Methods, theirs Limitations and Clinical<br />
Applications " , Arteriosclerosis, 1982,Vol 2, p1-15.<br />
[BROW-86] BROWN B.G., BOLSTON E.L., DODGE H.T. : " Quantitative Computer<br />
Techniques for<br />
Analysing Coronary Arteriograms " , Prog. Cardiovasc. Dis., 1986,Vol 18,<br />
p403-418.<br />
[CASS-89] CASSEREAU P.M., STAELIN D.H., DE JAGER G. : " Encoding of Images<br />
Based on a Lapped Orthogonal Transform " , IEEE Trans. Com., 1989,Vol 37, N° 2,<br />
- 221 -
p189-193.<br />
[CHAK-90] CHAKRABORTY D.P., WINTER L.H.L. : " Free Response Methodology :<br />
Alternate Analysis<br />
and a New Observer-Performance Experimental " , Radiology, 1990,Vol<br />
174, N° 3, p873- 881.<br />
[CHAN-89a] CHAN K.K., LOU S-L., HUANG H.K. : " Full-Frame Transform Coding of<br />
Cross-Sectional<br />
Images " , SPIE Medical Imaging, 1989,Vol 1091, p77-82.<br />
[CHAN-89b] CHAN K.K., LOU S-L., HUANG H.K. : " Radiological Image Compression<br />
Using Full-Frame<br />
Cosine Transform with Adaptive Bit-Allocation " , Computerized Medical<br />
Imaging & Graphics, 1989, Vol 13, N° 2, p153-159.<br />
[CHEN-76] CHEN W-H., FRALICK S.C. : " Image Enhancement Using Cosine<br />
Transform Filtering " ,<br />
Proc. of the symp.on current math. pbs in im. scie, Palo Alto (CA), 1976,<br />
p186-192.<br />
[CHIT-90] CHITPRASERT B., RAO K.R. : " Discrete Cosine Transform Filtering " ,<br />
Signal Processing,<br />
1990,Vol 19, p233-245.<br />
[CLAR-85]<br />
1985, 432p.<br />
CLARKE R.J. : " Transform Coding of Images " , London, Academic Press,<br />
[COHE-60] COHEN J. : " A Coefficient of Agreement for Nominal Scales " , Educ.<br />
Psychol. Meas., 1960,Vol 20, p37-46.<br />
[COSM-93a] COSMAN P.C., OEHLER K.L., RISKIN E.A., GRAY R.M. : " Using Vector<br />
Quantization for<br />
Image Processing " , Proceedings of the IEEE, 1993,Vol 81, N° 9, p1326-<br />
1341.<br />
[COSM-93b] COSMAN P.C. : " Perceptual Aspects of Vectors Quatization " , Thèse :<br />
Stanford University, USA, 1993, 116p.<br />
[COSM-94] COSMAN P.C., DAVIDSON H.C., BERGIN C.J., TSENG C-W, MOSES L.E.,<br />
RISKIN E.A.,<br />
OLSHEN R.A., GRAY R.M. : " Thoracic CT Images : Effect of Lossy Image<br />
Compression on<br />
Diagnotic Accuracy " , Radiology, 1994,Vol 190, N° 2, p517-524.<br />
[CUTL-52] CUTLER C.C. : " Differential Quantization of Communication Signals " , US<br />
Patent, 1952, N° 2605361.<br />
[DERO-77] DEROUEN T.A., MURRAY J.A., OWEN W. : " Variability in the Analysis of<br />
Coronary Arteriograms " , Circulation, 1977,Vol 55, N° 2, p324-328.<br />
- 222 -
[DETR-75] DETRE K.M., WRIGHT E., MURPHY M.L., TAKARO T. : " Observer<br />
Agreement in the Evaluating Coronary Angiograms " , Circulation,<br />
1975,Vol 52, p979-986.<br />
[DING-95]<br />
Compresion<br />
DING Y., BAUDIN O., BERETTA P., PROST R. : " Medically Adapted JPEG<br />
Scheme " , SPIE Medical Imaging, 1995,Vol 2431, p516-525.<br />
[ECKS-95] ECKSTEIN M.P., MORIOKA C.A., WHITING J.S., EIGLER N. : "<br />
Psychophysical Evaluation of the Effect of JPEG, Full-Frame DCT, Wavelet Image<br />
Compression on Signal Detection in Medical Image Noise " , Proc. SPIE, 1995, Vol<br />
2436, , p79-89.<br />
[EEUW-90] EEUWICK VAN H. : " The Influence of Edge Enhancement on Analytical<br />
Programs " , Best : Philips Medical Systems, 1990, 35p, Internal Report, Vol XDB-<br />
048-816.<br />
[ESKI-95] ESKICIOGLU A.M., FISHER P.S. : " Image Quality Measures and Their<br />
Performance " ,<br />
IEEE Trans. Com., 1995,Vol 43, N° 12, p2959-65.<br />
[FLEI-81] FLEISS J.L. : " Statistical Methods for Rates and Proportions", 2 nd edition,<br />
New York : John Wiley, 1981, "The Measurement of Interrater Agreement",p214-224.<br />
[FLEM-91] FLEMING R.M., KIRKEEIDE R.L., SMALLING R.W., GOULD K.L. : "<br />
Patterns in Visual Interpretation of Coronary Arteriograms as Detected<br />
by Quantitative Coronary<br />
Arteriography", J. AM. COL. CARDIOL.,<br />
1991, Vol 18, N° 4, p945-951.<br />
[GALB-78] GALBRAITH J.E., MURPHY M.L., SOYZA N. DE : " Coronary Angiogram<br />
Interpretation / Interobserver Variability " , J. Am. Med. Assoc., 1978,Vol 240,<br />
N° 19, p2053-2056.<br />
[GENS-71] GENSINI G.G., KELLY A.E., DACOSTA B.C.B., HUNTINGTON P.P. : "<br />
Quantitative Angiography : The Measurement of Coronary Vasomobility in the<br />
Intact Animal and Man " , Chest, 1971,Vol 60, p522-530.<br />
[GERS-82]<br />
Theory,<br />
GERSHO A. : " On the Structure of Vector Quantizers " , IEEE Trans. Inform.<br />
1982,Vol 28, N° 2, p157-166.<br />
[GRAY-84] GRAY R.M. : " Vectors Quantization " , IEEE ASSP Mag, 1984,Vol 1, N° 2,<br />
p4-29.<br />
[GRIM-96] GRIMAUD J., LAI M., THORPE J., ADELEINE P., WANG L., BAKKER G.J.,<br />
PLUMMER D.L.,<br />
TOFTS P.S., MCDONALD W.I., MILLER D.M. : " Quantification of MRI<br />
Lesion Load in Multiple Sclerosis : a Comparison of Three Computer-Assisted<br />
Techniques " , Magnetic Resonance Imaging, 1996,Vol 14, N° 5, p495-505.<br />
[HANL-82] HANLEY J.A., MC NEIL B.J. : " The Meaning and Use of the Area under a<br />
ROC Curve " ,<br />
Radiology, 1982,Vol 143, p29-36.<br />
- 223 -
[HERM-92] HERMILLER J.B., CUSMA J.T., SPERO L.A., FORTIN D.F., HARDING<br />
M.B., BASHORE T.M. : " Quantitative and Qualitative Coronary Angiographic<br />
Analysis : Review of Methods, Utility, and Limitations " , Catheterization and<br />
Cardiovascular Diagnosis, 1992,Vol 25, p110- 131.<br />
[HIND-94] HINDEL R. : " Implementation of the DICOM 3.0 Standard - A Pragmatic<br />
Handbook " , Oak Book (IL) : Robert Hindel, Radiological Society of North<br />
America, 1994, 118p.<br />
[HO -91] HO B.K.T., CHAO J., WU C.S., HUANG H.K. : " Full-Frame Cosine<br />
Transform Image Compression for Medical and Industrial Applications " ,<br />
Machine Vision and Applications,<br />
1991, Vol3, p89-96.<br />
[HO B-93] HO B.K.T., TSENG V., MA M., CHEN D. : " A Mathematical Model to<br />
Quantify JPEG Block<br />
Artifacts ", SPIE Medical Imaging, Newport Beach (CA),<br />
PACS : Design and Evaluation ,<br />
1993, p22-27.<br />
[HUFF-52] HUFFMAN D.A. : " A method for the Construction of Minimum Redundancy<br />
Codes " , Proc. Institute of Radio Engineers, 1952,Vol 40, N° 9, p1089-1101.<br />
[ISHI-90] ISHIGAKI T., SAKUMA S., IKEDA D., ITOH Y., SUZUKI K.A., IWAI S. : "<br />
Clinical Evaluation of Irreversible Image Compression : Analysis of Chest Imaging with<br />
Computed Radiology " , Radiology, 1990,Vol 175, N° 3, p739-743.<br />
[JACQ-93] JACQUIN A.E. : " Fractal Image Coding : a Review " , Proceedings of the<br />
IEEE, 1993,Vol 81, N° 10, p1451-1465.<br />
[JAIN-89] JAIN A.K. : " Fundamentals of Digital Image Processing " , Englewood Cliffs :<br />
Prentice Hall, 1989, 569p.<br />
[KALB-90] KALBFLEISCH S.J., MCGILLEM M.J., PINTO I.M.F., KAVANAUGH K.M.,<br />
DEBOE S.F.,<br />
MANCINI G.B.J. : " Comparison of Automated Quantitative<br />
Coronary Angiography with Caliper Measurements of Percent<br />
Diameter Stenosis " , American Journal of Cardiology, 1990,Vol 65,<br />
p1181-1184.<br />
[KAST-91] KASTAGGELOS A.K., BIEMOND J., SCHAFER R.W., MERSEREAU R.M. :<br />
" A Regularized<br />
Iterative Image Restoration Algorithm " , IEEE Trans. Sig. Proc., 1991,Vol<br />
39, N° 4, p914- 928.<br />
[KATR-88] KATRITSIS D., LYTHALL D.A., COOPER I.C., CROWTHER A., WEBB-<br />
PEPLOE M.M. : "<br />
Assessment of Coronary Angioplasty : Comparison of Visual Assessment,<br />
Hand-Held Caliper Measurement and Automated Digital Quantification " , Catheterization<br />
and Cardiovascular Diagnosis, 1988,Vol 15, p237-242.<br />
[KERN-91] KERN M.J. : " The Cardiac Catheterization HandBook " , Saint Louis : Mosby<br />
Year Book, 1991, 512p.<br />
- 224 -
[KONI-94] KONING G., MEURS VAN B.A., HAAS H.P.A., REIBER J.H.C. : " Effect of<br />
Data Compression on Quantitative Coronary Measurements " ,<br />
Catheterization and Cardiovascular<br />
Diagnosis, 1994,Vol 33, p1-11.<br />
[KONI-97] KONING G., BERETTA P.V., ZWART P., HEKKING E., REIBER J.H.C. : "<br />
Effect of Lossy Data Compression on Quantitative Coronary Measurements " ,<br />
International Journal of<br />
Cardiac Imaging, 1997, Vol 13, p261-270.<br />
[KUSS-92] KUSSMAUL W.G., POPP R.L., NORCINI J. : " Accuracy and Reproducibility<br />
of Visual Coronary Stenosis Estimates Using Information from Multiple Observers " ,<br />
Clin. Cardiol., 1992,Vol 15, p154-162.<br />
[LEGA-91] LEGALL D.J. : " MPEG : A video Compression Standard for Multimedia<br />
Applications " ,<br />
Communications of the ACM, 1991,Vol 34, N° 4, p46-58.<br />
[LIEN-95] LIENARD J. : " Compression Réversible d'Images Angiographiques<br />
Numérisées " , Thèse : Université Paris XI, 1995, 93p.<br />
[LIN -89] LIN L.I. : " A Concordance Correlation Coefficient to Evaluate Reproducibility<br />
" , Biometrics,<br />
1989,Vol 45, p255-268.<br />
[LO -85] LO S-C.B., HUANG H.K. : " Radiologic Image Compression : Full-Frame<br />
Bit-Allocation<br />
Technique " , Radiology, 1985,Vol 155, p811-817.<br />
[LO -91] LO S-C.B., KRASNER B., MUN S.K., HORII S.C. : " Full-Frame Entropy<br />
Coding for Radiological Image Compression " , SPIE Medical Imaging, 1991,Vol<br />
1444, p265-271.<br />
[LUST-76] LUSTED L.B. : " Clinical Decision Making" in "Decision Making and Medical<br />
Care " , Dombal & Gremy (eds.), Amsterdam : North Holland Publishing, 1976, p77-97.<br />
[MADI-78] MADIHALLY, NARASIMHA J., PETERSON A.M. : " On the Computation of<br />
Discrete Cosine<br />
Transform " , IEEE Trans. Com., 1978,Vol 26, N° 6, p934-936.<br />
[MALL-89] MALLAT S.G. : " A Theory for Multiresolution Signal Decomposition : The<br />
Wavelet<br />
Representation " , IEEE Trans. Pattern Analysis & Machine<br />
Intelligenc, 1989,Vol 11, N° 7, p674-693.<br />
[MALV-89] MALVAR H.S., STAELIN D.H. : " The LOT : Transform Coding Without<br />
Blocking Effects " ,<br />
IEEE Trans. Acoust. Speech Signal Processing, 1989,Vol 37, N° 4, p553-<br />
559.<br />
[MALV-90] MALVAR H.S. : " Lapped Transforms for Efficient Transform/Subband<br />
Coding " , IEEE<br />
Trans. Acoust. Speech Signal Processing, 1990,Vol 38, N° 6, p969-978.<br />
- 225 -
[MAND-92] MANDUCA M. : " A Wavelet Based Tool for Medical Image Compression " ,<br />
Proc. SPIE,<br />
1992,Vol 1653, p495-503.<br />
[MAND-93] MANDUCA M. : " Interactive Wavelet-Based 2D & 3D Image Compression " ,<br />
Proc. SPIE,<br />
1993,Vol 1987, p307-318.<br />
[MART-93] MARTUCCI S.A., MERSEREAU R.M. : " New Approaches to Block Filtering<br />
of Images Using<br />
Symmetric ConVol ution and the DST or DCT " , IEEE Trans. Signal Proc.,<br />
1993,Vol , p259- 262.<br />
[MAUE-79]<br />
Mismatched<br />
MAUERSBERGER W. : " Experimental Results on the Performance of<br />
Quantizers " , IEEE Trans. Inform. Theory, 1979, Vol IT-25, N°4, p381-386.<br />
[MCMA-79] MCMAHON M.M., BROWN B.G., CUKINGNAN R. : " Quantitative Coronary<br />
Angiography of<br />
the Critical Stenosis in Patients with Unstable Angina and Single Vessel<br />
Disease with Collaterals " , Circulation, 1979,Vol 60, p106-113.<br />
[MCMA-91] MCMAHON H., DOI K., SANADA S., MONTNER S.M., GIGER M.L., METZ<br />
C.E., NAKAMORI N., YIN F-F, XU X-W, et al. : " Data Compression :<br />
Effects on Diagnostic Accuracy in Digital Chest Radiography " , Radiology, 1991,Vol<br />
178, N° 1, p175-179.<br />
[METZ-86] METZ C.E. : " ROC Methodology in Radiologic Imaging " , Investigative<br />
Radiology, 1986,Vol<br />
21, N° 9, p720-733.<br />
[METZ-89]<br />
Analysis in<br />
245.<br />
METZ C.E. : " Some Practical Issues of Experimental Design and Data<br />
Radiological ROC Studies " , Investigative Radiology, 1989,Vol 24, p234-<br />
[MILL-70] MILLER K. : " Least Square Methods for III-posed Problems with a<br />
Prescribed Bound " ,<br />
SIAM J. Math. Anal., 1970,Vol 1, N° 2, p52-74.<br />
[MOLL-92] MOLL T., GENIN G., DIAB C., AKROUT N., PROST R., BREMON A.,<br />
JACQUEMET P. : "<br />
Compressed Mammograms by Block Subband Coding. Medical Assessment<br />
in the Detection of Microcalcifications " , Proceedings of the IEEE, 1992, Vol 3, p1221-<br />
1223.<br />
[MOON-93]<br />
to Statistical<br />
[NEMA-96]<br />
MOONEY C.Z., DUVAL R.D. : " Bootstrapping - A Nonparametric Approach<br />
Inference " , Newbury Park (CA) : Sage Publications, 1993, 73p.<br />
NEMA : " NEMA Standards : Digital Imaging & Communications in Medicine<br />
- 226 -
" , Rosslyn (Virginia) : National Electrical Manufacturers Association, NEMA<br />
Standards Publication, N° PS 3.5-1996, 1996, 77p.<br />
[NETR-77] NETRAVALI A.N. : " On quantizers for DPCM Coding of Picture Signals " ,<br />
IEEE Trans.<br />
Inform. Theory, 1977,Vol 23, p360-370.<br />
[NEWE-90] NEWELL J.D., KELSEY C.A. : " Digital Imaging in Diagnostic Radiology " ,<br />
New York :<br />
Churchill Livingstone, 1990, 352p.<br />
[NISS-94] NISSEN S.E., Etall : " Cardiac Angiography Without Cine Film : Erecting a<br />
'Tower of Babel'<br />
in the Cardiac Catheterization Laboratory " , J. AM. COL. CARDIOL.,<br />
1994,Vol 24, N° 3, p834-837.<br />
[NZOM-95] NZOMIGNI V. : " Compression sans Perte de Séquences d'Images<br />
Biomédicales " , Thèse :<br />
Université de Rennes I, 1995, 224p.<br />
[O'NE-66] O'NEAL J.B. : " Predictive Quantizing Systems (DPCM) for the Transmission<br />
of Television<br />
Signals " , Bell System Tech. J., may-june 1966, p689-719.<br />
[PENN-93] PENNEBAKER W.B., MITCHEL J.L. : " JPEG Still Image Data Compression<br />
Standard " , New York : van Nostrand Reinhold, 1993, 638p.<br />
[PROS-94] PROST R., BURDEAU J-L., GUILLOTEAU S., GOUTTE R. : " Regularized<br />
Myopic Image<br />
DeconVol ution. Application to Aperture Synthesis in Radio Astronomy " ,<br />
EURIPCO-94, Edinburgh Scotland UK, Proc. Vol 1 Theories & Applications, 1994,<br />
p307-310.<br />
[PROS-97] PROST R., DING Y., BASKURT A.. : " JPEG Dequantization Array for<br />
Regularized De<strong>compression</strong> " , IEEE Trans. Image Proc., 1997, Vol 6, N° 6, p883-888.<br />
[RABB-91a] RABBANI M., JONES P.W. : " Digital Image Compression Techniques " ,<br />
Bellingham (WA) : SPIE Optical Engineering Press, 1991, 221p.<br />
[RABB-91b] RABBANI M., JONES P.W. : " Image Compression Techniques for Medical<br />
Diagnostic<br />
Imaging Systems " , Journal of Digital Imaging, 1991,Vol 4, N° 2, p65-78.<br />
[RAO -90] RAO K.R., YIP P. : " Discrete Cosine Transform - Algorithms, Advantages,<br />
Applications " , New York : Academic Press, 1990, 490p.<br />
[REIB-84] REIBER J.H.C., KOOIJMAN C.J., SLAGER C.J., et al. : " Coronary Artery<br />
Dimension from<br />
Cineangiograms : Methodology and Validation of a Computer Assisted<br />
Analysis Procedure" , IEEE Trans. Medical Imaginig, 1984,Vol MI-3, p131-144.<br />
- 227 -
[REIB-89] REIBER J.H.C., ZWET VAN DER P.M.J., LAND VON C.D., et al. : " On-Line<br />
Quantification of<br />
Coronary Arteriograms with the DCI System " , Medicamundi, 1989,Vol 34,<br />
N° 3, p89-98.<br />
[REIB-94] REIBER J.H.C., KONING G., LAND VON C.D., ZWET VAN DER P.M.J. : "<br />
Why and How<br />
should QCA Systems be Validated ?" in "Progress in Quantitative Coronary<br />
Arteriography " , Dordrecht NL : Kluwer Academic Publishers, 1994, p33-48.<br />
[RIGO-96] RIGOLIN V.H., ROBIOLO P.A., SPERO L.A., HARRAWOOD B.P., MORRIS<br />
K.G., FORTIN<br />
D.F., BAKER W.A., BASHORE T.M., CUSMA J.T. : " Compression of Digital<br />
Coronary<br />
Angiograms does not Affect Visual or Quantitative Assessment of Coronary<br />
Artery<br />
Stenosis Severity " , Am. J. of Cardiol., 1996, Vol 78, p131-135.<br />
[RISK-89] RISKIN E.A., LOOKABAUGH T.D., CHOU P.A., GRAY R.M. : " Variable<br />
Rate Vector<br />
Quantization for Medical Image Compression With Application to<br />
Progressive Transmission" ,<br />
Proc. SPIE, 1989, Vol 1091, p110-120.<br />
[RISK-90] RISKIN E.A., LOOKABAUGH T.D., CHOU P.A., GRAY R.M. : " Variable<br />
Rate Vector<br />
Quantization for Medical Image Compression " , IEEE Trans. Medical<br />
Imaginig, 1990,Vol 9,<br />
p290-298.<br />
[RISS-76] RISSANEN J.J. : " Generalized Kraft Inequality and Arithmetic Coding " , IBM<br />
J. Res. Dev.,<br />
1976,Vol 20, p198-203.<br />
[ROMP-91]<br />
Subband<br />
ROMPELMAN O. : " Medical Image Compression : Possible Applications of<br />
Coding" , Boston : Kluwer, 1991, p319-352.<br />
[ROOS-88] ROOS P., et al. : " Reversible Intraframe Compression of Medical Images " ,<br />
IEEE Trans. on<br />
Medical Imaging, 1988,Vol 7, N° 4, p328-336.<br />
[ROOS-91] ROOS P., VIEGEVER M.A. : " Reversible Image Data Compression Based<br />
on HINT<br />
Decorrelation and Arithmetic Coding " , SPIE Medical Imaging, 1991,Vol<br />
1444, p283-290.<br />
[SAKR-77]<br />
Image<br />
SAKRISON D.J. : " On the Role of the Observer and a Distortion Measure in<br />
Transmission " , IEEE Trans. Com., 1977,Vol COM-25, N° 11, p1251-1267.<br />
- 228 -
[SANM-78] SANMARCO M.E., BROOKS S.H., BLANKENHORN D.H. : " Reproductibility<br />
of a Consensus<br />
Panel in the Interpretation of Coronary Angiograms " , Am. Heart J., 1978,Vol<br />
96, N° 4, p430-437.<br />
[SAYR-92] SAYRE J.W., ABERLE D.R., BOECHAT M.I., HALL T.R., HUANG H.K., HO<br />
B.K. : " Effect of<br />
Data Compression on Diagnostic Accuracy in Digital Hand and Chest<br />
Radiography " , SPIE<br />
Medical Imaging, 1992,Vol 1653, p232-240.<br />
[SCHI-70] SCHINDLER H.R. : " Delta Modulation " , IEEE Spectrum, 1970,Vol 7, p69-<br />
78.<br />
[SCOB-84] SCOBLIONKO D.P., BROWN B.G., MITTEN S., CALDWELL J.H.,<br />
KENNEDY J.W.,<br />
BOLSON E.L., DODGE H.T. : " A New Digital Electronic<br />
Caliper for Measurement of Coronary Arterial Stenosis : Comparison with Visual<br />
Estimates and Computer-Assisted Measurements " , American Journal of<br />
Cardiology, 1984,Vol 53, p689-693.<br />
[SEGA-76] SEGALL A. : " Bit Allocation and Encoding for Vector Sources " , IEEE<br />
Trans. Inform.<br />
Theory, 1976,Vol IT-22, N° 2, p162-169.<br />
[SENA-95] SENANE H., SAADANE A., BARBA D. : " Image Coding in the Context of a<br />
Psychovisual<br />
Image Representation with Vector Quantization " , Proc. IEEE International<br />
Conference on Image Processing ICIP-95, Washington, October 23-26 1995, Vol 1,<br />
p97-100.<br />
[SHAN-48] SHANNON C.E. : " A Mathematical Theory of Communication " , Bell System<br />
Technical Journal, 1948, Vol 27, N° 3, p379-423.<br />
[STEE-75] STEELE R. : " Delta Modulation Systems " , New York : John Wiley, 1975,<br />
320p.<br />
[SWET-79] SWETS J.A. : " ROC Analysis Applied to the Evaluation of Medical Imaging<br />
Techniques " ,<br />
Investigative Radiology, 1979,Vol 14, N° 2, p109-121.<br />
[SWET-80] SWETS J.A. : " The Relative Operating Characteristic in Psychology " ,<br />
Science, 1980,Vol<br />
182, p990-1000.<br />
[TRAS-84] TRASK N., CALIFF R.M., CONLEY M.J., KONG Y., PETER R., LEE K.L.,<br />
HACKEL D.B.,<br />
WAGNER G.S. : " Accuracy and Interobserver Variability of Coronary<br />
Cineangiography :<br />
A Comparison With Postmortem Evaluation " , J. AM. COL. CARDIOL.,<br />
1984,Vol 3, N° 5, p1145-1154.<br />
- 229 -
[VAS -85] VAS R., EIGLER N., MIYAZONO C., PFAFF J.M., RESSER K.J., WEISS M.,<br />
NIVATPUMIN T., WHITING J., FORRESTER J. : " Digital Quantification Eliminates<br />
Intraobserver and<br />
Interobserver Variability in the Evaluation of Coronary Artery Stenosis " ,<br />
American<br />
Journal of Cardiology, 1985,Vol 56, p718-723.<br />
[VOGE-88] VOGEL R.A., LEFREE M.T., MANCINI G.B.J. : " Comparison of 35 mm Cine<br />
Film and Digital<br />
Radiographic Imaging for Quantitative Coronary Arteriography " , Progress in<br />
Digital<br />
Angiocardiography, 1988, p159-171.<br />
[WITT-87] WITTEN I.H., NEAL R.M., CLEARY J.G. : " Arithmetic Coding for Data<br />
Compression " ,<br />
Communications of the ACM, 1987,Vol 30, N° 6, p520-540.<br />
[WONG-95] WONG S., ZAREMBA L., GOODEN D., HUANG H.K. : " Radiological Image<br />
Compression -<br />
A Review " , Proceedings of the IEEE, 1995,Vol 83, N° 2, p194-219.<br />
[WOOD-86] WOODS J.W., O'NEIL S.D. : " Sub-band Coding of Images " , IEEE Trans.<br />
Acoust. Speech<br />
Signal Processing, 1986,Vol 34, N° 5, p1278-1288.<br />
[YOUN-92] YOUNG R.W., KINGSBURY N.G. : " Video Compresion Using Lapped<br />
Transform for Motion<br />
Estimation/Compensation and Coding " , SPIE Visual Com. & Im. Proc.,<br />
1992, p276-288.<br />
[ZIV -77] ZIV J., LEMPEL A. : " A Universal Algorithm for Sequential Data<br />
Compression " , IEEE<br />
Trans. Inform. Theory, 1977, Vol 23, N° 3, p337-343.<br />
[ZIV -78] ZIV J., LEMPEL A. : " Compression of Individual Sequences via Variable-<br />
Rate Coding " ,<br />
IEEE Trans. Inform. Theory, 1978, Vol 24, N° 5, p530-536.<br />
Références soumises ou à paraître :<br />
[BERE-97] BERETTA P.V., PROST R. : “Robustness of Uniform Quantizers to a<br />
Mismatched Statistical Model “, Va être soumis à Signal Processing.<br />
[DING-96] DING Y., PROST R., BASKURT A., BERETTA P.V. : " JPEG Scheme<br />
Improvement : Blocking Artefacts Reduction and Robustness to Post-Processing " ,<br />
Soumis à Sig. Proc. : Im. Com.,1996.<br />
[KIRK-97]<br />
KIRKEEIDE R.L., BERETTA P.V., ANDERSON H.V., SMALLING R.W.,<br />
- 230 -
SCHROTH G.,<br />
GOULD K.L., HAAS H.P.A., ZWART P. : " Lossy Data<br />
Compression does not Alter Visual Interpretation of Digital Coronary Arteriograms " ,<br />
Va être soumis à Circulation.<br />
- 231 -
ANNEXES<br />
Questionnaires diagnostics des évaluations<br />
- 229 -
Viewing Session<br />
Session / Case _/_ Date<br />
MD<br />
start<br />
Tech<br />
End<br />
Ventriculogram<br />
The Vcntriculogram is:<br />
LV Hypcrtrophy:<br />
Vcntriculogram Image Quality:<br />
Regional Abnormalities:<br />
Normal Abnormal Abscnt<br />
No<br />
YCS<br />
Good Fair Poor<br />
Anterior<br />
Apical<br />
In fer ior<br />
Later al<br />
Scptal<br />
Abs<br />
Nor Akin Hypo Dysk Aneur<br />
Lvgram Comments<br />
Arteriogram<br />
The coronary artcriogram is:<br />
Coronary Dominance:<br />
Artcriogram Image Quality:<br />
Normal<br />
Right<br />
Good<br />
Left<br />
Fair<br />
Abnormal<br />
Absent<br />
Balanced<br />
Poor<br />
Cgram Comments<br />
Form 2: Philips/UT Image Compression Study: MD reviews 1
Coronary Segments<br />
RCode CAD Collat Calc Spasm Comment<br />
RCA pro<br />
RCA mid<br />
RCA dis<br />
Codes<br />
Review Codes CAD TIMI Flows Collateral Perfusion<br />
OK -Done<br />
Abs - Absent (anat)<br />
NA - Not Able<br />
(Visualization)<br />
Nor -Normal 0 - No Flow 0 - None<br />
Irr. - Irregular. mild 1 - Low Flow l-Poor<br />
Mild - Mild Sten (
FOLIO ADMINISTRATIF<br />
THESE SOUTENUE DEVANT L'INSTITUT NATIONAL DES SCIENCES APPLIQUEES DE LYON<br />
NOM : BEAUREPAIRE épouse BERETTA DATE de soutenance :<br />
Prénoms : Patricia Véronique le 21 novembre 1997<br />
TITRE : Compression d’image appliquée <strong>aux</strong> <strong>angiographies</strong> <strong>cardiaques</strong> :<br />
aspects algorithmiques, évaluation de la qualité diagnostique<br />
NATURE : Doctorat N° d'ordre : 97 ISAL 0107<br />
Formation doctorale : Génie Biologique et Médical<br />
Code B.I.U. Lyon : T 50/210/19 / et bis CLASSE :<br />
RESUME :<br />
La <strong>compression</strong> <strong>d'images</strong> avec perte présente aujourd'hui un intérêt majeur pour l'archivage et la communication des<br />
<strong>angiographies</strong> <strong>cardiaques</strong>.<br />
Notre travail porte sur les aspects algorithmiques d'une technique de <strong>compression</strong> adaptée à cette modalité d'imagerie<br />
médicale, et sur la validation de la qualité diagnostique <strong>d'images</strong> comprimées.<br />
Dans un schéma de <strong>compression</strong> à base de la transformation cosinus discrète de l’image (Full-Frame DCT) nous avons<br />
principalement étudié deux aspects : l'adaptivité et la robustesse de la quantification scalaire des coefficients du plan de la<br />
DCT d'une part, et la prise en compte de post traitements d'autre part :<br />
• Une étude théorique sur l'erreur de quantification nous a permis de déduire des règles pratiques pour définir des<br />
quantifieurs uniformes robustes <strong>aux</strong> variations des propriétés statistiques des images.<br />
• L'incorporation dans le domaine DCT d'un filtre de renforcement de contour nous a permis de développer un schéma<br />
de <strong>compression</strong> évitant le rehaussement d'artefacts générés par la combinaison de la <strong>compression</strong> et du post<br />
traitement.<br />
Ces deux aspects algorithmiques ont une portée générale, ils sont applicables à d'autres méthodes de <strong>compression</strong>.<br />
La validation de la qualité diagnostique <strong>d'images</strong> médicales comprimées ne peut pas être, actuellement, basée sur des<br />
paramètres mathématiques, mais uniquement sur une évaluation par des experts médic<strong>aux</strong>.<br />
Nous avons conduit des campagnes d'évaluation de la qualité diagnostique avec trois méthodes de <strong>compression</strong> à un<br />
t<strong>aux</strong> maximum de 12:1 : le standard JPEG, le standard MPEG, et MLOT, une méthode dédiée développée par les<br />
laboratoires Philips.<br />
• Les deux premières campagnes d'évaluations ont porté sur l'interprétation visuelle diagnostique d’examens<br />
angiographiques complets, avec et sans <strong>compression</strong>.<br />
• La troisième a porté sur les résultats de mesures quantitatives automatisées de sténoses coronaires.<br />
Nous avons pu observer que, dans les conditions définies ci-dessus, la <strong>compression</strong> n’augmente pas significativement la<br />
variabilité des interprétations et des mesures, et préserve globalement la qualité diagnostique de l’image. .<br />
Les résultats de ces expériences sont très prometteurs car ils attestent que la <strong>compression</strong> est acceptable pour le travail<br />
du clinicien. Il existe un vaste champ d'application de la <strong>compression</strong> pour les <strong>angiographies</strong> <strong>cardiaques</strong> en développant<br />
des algorithmes dédiés ou en se basant sur des standards, en identifiant à l’aide d’évaluations cliniques leurs limites<br />
respectives d’application.<br />
MOTS-CLES :<br />
Laboratoire de recherche :<br />
Directeur de thèse :<br />
Président du jury :<br />
Composition du jury :<br />
<strong>compression</strong>, évaluation, angiographie cardiaque<br />
CREATIS<br />
Rémy PROST<br />
Pr M. AMIEL<br />
Pr M. AMIEL, Pr D. BARBA, Pr M. BERTRAND<br />
Pr R. GOUTTE, Dr H. HAAS, Pr. M. LAMURE, Pr. R. PROST