14.09.2014 Views

Fusion entre les données ultrasonores et les images de radioscopie ...

Fusion entre les données ultrasonores et les images de radioscopie ...

Fusion entre les données ultrasonores et les images de radioscopie ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

&KDSLWUH , *pQpUDOLWpV VXU OD IXVLRQ GH GRQQpHV<br />

__________________________________________________________________________________________<br />

Tableau V.19. : résumé <strong>de</strong>s différentes distributions à estimer lors <strong>de</strong> la modélisation<br />

Théorie : Distributions à estimer Métho<strong>de</strong> d’estimation<br />

Probabilités<br />

• Probabilité conditionnelle P(<br />

f ( x ) / x ∈C<br />

)<br />

• Probabilité a priori P(<br />

x ∈C<br />

)<br />

i<br />

j<br />

k<br />

Métho<strong>de</strong> d'apprentissage<br />

statistique <strong>et</strong> lois<br />

physiques<br />

Possibilités<br />

• Distribution <strong>de</strong> possibilité π(x ∈Ci<br />

)<br />

⇔ Fonction d'appartenance µ Ci<br />

(x )<br />

FCM…<br />

Croyances • Fonction <strong>de</strong> masse (bpa) m(x ∈C<br />

)<br />

i<br />

Techniques particulières<br />

utilisant <strong>les</strong> distributions<br />

<strong>de</strong> probabilité <strong>et</strong> <strong>de</strong><br />

possibilité<br />

II.3. Combinaison <strong>de</strong> mesures <strong>de</strong> confiance <strong>et</strong> critères <strong>de</strong> décision<br />

II.3.1. Modèle Bayesien<br />

La probabilité qu'un élément x appartienne à la classe C i (au singl<strong>et</strong>on A i ) étant <strong>données</strong> <strong>de</strong>ux<br />

variab<strong>les</strong> aléatoires indépendantes f 1 (x) <strong>et</strong> f 2 (x), est obtenue par le théorème <strong>de</strong> Bayes :<br />

p(<br />

x ∈Ci<br />

) p(<br />

f1(<br />

x)<br />

x ∈Ci<br />

) p(<br />

f<br />

2<br />

( x)<br />

x ∈Ci<br />

)<br />

p( x ∈Ci<br />

f1(<br />

x),<br />

f2<br />

( x))<br />

=<br />

(I.20.)<br />

n<br />

p(<br />

x ∈C<br />

) p(<br />

f ( x) / x ∈C<br />

) p(<br />

f ( x) / x ∈C<br />

)<br />

∑<br />

j=<br />

1<br />

j<br />

1<br />

j<br />

2<br />

j<br />

Le critère <strong>de</strong> décision le plus utilisé est celui du maximum a posteriori (MAP) :<br />

x ∈ C<br />

i<br />

si<br />

p(x ∈C<br />

) = max(p(x ∈C<br />

i<br />

k<br />

),1 ≤ k ≤ n)<br />

(I.21.)<br />

mais <strong>de</strong> très nombreux autres critères ont été développés tels que le maximum <strong>de</strong><br />

vraisemblance, le maximum d'entropie, le test <strong>de</strong> Neyman-Pearson, l'espérance mathématique<br />

<strong>et</strong>c. La difficulté consiste alors à justifier du choix d'un critère en fonction <strong>de</strong>s applications<br />

envisagées.<br />

3DJH

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!