12.07.2015 Views

Comparaisons multidimensionnelles de bien-être et de pauvreté ...

Comparaisons multidimensionnelles de bien-être et de pauvreté ...

Comparaisons multidimensionnelles de bien-être et de pauvreté ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Chapitre 2. Mesures <strong>de</strong> la pauvr<strong>et</strong>é multidimensionnelle <strong>et</strong> inférences statistiques 8comme suit :D (x i ) ≡ mind{d : W (dx i ) = W ∗ , d > 0, ∀ W monotone <strong>et</strong> quasi-concave} (2.2)Avec les propriétés <strong>de</strong> W , les ensembles <strong>de</strong>s niveaux <strong>de</strong> <strong>bien</strong>-<strong>être</strong> sont convexes par rapportà l’origine. Il est alors possible <strong>de</strong> dériver un ensemble convexe dont la limite inférieurequi est une courbe convexe inf (X) correspond au niveau <strong>de</strong> <strong>bien</strong>-<strong>être</strong> <strong>de</strong> l’individu <strong>de</strong> référence.Dans le cas où l’on analyse le problème <strong>de</strong> pauvr<strong>et</strong>é, c<strong>et</strong>te courbe peut-<strong>être</strong> interprétéecomme la frontière ”rawlsienne” puisqu’elle représente alors la frontière <strong>de</strong>s individus lesplus pauvres <strong>de</strong> la population.La théorie <strong>de</strong> l’information : les mesures d’entropieC<strong>et</strong>te théorie, originellement développée dans le domaine <strong>de</strong>s sciences <strong>de</strong> la communication,a été adaptée par Theil (1967) à l’économie. Maasoumi (1993) <strong>et</strong> Deutsch <strong>et</strong> Silber(2005) en exposent les principes <strong>de</strong> base. Soit P i = prob (x = x i ), i = 1, ..., n la probabilitéque le résultat d’une expérience soit x i avec 0 ≤ P i ≤ 1. On suppose alors une fonctiong (P i ) qui capte l’information générée par l’expérience comme une fonction <strong>de</strong> probabilité.Lorsque la probabilité a priori d’un évènement est élevée, on s’attend moins à une modification<strong>de</strong>s attentes par les résultats <strong>de</strong> l’expérience. Par exemple, si P k = 1 pour un k donné <strong>et</strong>P i = 0 pour les autres i ≠ k, alors la réalisation d’un évènement x k ne contient aucune information.Ainsi, on pose que g (.) est une fonction décroissante avec g (1) = 0 <strong>et</strong> g(0) → ∞.L’information anticipée d’une expérience est finalement définie par :H (P ) =n∑P i g (P i ) ≥ 0, P = (P 1 , ..., P n ) (2.3)i=1Maasoumi (1993) définit l’entropie comme la mesure <strong>de</strong> l’incertitu<strong>de</strong> ou <strong>de</strong> la volatilité

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!