12.07.2015 Views

Problèmes de réduction de dimension pour la régression en ... - Isped

Problèmes de réduction de dimension pour la régression en ... - Isped

Problèmes de réduction de dimension pour la régression en ... - Isped

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntroductionY i temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i un vecteur <strong>de</strong> variables explicatives (âge, poids, taille,type <strong>de</strong> traîtem<strong>en</strong>t...)Observations c<strong>en</strong>surées : Pour certains ma<strong>la</strong><strong>de</strong>s, le tempsY i n’est pas observé.Causes possibles :C<strong>en</strong>sure dite "administrative"Mort du pati<strong>en</strong>t, changem<strong>en</strong>t d’hôpital...


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntroductionY i temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i un vecteur <strong>de</strong> variables explicatives (âge, poids, taille,type <strong>de</strong> traîtem<strong>en</strong>t...)Observations c<strong>en</strong>surées : Pour certains ma<strong>la</strong><strong>de</strong>s, le tempsY i n’est pas observé.Causes possibles :C<strong>en</strong>sure dite "administrative"Mort du pati<strong>en</strong>t, changem<strong>en</strong>t d’hôpital...


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntroductionY i temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i un vecteur <strong>de</strong> variables explicatives (âge, poids, taille,type <strong>de</strong> traîtem<strong>en</strong>t...)Observations c<strong>en</strong>surées : Pour certains ma<strong>la</strong><strong>de</strong>s, le tempsY i n’est pas observé.Causes possibles :C<strong>en</strong>sure dite "administrative"Mort du pati<strong>en</strong>t, changem<strong>en</strong>t d’hôpital...


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntroductionY i temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i un vecteur <strong>de</strong> variables explicatives (âge, poids, taille,type <strong>de</strong> traîtem<strong>en</strong>t...)Observations c<strong>en</strong>surées : Pour certains ma<strong>la</strong><strong>de</strong>s, le tempsY i n’est pas observé.Causes possibles :C<strong>en</strong>sure dite "administrative"Mort du pati<strong>en</strong>t, changem<strong>en</strong>t d’hôpital...


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntroductionY i temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i un vecteur <strong>de</strong> variables explicatives (âge, poids, taille,type <strong>de</strong> traîtem<strong>en</strong>t...)Observations c<strong>en</strong>surées : Pour certains ma<strong>la</strong><strong>de</strong>s, le tempsY i n’est pas observé.Causes possibles :C<strong>en</strong>sure dite "administrative"Mort du pati<strong>en</strong>t, changem<strong>en</strong>t d’hôpital...


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntroductionY i temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i un vecteur <strong>de</strong> variables explicatives (âge, poids, taille,type <strong>de</strong> traîtem<strong>en</strong>t...)Observations c<strong>en</strong>surées : Pour certains ma<strong>la</strong><strong>de</strong>s, le tempsY i n’est pas observé.Causes possibles :C<strong>en</strong>sure dite "administrative"Mort du pati<strong>en</strong>t, changem<strong>en</strong>t d’hôpital...


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xRégression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> données c<strong>en</strong>suréesModèle semiparamétrique <strong>de</strong> Cox (ou Proportional HazardRegression Mo<strong>de</strong>l) :h(t|x) = h 0 (t)e θ′ 0 x ,où h(t|z) taux <strong>de</strong> hasard conditionnel, h 0 fonctioninconnue, θ 0 ∈ R d inconnu.Autres modèles <strong>de</strong> régression : modèles portant surE[Y |X], modèles <strong>de</strong> régression quantile...But <strong>de</strong> cet exposé : Modèle <strong>de</strong> régression single-in<strong>de</strong>x <strong>en</strong>prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureE[Y |X = x] = E[Y |θ ′ 0 X = θ′ 0 x] = m θ 0(θ ′ 0 x).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xRégression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> données c<strong>en</strong>suréesModèle semiparamétrique <strong>de</strong> Cox (ou Proportional HazardRegression Mo<strong>de</strong>l) :h(t|x) = h 0 (t)e θ′ 0 x ,où h(t|z) taux <strong>de</strong> hasard conditionnel, h 0 fonctioninconnue, θ 0 ∈ R d inconnu.Autres modèles <strong>de</strong> régression : modèles portant surE[Y |X], modèles <strong>de</strong> régression quantile...But <strong>de</strong> cet exposé : Modèle <strong>de</strong> régression single-in<strong>de</strong>x <strong>en</strong>prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureE[Y |X = x] = E[Y |θ ′ 0 X = θ′ 0 x] = m θ 0(θ ′ 0 x).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xRégression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> données c<strong>en</strong>suréesModèle semiparamétrique <strong>de</strong> Cox (ou Proportional HazardRegression Mo<strong>de</strong>l) :h(t|x) = h 0 (t)e θ′ 0 x ,où h(t|z) taux <strong>de</strong> hasard conditionnel, h 0 fonctioninconnue, θ 0 ∈ R d inconnu.Autres modèles <strong>de</strong> régression : modèles portant surE[Y |X], modèles <strong>de</strong> régression quantile...But <strong>de</strong> cet exposé : Modèle <strong>de</strong> régression single-in<strong>de</strong>x <strong>en</strong>prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureE[Y |X = x] = E[Y |θ ′ 0 X = θ′ 0 x] = m θ 0(θ ′ 0 x).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xObjectifs et difficultés r<strong>en</strong>contrées"Fléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong>" frappant les estimateurs nonparamétriques <strong>de</strong> E[Y |X]Impossibilité d’utiliser <strong>la</strong> fonction <strong>de</strong> répartition empirique(remp<strong>la</strong>cée par l’estimateur <strong>de</strong> Kap<strong>la</strong>n-Meier ou d’autresestimateurs)Sous certaines conditions d’i<strong>de</strong>ntifiabilité, un nouveaufléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong> frappe même les approches oùE[Y |X = x] apparti<strong>en</strong>t à un modèle paramétrique


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xObjectifs et difficultés r<strong>en</strong>contrées"Fléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong>" frappant les estimateurs nonparamétriques <strong>de</strong> E[Y |X]Impossibilité d’utiliser <strong>la</strong> fonction <strong>de</strong> répartition empirique(remp<strong>la</strong>cée par l’estimateur <strong>de</strong> Kap<strong>la</strong>n-Meier ou d’autresestimateurs)Sous certaines conditions d’i<strong>de</strong>ntifiabilité, un nouveaufléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong> frappe même les approches oùE[Y |X = x] apparti<strong>en</strong>t à un modèle paramétrique


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xObjectifs et difficultés r<strong>en</strong>contrées"Fléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong>" frappant les estimateurs nonparamétriques <strong>de</strong> E[Y |X]Impossibilité d’utiliser <strong>la</strong> fonction <strong>de</strong> répartition empirique(remp<strong>la</strong>cée par l’estimateur <strong>de</strong> Kap<strong>la</strong>n-Meier ou d’autresestimateurs)Sous certaines conditions d’i<strong>de</strong>ntifiabilité, un nouveaufléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong> frappe même les approches oùE[Y |X = x] apparti<strong>en</strong>t à un modèle paramétrique


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xP<strong>la</strong>n <strong>de</strong> l’exposé1 Les conditions d’i<strong>de</strong>ntifiabilitéModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?2 Modèle non linéaireDéfinitionIntégrales Kap<strong>la</strong>n-MeierEstimateur Kap<strong>la</strong>n-Meier conditionnel3 Nouvel estimateur <strong>de</strong> F(x, y)DéfinitionPropriétés asymptotiques4 Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆf


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xRéfér<strong>en</strong>cesLopez (2007a) : On the estimation of the joint distribution inregression mo<strong>de</strong>ls with c<strong>en</strong>sored responsesLopez (2007b) : Single-in<strong>de</strong>x regression mo<strong>de</strong>ls withc<strong>en</strong>sored responsesLopez, Patilea, Van Keilegom (200 ?) : Dim<strong>en</strong>sionreduction in c<strong>en</strong>sored mean-regression (Titre provisoire)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xOutline1 Les conditions d’i<strong>de</strong>ntifiabilitéModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?2 Modèle non linéaireDéfinitionIntégrales Kap<strong>la</strong>n-MeierEstimateur Kap<strong>la</strong>n-Meier conditionnel3 Nouvel estimateur <strong>de</strong> F(x, y)DéfinitionPropriétés asymptotiques4 Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆf


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureModèleRégression avec variables expliquées c<strong>en</strong>suréesOn s’intéresse à Y ∈ R.On observe (<strong>pour</strong> i = 1, ..., n)T i = Y i ∧ C i ,δ i = 1 Yi ≤C i,X i ∈ X ⊂ R d .


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureModèleRégression avec variables expliquées c<strong>en</strong>suréesOn s’intéresse à Y ∈ R.On observe (<strong>pour</strong> i = 1, ..., n)T i = Y i ∧ C i ,δ i = 1 Yi ≤C i,X i ∈ X ⊂ R d .


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureModèleRégression avec variables expliquées c<strong>en</strong>suréesOn s’intéresse à Y ∈ R.On observe (<strong>pour</strong> i = 1, ..., n)T i = Y i ∧ C i ,δ i = 1 Yi ≤C i,X i ∈ X ⊂ R d .


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureModèleRégression avec variables expliquées c<strong>en</strong>suréesOn s’intéresse à Y ∈ R.On observe (<strong>pour</strong> i = 1, ..., n)T i = Y i ∧ C i ,δ i = 1 Yi ≤C i,X i ∈ X ⊂ R d .


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureModèleRégression avec variables expliquées c<strong>en</strong>suréesOn s’intéresse à Y ∈ R.On observe (<strong>pour</strong> i = 1, ..., n)T i = Y i ∧ C i ,δ i = 1 Yi ≤C i,X i ∈ X ⊂ R d .


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureEn l’abs<strong>en</strong>ce <strong>de</strong> variables explicativesHypothèse d’i<strong>de</strong>ntifiabilitéC i et Y i sont indép<strong>en</strong>dants.Estimation <strong>de</strong> F(y) = P(Y ≤ y) par l’estimateur <strong>de</strong>Kap<strong>la</strong>n-MeierˆF(y) = 1 − ∏i:T i ≤y(1 −1∑ nj=1 1 T j ≥T i) δi.QuestionComm<strong>en</strong>t ét<strong>en</strong>dre cette hypothèse <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> variablesexplicatives ?


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureEn l’abs<strong>en</strong>ce <strong>de</strong> variables explicativesHypothèse d’i<strong>de</strong>ntifiabilitéC i et Y i sont indép<strong>en</strong>dants.Estimation <strong>de</strong> F(y) = P(Y ≤ y) par l’estimateur <strong>de</strong>Kap<strong>la</strong>n-MeierˆF(y) = 1 − ∏i:T i ≤y(1 −1∑ nj=1 1 T j ≥T i) δi.QuestionComm<strong>en</strong>t ét<strong>en</strong>dre cette hypothèse <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> variablesexplicatives ?


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureEn l’abs<strong>en</strong>ce <strong>de</strong> variables explicativesHypothèse d’i<strong>de</strong>ntifiabilitéC i et Y i sont indép<strong>en</strong>dants.Estimation <strong>de</strong> F(y) = P(Y ≤ y) par l’estimateur <strong>de</strong>Kap<strong>la</strong>n-MeierˆF(y) = 1 − ∏i:T i ≤y(1 −1∑ nj=1 1 T j ≥T i) δi.QuestionComm<strong>en</strong>t ét<strong>en</strong>dre cette hypothèse <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> variablesexplicatives ?


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?Retour sur l’exemple introductifExemple 1Y i = temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i = âge, poids, tailleC i = c<strong>en</strong>sure administrativeConclusionC i indép<strong>en</strong>dant <strong>de</strong> (Y i , X i ).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?Retour sur l’exemple introductifExemple 1Y i = temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i = âge, poids, tailleC i = c<strong>en</strong>sure administrativeConclusionC i indép<strong>en</strong>dant <strong>de</strong> (Y i , X i ).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?Retour sur l’exemple introductifExemple 2Y i = temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i = âge, poids, tailleC i = Mort du pati<strong>en</strong>tConclusionC i <strong>de</strong>vrait dép<strong>en</strong>dre <strong>de</strong> X i


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?Retour sur l’exemple introductifExemple 2Y i = temps <strong>de</strong> guérison du ma<strong>la</strong><strong>de</strong> iX i = âge, poids, tailleC i = Mort du pati<strong>en</strong>tConclusionC i <strong>de</strong>vrait dép<strong>en</strong>dre <strong>de</strong> X i


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?Deux types d’hypothèsesHypothèse "Forte"C indép<strong>en</strong>dant <strong>de</strong> (Y , X) (L(C|X, Y ) = L(C))Hypothèse "faible"C indép<strong>en</strong>dant <strong>de</strong> Y conditionnellem<strong>en</strong>t à X(L(C|Y , X) = L(C|X))


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xOutline1 Les conditions d’i<strong>de</strong>ntifiabilitéModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?2 Modèle non linéaireDéfinitionIntégrales Kap<strong>la</strong>n-MeierEstimateur Kap<strong>la</strong>n-Meier conditionnel3 Nouvel estimateur <strong>de</strong> F(x, y)DéfinitionPropriétés asymptotiques4 Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆf


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionDéfinition du modèle non linéaireModèle <strong>de</strong> régression non linéaireOn supposeE[Y |X = x] = f (θ 0 , x),où f fonction connue, θ 0 ∈ Θ ⊂ R k .Cas particulier : régression linéaire, f (θ 0 , x) = θ ′ 0 x.Sous l’Hypothèse forte :Koul, Susar<strong>la</strong>, Van Ryzin (1981), Leurgans (1987), Zhou(1992), régression linéaireStute (1999), Delecroix, Lopez, Patilea (2006), non linéaireSous l’Hypothèse faible :Heuch<strong>en</strong>ne et Van Keilegom (2007a) : RégressionpolynomialeHeuch<strong>en</strong>ne et Van Keilegom (2007b) : non linéaireDans ces <strong>de</strong>ux <strong>de</strong>rniers cas, d = 1


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionDéfinition du modèle non linéaireModèle <strong>de</strong> régression non linéaireOn supposeE[Y |X = x] = f (θ 0 , x),où f fonction connue, θ 0 ∈ Θ ⊂ R k .Cas particulier : régression linéaire, f (θ 0 , x) = θ ′ 0 x.Sous l’Hypothèse forte :Koul, Susar<strong>la</strong>, Van Ryzin (1981), Leurgans (1987), Zhou(1992), régression linéaireStute (1999), Delecroix, Lopez, Patilea (2006), non linéaireSous l’Hypothèse faible :Heuch<strong>en</strong>ne et Van Keilegom (2007a) : RégressionpolynomialeHeuch<strong>en</strong>ne et Van Keilegom (2007b) : non linéaireDans ces <strong>de</strong>ux <strong>de</strong>rniers cas, d = 1


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionDéfinition du modèle non linéaireModèle <strong>de</strong> régression non linéaireOn supposeE[Y |X = x] = f (θ 0 , x),où f fonction connue, θ 0 ∈ Θ ⊂ R k .Cas particulier : régression linéaire, f (θ 0 , x) = θ ′ 0 x.Sous l’Hypothèse forte :Koul, Susar<strong>la</strong>, Van Ryzin (1981), Leurgans (1987), Zhou(1992), régression linéaireStute (1999), Delecroix, Lopez, Patilea (2006), non linéaireSous l’Hypothèse faible :Heuch<strong>en</strong>ne et Van Keilegom (2007a) : RégressionpolynomialeHeuch<strong>en</strong>ne et Van Keilegom (2007b) : non linéaireDans ces <strong>de</strong>ux <strong>de</strong>rniers cas, d = 1


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionDéfinition du modèle non linéaireModèle <strong>de</strong> régression non linéaireOn supposeE[Y |X = x] = f (θ 0 , x),où f fonction connue, θ 0 ∈ Θ ⊂ R k .Cas particulier : régression linéaire, f (θ 0 , x) = θ ′ 0 x.Sous l’Hypothèse forte :Koul, Susar<strong>la</strong>, Van Ryzin (1981), Leurgans (1987), Zhou(1992), régression linéaireStute (1999), Delecroix, Lopez, Patilea (2006), non linéaireSous l’Hypothèse faible :Heuch<strong>en</strong>ne et Van Keilegom (2007a) : RégressionpolynomialeHeuch<strong>en</strong>ne et Van Keilegom (2007b) : non linéaireDans ces <strong>de</strong>ux <strong>de</strong>rniers cas, d = 1


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionDéfinition du modèle non linéaireModèle <strong>de</strong> régression non linéaireOn supposeE[Y |X = x] = f (θ 0 , x),où f fonction connue, θ 0 ∈ Θ ⊂ R k .Cas particulier : régression linéaire, f (θ 0 , x) = θ ′ 0 x.Sous l’Hypothèse forte :Koul, Susar<strong>la</strong>, Van Ryzin (1981), Leurgans (1987), Zhou(1992), régression linéaireStute (1999), Delecroix, Lopez, Patilea (2006), non linéaireSous l’Hypothèse faible :Heuch<strong>en</strong>ne et Van Keilegom (2007a) : RégressionpolynomialeHeuch<strong>en</strong>ne et Van Keilegom (2007b) : non linéaireDans ces <strong>de</strong>ux <strong>de</strong>rniers cas, d = 1


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierMoindres carrésMétho<strong>de</strong> <strong>de</strong>s moindres carrés <strong>en</strong> l’abs<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sure :M(θ) = EIci, ˆF emp n’est pas disponible.[[Y − f (θ, X)] 2] ,θ 0 = arg min M(θ),θ∈ΘM n (θ) = 1 n∑[Y i − f (θ, X i )] 2 ,ni=1ˆθ = arg minθ∈Θ M n(θ).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierMoindres carrésMétho<strong>de</strong> <strong>de</strong>s moindres carrés <strong>en</strong> l’abs<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sure :M(θ) =∫[y − f (θ, x)] 2 dF (x, y),θ 0 = arg min M(θ),θ∈Θ∫M n (θ) = [y − f (θ, x)] 2 d ˆF emp (x, y),ˆθ = arg minθ∈Θ M n(θ).Ici, ˆF emp n’est pas disponible.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierMoindres carrésMétho<strong>de</strong> <strong>de</strong>s moindres carrés <strong>en</strong> l’abs<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sure :M(θ) =∫[y − f (θ, x)] 2 dF (x, y),θ 0 = arg min M(θ),θ∈Θ∫M n (θ) = [y − f (θ, x)] 2 d ˆF emp (x, y),ˆθ = arg minθ∈Θ M n(θ).Ici, ˆF emp n’est pas disponible.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierIntégrales Kap<strong>la</strong>n-MeierRéécriture <strong>de</strong> l’estimateur <strong>de</strong> Kap<strong>la</strong>n-Meiern∑ˆF(y) = δ i W in 1 Ti ≤y.i=1En prés<strong>en</strong>ce <strong>de</strong> variables explicatives, Stute (1993) estimeF(x, y)n∑ˆF F (x, y) = δ i W in 1 Ti ≤y1 Xi ≤x.i=1


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierIntégrales Kap<strong>la</strong>n-MeierRéécriture <strong>de</strong> l’estimateur <strong>de</strong> Kap<strong>la</strong>n-Meiern∑ˆF(y) = δ i W in 1 Ti ≤y.i=1En prés<strong>en</strong>ce <strong>de</strong> variables explicatives, Stute (1993) estimeF(x, y)n∑ˆF F (x, y) = δ i W in 1 Ti ≤y1 Xi ≤x.i=1


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierIntégrales Kap<strong>la</strong>n-MeierRéécriture <strong>de</strong> l’estimateur <strong>de</strong> Kap<strong>la</strong>n-MeierˆF(y) =n∑δ i W in 1 Ti ≤y.i=1En prés<strong>en</strong>ce <strong>de</strong> variables explicatives, Stute (1993) estimeF(x, y)n∑ˆF F (x, y) = δ i W in 1 Ti ≤y1 Xi ≤x.Estimation <strong>de</strong> θ 0 :ˆθ F = arg minθ∈Θi=1∫[y − f (θ, x)] 2 d ˆF F (x, y)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierIntégrales Kap<strong>la</strong>n-MeierRéécriture <strong>de</strong> l’estimateur <strong>de</strong> Kap<strong>la</strong>n-MeierˆF(y) =n∑δ i W in 1 Ti ≤y.i=1En prés<strong>en</strong>ce <strong>de</strong> variables explicatives, Stute (1993) estimeF(x, y)n∑ˆF F (x, y) = δ i W in 1 Ti ≤y1 Xi ≤x.Estimation <strong>de</strong> θ 0 :ˆθ F = arg minθ∈Θi=1n∑δ i W in [T i − f (θ, X i )] 2i=1


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierComportem<strong>en</strong>t asymptotique <strong>de</strong>s intégrales KMSauts <strong>de</strong> l’estimateur <strong>de</strong> Kap<strong>la</strong>n-MeierSoit G(t) = P(C ≤ t), Ĝ(t) son estimateur <strong>de</strong> Kap<strong>la</strong>n-Meier.Les sauts <strong>de</strong> ˆF sontW in =1n[1 − Ĝ(T i−)] .Représ<strong>en</strong>tation asymptotique, Stute (1993)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierComportem<strong>en</strong>t asymptotique <strong>de</strong>s intégrales KMSauts <strong>de</strong> l’estimateur <strong>de</strong> Kap<strong>la</strong>n-MeierSoit G(t) = P(C ≤ t), Ĝ(t) son estimateur <strong>de</strong> Kap<strong>la</strong>n-Meier.Les sauts <strong>de</strong> ˆF sontW in =1n[1 − Ĝ(T i−)] .Représ<strong>en</strong>tation asymptotique, Stute (1993)∫φ(x, y)d ˆF F (x, y) = 1 nn∑ δ i φ(X i , T i )i=11 − Ĝ(T i−)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierComportem<strong>en</strong>t asymptotique <strong>de</strong>s intégrales KMSauts <strong>de</strong> l’estimateur <strong>de</strong> Kap<strong>la</strong>n-MeierSoit G(t) = P(C ≤ t), Ĝ(t) son estimateur <strong>de</strong> Kap<strong>la</strong>n-Meier.Les sauts <strong>de</strong> ˆF sontW in =1n[1 − Ĝ(T i−)] .Représ<strong>en</strong>tation asymptotique, Stute (1993)∫φ(x, y)d ˆF F (x, y) = 1 nn∑i=1δ i φ(X i , T i )1 − G(T i −) + η(T i, δ i )+o P (n −1/2 ),avec E[η(T , δ)] = 0, sous <strong>de</strong>s hypothèses <strong>de</strong> mom<strong>en</strong>ts.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierConverg<strong>en</strong>ce <strong>de</strong>s intégrales Kap<strong>la</strong>n-MeierSous les Hypothèses fortes,E[ ] δφ(X, T )1 − G(T −)= E[ ]1Y ≤C φ(X, Y )1 − G(Y −)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierConverg<strong>en</strong>ce <strong>de</strong>s intégrales Kap<strong>la</strong>n-MeierSous les Hypothèses fortes,E[ ] δφ(X, T )1 − G(T −)[ ]1Y ≤C φ(X, Y )= E1 − G(Y −)[ ]E[1Y ≤C |X, Y ]φ(X, Y )= E1 − G(Y −)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierConverg<strong>en</strong>ce <strong>de</strong>s intégrales Kap<strong>la</strong>n-MeierSous les Hypothèses fortes,E[ ] δφ(X, T )1 − G(T −)[ ]1Y ≤C φ(X, Y )= E1 − G(Y −)[ ]E[1Y ≤C |X, Y ]φ(X, Y )= E1 − G(Y −)[ ]P(Y ≤ C|X, Y )φ(X, Y )= E1 − G(Y −)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierConverg<strong>en</strong>ce <strong>de</strong>s intégrales Kap<strong>la</strong>n-MeierSous les Hypothèses fortes,E[ ] δφ(X, T )1 − G(T −)[ ]1Y ≤C φ(X, Y )= E1 − G(Y −)[ ]E[1Y ≤C |X, Y ]φ(X, Y )= E1 − G(Y −)[ ]P(δ = 1|X, Y )φ(X, Y )= E1 − G(Y −)[ ][1 − G(Y −)]φ(X, Y )= E= E[φ(X, Y )].1 − G(Y −)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierBi<strong>la</strong>n sur les intégrales Kap<strong>la</strong>n-MeierBi<strong>la</strong>nFonctionne sous les Hypothèses fortes, pas sous lesHypothèse faiblesOn peut <strong>en</strong>visager le cas X ∈ R d avec d > 1Autres approches <strong>pour</strong> <strong>la</strong> régression sous les Hypothèsesfortes : approche synthetic data, li<strong>en</strong> avec les intégralesKap<strong>la</strong>n-Meier, voir Delecroix, Lopez, Patilea (2006).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xIntégrales Kap<strong>la</strong>n-MeierBi<strong>la</strong>n sur les intégrales Kap<strong>la</strong>n-MeierBi<strong>la</strong>nFonctionne sous les Hypothèses fortes, pas sous lesHypothèse faiblesOn peut <strong>en</strong>visager le cas X ∈ R d avec d > 1Autres approches <strong>pour</strong> <strong>la</strong> régression sous les Hypothèsesfortes : approche synthetic data, li<strong>en</strong> avec les intégralesKap<strong>la</strong>n-Meier, voir Delecroix, Lopez, Patilea (2006).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelEstimateur Kap<strong>la</strong>n-Meier conditionnel(Hypothèses faibles)Beran (1981) estime F(y | x) = P(Y ≤ y | X = x) parˆF(y | x) = 1 − ∏i:T i ≤ySoit K un noyau, on pr<strong>en</strong>dw ni (x) =(1 −w ni (x)∑ nj=1 w nj(x)1 Tj ≥T i) δi.K ( X i −xh )∑ nj=1 K ( X j −xh ).Etu<strong>de</strong> théorique par Dabrowska (1987).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelEstimateur Kap<strong>la</strong>n-Meier conditionnel(Hypothèses faibles)Beran (1981) estime F(y | x) = P(Y ≤ y | X = x) parˆF(y | x) = 1 − ∏i:T i ≤ySoit K un noyau, on pr<strong>en</strong>dw ni (x) =(1 −w ni (x)∑ nj=1 w nj(x)1 Tj ≥T i) δi.K ( X i −xh )∑ nj=1 K ( X j −xh ).Etu<strong>de</strong> théorique par Dabrowska (1987).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelEstimateur Kap<strong>la</strong>n-Meier conditionnel(Hypothèses faibles)Beran (1981) estime F(y | x) = P(Y ≤ y | X = x) parˆF(y | x) = 1 − ∏i:T i ≤ySoit K un noyau, on pr<strong>en</strong>dw ni (x) =(1 −w ni (x)∑ nj=1 w nj(x)1 Tj ≥T i) δi.K ( X i −xh )∑ nj=1 K ( X j −xh ).Etu<strong>de</strong> théorique par Dabrowska (1987).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelEstimateur <strong>de</strong> F (x, y) (Van Keilegom et Akritas,1999)F(x, y) = ∫ u≤x F(y | u)dF X (u), où F X (x) = P(X ≤ x).Estimation par ˆF(x, y) = ∫ u≤x ˆF(y | u)d ˆF X (u), avec ˆF Xfonction <strong>de</strong> répartition empirique <strong>de</strong> X.Hypothèses supplém<strong>en</strong>taires :Y = m(X) + σ(X)ε,où m fonction <strong>de</strong> localisation, σ fonction d’échelle, εindép<strong>en</strong>dant <strong>de</strong> X.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelEstimateur <strong>de</strong> F (x, y) (Van Keilegom et Akritas,1999)F(x, y) = ∫ u≤x F(y | u)dF X (u), où F X (x) = P(X ≤ x).Estimation par ˆF(x, y) = ∫ u≤x ˆF(y | u)d ˆF X (u), avec ˆF Xfonction <strong>de</strong> répartition empirique <strong>de</strong> X.Hypothèses supplém<strong>en</strong>taires :Y = m(X) + σ(X)ε,où m fonction <strong>de</strong> localisation, σ fonction d’échelle, εindép<strong>en</strong>dant <strong>de</strong> X.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelEstimateur <strong>de</strong> F (x, y) (Van Keilegom et Akritas,1999)F(x, y) = ∫ u≤x F(y | u)dF X (u), où F X (x) = P(X ≤ x).Estimation par ˆF(x, y) = ∫ u≤x ˆF(y | u)d ˆF X (u), avec ˆF Xfonction <strong>de</strong> répartition empirique <strong>de</strong> X.Hypothèses supplém<strong>en</strong>taires :Y = m(X) + σ(X)ε,où m fonction <strong>de</strong> localisation, σ fonction d’échelle, εindép<strong>en</strong>dant <strong>de</strong> X.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelInconvéni<strong>en</strong>ts majeursDifficulté d’étu<strong>de</strong> <strong>pour</strong> X ∈ R d avec d > 1.On impose X continuCas C = ∞ p.s. : ne généralise pas <strong>la</strong> notion <strong>de</strong> fonction<strong>de</strong> répartition empirique.Régression sous les Hypothèses faibles : d = 1 seulem<strong>en</strong>t


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelInconvéni<strong>en</strong>ts majeursDifficulté d’étu<strong>de</strong> <strong>pour</strong> X ∈ R d avec d > 1.On impose X continuCas C = ∞ p.s. : ne généralise pas <strong>la</strong> notion <strong>de</strong> fonction<strong>de</strong> répartition empirique.Régression sous les Hypothèses faibles : d = 1 seulem<strong>en</strong>t


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelInconvéni<strong>en</strong>ts majeursDifficulté d’étu<strong>de</strong> <strong>pour</strong> X ∈ R d avec d > 1.On impose X continuCas C = ∞ p.s. : ne généralise pas <strong>la</strong> notion <strong>de</strong> fonction<strong>de</strong> répartition empirique.Régression sous les Hypothèses faibles : d = 1 seulem<strong>en</strong>t


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xEstimateur Kap<strong>la</strong>n-Meier conditionnelInconvéni<strong>en</strong>ts majeursDifficulté d’étu<strong>de</strong> <strong>pour</strong> X ∈ R d avec d > 1.On impose X continuCas C = ∞ p.s. : ne généralise pas <strong>la</strong> notion <strong>de</strong> fonction<strong>de</strong> répartition empirique.Régression sous les Hypothèses faibles : d = 1 seulem<strong>en</strong>t


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xOutline1 Les conditions d’i<strong>de</strong>ntifiabilitéModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?2 Modèle non linéaireDéfinitionIntégrales Kap<strong>la</strong>n-MeierEstimateur Kap<strong>la</strong>n-Meier conditionnel3 Nouvel estimateur <strong>de</strong> F(x, y)DéfinitionPropriétés asymptotiques4 Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆf


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionRecherche du "bon poids"Idée : proposer un estimateur du typeˆF f (x, y) = 1 nn∑δ i W (X i , T i )1 Ti ≤y,X i ≤x.i=1Idéalem<strong>en</strong>t, <strong>pour</strong> toute fonction φ,E [δW (X, T )φ(X, T )] = E [φ(X, Y )] .Lorsque Y ⊥ C | X, soit G(y | x) = P(C ≤ y | X = x),


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionRecherche du "bon poids"Idée : proposer un estimateur du typeˆF f (x, y) = 1 nn∑δ i W (X i , T i )1 Ti ≤y,X i ≤x.i=1Idéalem<strong>en</strong>t, <strong>pour</strong> toute fonction φ,E [δW (X, T )φ(X, T )] = E [φ(X, Y )] .Lorsque Y ⊥ C | X, soit G(y | x) = P(C ≤ y | X = x),


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionRecherche du "bon poids"Idée : proposer un estimateur du typeˆF f (x, y) = 1 nn∑δ i W (X i , T i )1 Ti ≤y,X i ≤x.i=1Idéalem<strong>en</strong>t, <strong>pour</strong> toute fonction φ,E [δW (X, T )φ(X, T )] = E [φ(X, Y )] .Lorsque Y ⊥ C | X, soit G(y | x) = P(C ≤ y | X = x),E[δW (X, T )φ(X, T )] = E[δW (X, Y )φ(X, Y )]


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionRecherche du "bon poids"Idée : proposer un estimateur du typeˆF f (x, y) = 1 nn∑δ i W (X i , T i )1 Ti ≤y,X i ≤x.i=1Idéalem<strong>en</strong>t, <strong>pour</strong> toute fonction φ,E [δW (X, T )φ(X, T )] = E [φ(X, Y )] .Lorsque Y ⊥ C | X, soit G(y | x) = P(C ≤ y | X = x),E[δW (X, T )φ(X, T )] = E[δW (X, Y )φ(X, Y )]= E [ E[1 Y ≤C | X, Y ]W (X, Y )φ(X, Y ) ]


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionRecherche du "bon poids"Idée : proposer un estimateur du typeˆF f (x, y) = 1 nn∑δ i W (X i , T i )1 Ti ≤y,X i ≤x.i=1Idéalem<strong>en</strong>t, <strong>pour</strong> toute fonction φ,E [δW (X, T )φ(X, T )] = E [φ(X, Y )] .Lorsque Y ⊥ C | X, soit G(y | x) = P(C ≤ y | X = x),E[δW (X, T )φ(X, T )] = E[δW (X, Y )φ(X, Y )]= E [ E[1 Y ≤C | X, Y ]W (X, Y ) ]= E [(1 − G(Y − | X))W (X, Y )φ(X, Y )]


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionEstimation <strong>de</strong> F (x, y)Estimateur "idéal"On choisitet on définitW (X i , T i ) =11 − G(T i − | X i ) ,˜F f (x, y) = 1 nn∑i=1δ i 1 Ti ≤y,X i ≤x1 − G(T i − | X i ) .ProblèmeLa fonction G est inconnue : ˜F est inaccessible.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionEstimation <strong>de</strong> F (x, y)Estimateur "idéal"On choisitet on définitW (X i , T i ) =11 − G(T i − | X i ) ,˜F f (x, y) = 1 nn∑i=1δ i 1 Ti ≤y,X i ≤x1 − G(T i − | X i ) .ProblèmeLa fonction G est inconnue : ˜F est inaccessible.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionEstimateur proposéEstimer G(y | x) par l’estimateur <strong>de</strong> Beran Ĝ(y | x).Définition <strong>de</strong> l’estimateurOn estime F(x, y) parˆF f (x, y) = 1 nn∑i=1δ i 1 Ti ≤y,X i ≤x1 − Ĝ(T i− | X i ) .Pour toute fonction φ, on a∫φ(x, y)d ˆF f (x, y) = 1 nn∑i=1δ i φ(X i , T i )1 − Ĝ(T i− | X i ) .


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionEstimateur proposéEstimer G(y | x) par l’estimateur <strong>de</strong> Beran Ĝ(y | x).Définition <strong>de</strong> l’estimateurOn estime F(x, y) parˆF f (x, y) = 1 nn∑i=1δ i 1 Ti ≤y,X i ≤x1 − Ĝ(T i− | X i ) .Pour toute fonction φ, on a∫φ(x, y)d ˆF f (x, y) = 1 nn∑i=1δ i φ(X i , T i )1 − Ĝ(T i− | X i ) .


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionPremières propriétés élém<strong>en</strong>tairesC = ∞ p.s. : Ĝ(y | x) = 0 p.s., on retrouve <strong>la</strong> fonction <strong>de</strong>répartition empirique.Pour l’étu<strong>de</strong> théorique, supposer X continu.Dans le cas d > 1, même problème que <strong>pour</strong> l’estimateur<strong>de</strong> Van Keilegom et Akritas : fléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong>


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionPremières propriétés élém<strong>en</strong>tairesC = ∞ p.s. : Ĝ(y | x) = 0 p.s., on retrouve <strong>la</strong> fonction <strong>de</strong>répartition empirique.Pour l’étu<strong>de</strong> théorique, supposer X continu.Dans le cas d > 1, même problème que <strong>pour</strong> l’estimateur<strong>de</strong> Van Keilegom et Akritas : fléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong>


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionPremières propriétés élém<strong>en</strong>tairesC = ∞ p.s. : Ĝ(y | x) = 0 p.s., on retrouve <strong>la</strong> fonction <strong>de</strong>répartition empirique.Pour l’étu<strong>de</strong> théorique, supposer X continu.Dans le cas d > 1, même problème que <strong>pour</strong> l’estimateur<strong>de</strong> Van Keilegom et Akritas : fléau <strong>de</strong> <strong>la</strong> <strong>dim<strong>en</strong>sion</strong>


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionUne modification <strong>de</strong>s conditions d’i<strong>de</strong>ntifiabilitédu modèleNouvelle hypothèseSoit g une fonction à valeurs réelles. On supposeL(C|X, Y ) = L(C|g(X)) (au lieu <strong>de</strong> L(C|X)).Exempleg(x) = x 1g(x) = β ′ 0 xRemarque : Si on dispose d’un estimateur <strong>de</strong> g(x)convergeant à <strong>la</strong> vitesse n −1/2 , on peut ét<strong>en</strong>dre lesdiffér<strong>en</strong>ts résultats.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionUne modification <strong>de</strong>s conditions d’i<strong>de</strong>ntifiabilitédu modèleNouvelle hypothèseSoit g une fonction à valeurs réelles. On supposeL(C|X, Y ) = L(C|g(X)) (au lieu <strong>de</strong> L(C|X)).Exempleg(x) = x 1g(x) = β ′ 0 xRemarque : Si on dispose d’un estimateur <strong>de</strong> g(x)convergeant à <strong>la</strong> vitesse n −1/2 , on peut ét<strong>en</strong>dre lesdiffér<strong>en</strong>ts résultats.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionUne modification <strong>de</strong>s conditions d’i<strong>de</strong>ntifiabilitédu modèleNouvelle hypothèseSoit g une fonction à valeurs réelles. On supposeL(C|X, Y ) = L(C|g(X)) (au lieu <strong>de</strong> L(C|X)).Exempleg(x) = x 1g(x) = β ′ 0 xRemarque : Si on dispose d’un estimateur <strong>de</strong> g(x)convergeant à <strong>la</strong> vitesse n −1/2 , on peut ét<strong>en</strong>dre lesdiffér<strong>en</strong>ts résultats.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionUne modification <strong>de</strong>s hypothèses d’i<strong>de</strong>ntifiabilitédu modèleSous <strong>la</strong> nouvelle hypothèse,[]δφ(X, T )E1 − G(T − |g(X))[]1 Y ≤C φ(X, Y )= E1 − G(Y − |g(X))


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionUne modification <strong>de</strong>s hypothèses d’i<strong>de</strong>ntifiabilitédu modèleSous <strong>la</strong> nouvelle hypothèse,[]δφ(X, T )E1 − G(T − |g(X))[]1 Y ≤C φ(X, Y )= E1 − G(Y − |g(X))[ ]E[1Y ≤C |X, Y ]φ(X, Y )= E1 − G(Y − |g(X))


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionUne modification <strong>de</strong>s hypothèses d’i<strong>de</strong>ntifiabilitédu modèleSous <strong>la</strong> nouvelle hypothèse,[]δφ(X, T )E1 − G(T − |g(X))[]1 Y ≤C φ(X, Y )= E1 − G(Y − |g(X))[ ]E[1Y ≤C |X, Y ]φ(X, Y )= E1 − G(Y − |g(X))[ ]P(Y ≤ C|X, Y )φ(X, Y )= E1 − G(Y − |g(X))


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionUne modification <strong>de</strong>s hypothèses d’i<strong>de</strong>ntifiabilitédu modèleSous <strong>la</strong> nouvelle hypothèse,[]δφ(X, T )E1 − G(T − |g(X))[]1 Y ≤C φ(X, Y )= E1 − G(Y − |g(X))[ ]E[1Y ≤C |X, Y ]φ(X, Y )= E1 − G(Y − |g(X))[ ]P(δ = 1|X, Y )φ(X, Y )= E1 − G(Y − |g(X))[ ][1 − G(Y − |g(X))]φ(X, Y )= E.1 − G(Y − |g(X))


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionL’estimateur <strong>pour</strong> le cas d > 1Définition <strong>de</strong> l’estimateur˜F f (x, y) = 1 nˆF f (x, y) = 1 nn∑i=1n∑i=1δ i 1 Ti ≤y,X i ≤x1 − G(T i − | g(X i )) ,δ i 1 Ti ≤y,X i ≤x1 − Ĝ(T i− | g(X i )) .On n’utilise que <strong>de</strong>s estimateurs à noyau <strong>en</strong> <strong>dim<strong>en</strong>sion</strong> 1.g(X) doit être une variable continue, mais pasnécessairem<strong>en</strong>t X.Les nouvelles hypothèses d’i<strong>de</strong>ntifiabilité ne permett<strong>en</strong>tpas <strong>de</strong> se ram<strong>en</strong>er à <strong>la</strong> <strong>dim<strong>en</strong>sion</strong> 1 <strong>pour</strong> l’estimateur <strong>de</strong>Van Keilegom et Akritas.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionL’estimateur <strong>pour</strong> le cas d > 1Définition <strong>de</strong> l’estimateur˜F f (x, y) = 1 nˆF f (x, y) = 1 nn∑i=1n∑i=1δ i 1 Ti ≤y,X i ≤x1 − G(T i − | g(X i )) ,δ i 1 Ti ≤y,X i ≤x1 − Ĝ(T i− | g(X i )) .On n’utilise que <strong>de</strong>s estimateurs à noyau <strong>en</strong> <strong>dim<strong>en</strong>sion</strong> 1.g(X) doit être une variable continue, mais pasnécessairem<strong>en</strong>t X.Les nouvelles hypothèses d’i<strong>de</strong>ntifiabilité ne permett<strong>en</strong>tpas <strong>de</strong> se ram<strong>en</strong>er à <strong>la</strong> <strong>dim<strong>en</strong>sion</strong> 1 <strong>pour</strong> l’estimateur <strong>de</strong>Van Keilegom et Akritas.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionL’estimateur <strong>pour</strong> le cas d > 1Définition <strong>de</strong> l’estimateur˜F f (x, y) = 1 nˆF f (x, y) = 1 nn∑i=1n∑i=1δ i 1 Ti ≤y,X i ≤x1 − G(T i − | g(X i )) ,δ i 1 Ti ≤y,X i ≤x1 − Ĝ(T i− | g(X i )) .On n’utilise que <strong>de</strong>s estimateurs à noyau <strong>en</strong> <strong>dim<strong>en</strong>sion</strong> 1.g(X) doit être une variable continue, mais pasnécessairem<strong>en</strong>t X.Les nouvelles hypothèses d’i<strong>de</strong>ntifiabilité ne permett<strong>en</strong>tpas <strong>de</strong> se ram<strong>en</strong>er à <strong>la</strong> <strong>dim<strong>en</strong>sion</strong> 1 <strong>pour</strong> l’estimateur <strong>de</strong>Van Keilegom et Akritas.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionL’estimateur <strong>pour</strong> le cas d > 1Définition <strong>de</strong> l’estimateur˜F f (x, y) = 1 nˆF f (x, y) = 1 nn∑i=1n∑i=1δ i 1 Ti ≤y,X i ≤x1 − G(T i − | g(X i )) ,δ i 1 Ti ≤y,X i ≤x1 − Ĝ(T i− | g(X i )) .On n’utilise que <strong>de</strong>s estimateurs à noyau <strong>en</strong> <strong>dim<strong>en</strong>sion</strong> 1.g(X) doit être une variable continue, mais pasnécessairem<strong>en</strong>t X.Les nouvelles hypothèses d’i<strong>de</strong>ntifiabilité ne permett<strong>en</strong>tpas <strong>de</strong> se ram<strong>en</strong>er à <strong>la</strong> <strong>dim<strong>en</strong>sion</strong> 1 <strong>pour</strong> l’estimateur <strong>de</strong>Van Keilegom et Akritas.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xDéfinitionL’estimateur <strong>pour</strong> le cas d > 1Définition <strong>de</strong> l’estimateur˜F f (x, y) = 1 nˆF f (x, y) = 1 nn∑i=1n∑i=1δ i 1 Ti ≤y,X i ≤x1 − G(T i − | g(X i )) ,δ i 1 Ti ≤y,X i ≤x1 − Ĝ(T i− | ĝ(X i )) .On n’utilise que <strong>de</strong>s estimateurs à noyau <strong>en</strong> <strong>dim<strong>en</strong>sion</strong> 1.g(X) doit être une variable continue, mais pasnécessairem<strong>en</strong>t X.Les nouvelles hypothèses d’i<strong>de</strong>ntifiabilité ne permett<strong>en</strong>tpas <strong>de</strong> se ram<strong>en</strong>er à <strong>la</strong> <strong>dim<strong>en</strong>sion</strong> 1 <strong>pour</strong> l’estimateur <strong>de</strong>Van Keilegom et Akritas.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesLoi <strong>de</strong>s grands nombresOn utilise <strong>la</strong> converg<strong>en</strong>ce uniforme <strong>de</strong> l’estimateur <strong>de</strong>Beran.Loi <strong>de</strong>s grands nombresSoit F une c<strong>la</strong>sse telle que δ[1 − G(T − |g(X))] −1 F soitP−Gliv<strong>en</strong>ko-Cantelli possédant une <strong>en</strong>veloppe satisfaisantcertaines hypothèses <strong>de</strong> mom<strong>en</strong>ts,∫∫∀φ ∈ F, φ(x, y)d ˆF f (x, y) = φ(x, y)d ˜F f (x, y)x∈Xoù sup φ∈F |R n (φ)| = o P (1). On <strong>en</strong> déduitsupφ∈F∫∣x∈Xx∈X+R n (φ),φ(x, y)d(ˆF f − ˜F f )(x, y)∣ = o P(1).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesLoi <strong>de</strong>s grands nombresOn utilise <strong>la</strong> converg<strong>en</strong>ce uniforme <strong>de</strong> l’estimateur <strong>de</strong>Beran.Loi <strong>de</strong>s grands nombresSoit F une c<strong>la</strong>sse telle que δ[1 − G(T − |g(X))] −1 F soitP−Gliv<strong>en</strong>ko-Cantelli possédant une <strong>en</strong>veloppe satisfaisantcertaines hypothèses <strong>de</strong> mom<strong>en</strong>ts,∫∫∀φ ∈ F, φ(x, y)d ˆF f (x, y) = φ(x, y)d ˜F f (x, y)x∈Xoù sup φ∈F |R n (φ)| = o P (1). On <strong>en</strong> déduitsupφ∈F∫∣x∈Xx∈X+R n (φ),φ(x, y)d(ˆF f − ˜F f )(x, y)∣ = o P(1).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesThéorème c<strong>en</strong>tral limiteOn définit H y = {(X i , δ i , T i )1 Ti ≤y, i = 1, ..., n} etM G iThéorème (d = 1)(y) = (1 − δ i )1 Ti ≤y −∫ y−∞1 Ti ≥sdG(s | X i )1 − G(s | X i ) .On a <strong>la</strong> représ<strong>en</strong>tation i.i.d., <strong>pour</strong> tout φ ∈ F VC-c<strong>la</strong>sse,∫φ(x, y)d ˆF f (x, y)X δ=∫φ(x, y)d ˜F f (x, y)X δ+ 1 nn∑i=1∫ y−∞où ¯φ(x, y) = ∫ φ(x, s)dF (s | x), etsup φ∈F |R n (φ)| = O P (h 2 + n −3/4 h −3/4 ).¯φ(X i , s)dMiG (s)+ R n (φ),1 − H(s | X i )


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesRemarquesIngrédi<strong>en</strong>ts principaux <strong>de</strong> <strong>la</strong> preuve :Représ<strong>en</strong>tation i.i.d. <strong>de</strong> l’estimateur <strong>de</strong> Beran avecuniformité <strong>en</strong> x et hVitesse <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong>s U−processus in<strong>de</strong>xés par <strong>de</strong>sc<strong>la</strong>sses polynomialesInégalités <strong>de</strong> conc<strong>en</strong>trationSi nh 4 → 0, le reste est o P (n −1/2 ).On a alorsn 1/2 ∫x∈X δφ(x, y)d[ˆF f − F f ](x, y) =⇒ N (0, σ 2 (φ)).On peut obt<strong>en</strong>ir une représ<strong>en</strong>tation avec uniformité <strong>en</strong> h


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesRemarquesIngrédi<strong>en</strong>ts principaux <strong>de</strong> <strong>la</strong> preuve :Représ<strong>en</strong>tation i.i.d. <strong>de</strong> l’estimateur <strong>de</strong> Beran avecuniformité <strong>en</strong> x et hVitesse <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong>s U−processus in<strong>de</strong>xés par <strong>de</strong>sc<strong>la</strong>sses polynomialesInégalités <strong>de</strong> conc<strong>en</strong>trationSi nh 4 → 0, le reste est o P (n −1/2 ).On a alorsn 1/2 ∫x∈X δφ(x, y)d[ˆF f − F f ](x, y) =⇒ N (0, σ 2 (φ)).On peut obt<strong>en</strong>ir une représ<strong>en</strong>tation avec uniformité <strong>en</strong> h


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesRemarquesIngrédi<strong>en</strong>ts principaux <strong>de</strong> <strong>la</strong> preuve :Représ<strong>en</strong>tation i.i.d. <strong>de</strong> l’estimateur <strong>de</strong> Beran avecuniformité <strong>en</strong> x et hVitesse <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong>s U−processus in<strong>de</strong>xés par <strong>de</strong>sc<strong>la</strong>sses polynomialesInégalités <strong>de</strong> conc<strong>en</strong>trationSi nh 4 → 0, le reste est o P (n −1/2 ).On a alorsn 1/2 ∫x∈X δφ(x, y)d[ˆF f − F f ](x, y) =⇒ N (0, σ 2 (φ)).On peut obt<strong>en</strong>ir une représ<strong>en</strong>tation avec uniformité <strong>en</strong> h


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesRemarquesIngrédi<strong>en</strong>ts principaux <strong>de</strong> <strong>la</strong> preuve :Représ<strong>en</strong>tation i.i.d. <strong>de</strong> l’estimateur <strong>de</strong> Beran avecuniformité <strong>en</strong> x et hVitesse <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong>s U−processus in<strong>de</strong>xés par <strong>de</strong>sc<strong>la</strong>sses polynomialesInégalités <strong>de</strong> conc<strong>en</strong>trationSi nh 4 → 0, le reste est o P (n −1/2 ).On a alorsn 1/2 ∫x∈X δφ(x, y)d[ˆF f − F f ](x, y) =⇒ N (0, σ 2 (φ)).On peut obt<strong>en</strong>ir une représ<strong>en</strong>tation avec uniformité <strong>en</strong> h


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesSimu<strong>la</strong>tionsY = 1/d(X (1) − X (2) + ...X (d) ) + ε, où ε ∼ N (m, 1),X ∼ U[0, 1] ⊗d .Conditionnellem<strong>en</strong>t à X, C ∼ E(e β′ 0 X /5).On estime E[Y ] = ∫ ∫X ydF (x, y).Comparaison <strong>en</strong>tre l’estimateur <strong>de</strong> Van Keilegom etAkritas, estimateur avec β 0 connu, avec β 0 estimé.Choix <strong>de</strong> h à partir <strong>de</strong>s données :∫I(h) = y1 y≤τ d ˆF f (x, y; h),ĥ =∫arg min (y − I(h)) 2 d ˆF f (x, y; h 0 ).h∈H n


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesSimu<strong>la</strong>tionsY = 1/d(X (1) − X (2) + ...X (d) ) + ε, où ε ∼ N (m, 1),X ∼ U[0, 1] ⊗d .Conditionnellem<strong>en</strong>t à X, C ∼ E(e β′ 0 X /5).On estime E[Y ] = ∫ ∫X ydF (x, y).Comparaison <strong>en</strong>tre l’estimateur <strong>de</strong> Van Keilegom etAkritas, estimateur avec β 0 connu, avec β 0 estimé.Choix <strong>de</strong> h à partir <strong>de</strong>s données :∫I(h) = y1 y≤τ d ˆF f (x, y; h),ĥ =∫arg min (y − I(h)) 2 d ˆF f (x, y; h 0 ).h∈H n


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesSimu<strong>la</strong>tions n=50, 30 % <strong>de</strong> c<strong>en</strong>sureFIG.: Biais et variance <strong>de</strong>s estimateurs <strong>de</strong> E[Y ] suivant les valeurs duparamètres <strong>de</strong> lissage <strong>pour</strong> n = 50 et 30% <strong>de</strong> c<strong>en</strong>sure.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xFIG.: Biais et variance <strong>de</strong>s estimateurs <strong>de</strong> E[Y ] suivant les valeurs duparamètres <strong>de</strong> lissage <strong>pour</strong> n = 100 et 45% <strong>de</strong> c<strong>en</strong>sure.Propriétés asymptotiquesSimu<strong>la</strong>tions n=100, 45 % <strong>de</strong> c<strong>en</strong>sure


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesAutres applications <strong>de</strong> ce nouvel estimateur <strong>de</strong> FEstimation <strong>de</strong> <strong>la</strong> <strong>de</strong>nsité <strong>de</strong> Y quand C et Y ne sont pasindép<strong>en</strong>dants (voir Lopez, 2007).Régression quantileTests non paramétriques d’adéquation (ext<strong>en</strong>sion <strong>de</strong> <strong>la</strong>procédure <strong>de</strong> Lopez et Patilea (2006), va<strong>la</strong>ble sous lesHypothèses fortes).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesAutres applications <strong>de</strong> ce nouvel estimateur <strong>de</strong> FEstimation <strong>de</strong> <strong>la</strong> <strong>de</strong>nsité <strong>de</strong> Y quand C et Y ne sont pasindép<strong>en</strong>dants (voir Lopez, 2007).Régression quantileTests non paramétriques d’adéquation (ext<strong>en</strong>sion <strong>de</strong> <strong>la</strong>procédure <strong>de</strong> Lopez et Patilea (2006), va<strong>la</strong>ble sous lesHypothèses fortes).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPropriétés asymptotiquesAutres applications <strong>de</strong> ce nouvel estimateur <strong>de</strong> FEstimation <strong>de</strong> <strong>la</strong> <strong>de</strong>nsité <strong>de</strong> Y quand C et Y ne sont pasindép<strong>en</strong>dants (voir Lopez, 2007).Régression quantileTests non paramétriques d’adéquation (ext<strong>en</strong>sion <strong>de</strong> <strong>la</strong>procédure <strong>de</strong> Lopez et Patilea (2006), va<strong>la</strong>ble sous lesHypothèses fortes).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xOutline1 Les conditions d’i<strong>de</strong>ntifiabilitéModèle <strong>de</strong> régression <strong>en</strong> prés<strong>en</strong>ce <strong>de</strong> c<strong>en</strong>sureLa c<strong>en</strong>sure dép<strong>en</strong>d-elle <strong>de</strong>s variables explicatives ?2 Modèle non linéaireDéfinitionIntégrales Kap<strong>la</strong>n-MeierEstimateur Kap<strong>la</strong>n-Meier conditionnel3 Nouvel estimateur <strong>de</strong> F(x, y)DéfinitionPropriétés asymptotiques4 Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆf


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralPrincipe généralOn supposeE[Y |X = x] = E[Y |X ′ θ 0 = x ′ θ 0 ] = f θ0 (x ′ θ 0 ).Modèle <strong>de</strong> Cox : cas particulier <strong>de</strong> modèle single-in<strong>de</strong>x.θ 0 vérifie, <strong>pour</strong> toute fonction J positive,ProcédureEstimer F par un estimateur ˆFEstimer non paramétriquem<strong>en</strong>t f θ (u).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralPrincipe généralOn supposeE[Y |X = x] = E[Y |X ′ θ 0 = x ′ θ 0 ] = f θ0 (x ′ θ 0 ).Modèle <strong>de</strong> Cox : cas particulier <strong>de</strong> modèle single-in<strong>de</strong>x.θ 0 vérifie, <strong>pour</strong> toute fonction J positive,ProcédureEstimer F par un estimateur ˆFEstimer non paramétriquem<strong>en</strong>t f θ (u).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralPrincipe généralOn supposeE[Y |X = x] = E[Y |X ′ θ 0 = x ′ θ 0 ] = f θ0 (x ′ θ 0 ).Modèle <strong>de</strong> Cox : cas particulier <strong>de</strong> modèle single-in<strong>de</strong>x.θ 0 vérifie, <strong>pour</strong> toute fonction J positive,Procédure[]θ 0 = arg min E (Y − f θ (X ′ θ)) 2 J(X) = M(θ, f )θ∈Θ∫= arg min [y − f θ (x ′ θ)] 2 J(x)dF(x, y).θ∈ΘEstimer F par un estimateur ˆFEstimer non paramétriquem<strong>en</strong>t f θ (u).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralPrincipe généralOn supposeE[Y |X = x] = E[Y |X ′ θ 0 = x ′ θ 0 ] = f θ0 (x ′ θ 0 ).Modèle <strong>de</strong> Cox : cas particulier <strong>de</strong> modèle single-in<strong>de</strong>x.θ 0 vérifie, <strong>pour</strong> toute fonction J positive,Procédure[]θ 0 = arg min E (Y − f θ (X ′ θ)) 2 J(X) = M(θ, f )θ∈Θ∫= arg min [y − f θ (x ′ θ)] 2 J(x)dF(x, y).θ∈ΘEstimer F par un estimateur ˆFEstimer non paramétriquem<strong>en</strong>t f θ (u).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralPrincipe généralOn supposeE[Y |X = x] = E[Y |X ′ θ 0 = x ′ θ 0 ] = f θ0 (x ′ θ 0 ).Modèle <strong>de</strong> Cox : cas particulier <strong>de</strong> modèle single-in<strong>de</strong>x.θ 0 vérifie, <strong>pour</strong> toute fonction J positive,Procédure[]θ 0 = arg min E (Y − f θ (X ′ θ)) 2 J(X) = M(θ, f )θ∈Θ∫= arg min [y − f θ (x ′ θ)] 2 J(x)dF(x, y).θ∈ΘEstimer F par un estimateur ˆFEstimer non paramétriquem<strong>en</strong>t f θ (u).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralExemple d’estimateur <strong>pour</strong> f θ (u)Estimateur à noyau :ˆfθ (u) =∫yK1 ([θ ′ x − u]/h 1 )d ˆF(x, y)∫K1 ([θ ′ x − u]/h 1 )d ˆF(x, y) .Possibilité d’utiliser d’autres types d’estimateurs.Par <strong>la</strong> suite, on obti<strong>en</strong>t un certain nombre <strong>de</strong> conditionsque doiv<strong>en</strong>t vérifier ces estimateurs paramétriques.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xPrincipe généralNormalité asymptotique <strong>de</strong> ˆθ∫ˆθ = arg minθ∈Θ(y −ˆf θ (x ′ θ)) 2 J(x)d ˆF(x, y) = arg minθ∈Θ M n(θ,ˆf ).Normalité asymptotiqueSous <strong>de</strong>s conditions <strong>de</strong> mom<strong>en</strong>ts, sur <strong>la</strong> distribution <strong>de</strong> <strong>la</strong>c<strong>en</strong>sure, et sur ˆfM n (θ,ˆf ) = M n (θ, f ) + termes negligeables.On <strong>en</strong> déduitn 1/2 (ˆθ − θ 0)⇒ N (0, σ 2 ).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfSous les Hypothèses faiblesConverg<strong>en</strong>ce uniformesup |ˆf θ (u) − f θ (u)| = o P (1),θ∈Θ,u∈U δsup |∇ θˆfθ (θ, x) − ∇ θ f θ (θ, x)| = o P (1),θ∈Θ,x∈X δsupθ∈Θ,x∈X δ|∇ 2 θˆf θ (θ, x) − ∇ 2 θ f θ(θ, x)| = o P (1).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfSous les Hypothèses faiblesVitesse <strong>de</strong> converg<strong>en</strong>ce <strong>en</strong> θ 0supu∈U δ|ˆf θ0 (u) − f θ0 (u)| = O P (ε n ),sup |∇ θˆfθ0 (θ 0 , x) − ∇ θ f θ0 (θ 0 , x)| = O P (ε ′ n),x∈X δavec εε ′ n = o(n −1/2 ).


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfSous les Hypothèses faiblesC<strong>la</strong>sses <strong>de</strong> DonskerSoit U ⊂ R = {θ ′ x, θ ∈ Θ, x ∈ X }. Pour M > 0,f θ0 (·) ∈ H 1 = C 1 (U, M),∇ θ f (θ 0 , ·) ∈ H 2 = xC 1 (U, M) + C 1 (U, M).Pour <strong>la</strong> c<strong>la</strong>sse C α (U, M) <strong>de</strong>s fonctions sur U ⊂ R pα−différ<strong>en</strong>tiables, différ<strong>en</strong>tielles bornées par M. On a( ) 1 p/αlog N [] (ε, C α (U, M)) ≤ Kε


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfSous les Hypothèses faiblesC<strong>la</strong>sses <strong>de</strong> DonskerSoit U ⊂ R = {θ ′ x, θ ∈ Θ, x ∈ X }. Pour M > 0,f θ0 (·) ∈ H 1 = C 1 (U, M),∇ θ f (θ 0 , ·) ∈ H 2 = xC 1 (U, M) + C 1 (U, M).Pour <strong>la</strong> c<strong>la</strong>sse C α (U, M) <strong>de</strong>s fonctions sur U ⊂ R pα−différ<strong>en</strong>tiables, différ<strong>en</strong>tielles bornées par M. On a( ) 1 p/αlog N [] (ε, C α (U, M)) ≤ Kε


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfBi<strong>la</strong>nOn obti<strong>en</strong>t, sous les hypothèses fortes ou faibles,n 1/2 (ˆθ − θ 0 ) ⇒ N (0, σ 2 (φ)).Utilisation <strong>de</strong> ˆθ <strong>pour</strong> estimer E[Y |X] = E[Y |X ′ θ 0 ].Estimation <strong>de</strong> F(y|X ′ θ 0 ).Choix du paramètre h 1 :possibilité d’adapter <strong>la</strong> métho<strong>de</strong> <strong>de</strong> Härdle, Hall, Ichimura"Optimal smoothing in single-in<strong>de</strong>x mo<strong>de</strong>ls". Ann. Statist.(1993) Sous les hypothèses fortes, on peut choisirh 1 = O(n −1/5 ).Sous les Hypothèse fortes, autre métho<strong>de</strong> :Burke, M. D. & Lu, X. (2005). C<strong>en</strong>sored multiple regressionby the method of average <strong>de</strong>rivatives. J. Multivariate Anal.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfBi<strong>la</strong>nOn obti<strong>en</strong>t, sous les hypothèses fortes ou faibles,n 1/2 (ˆθ − θ 0 ) ⇒ N (0, σ 2 (φ)).Utilisation <strong>de</strong> ˆθ <strong>pour</strong> estimer E[Y |X] = E[Y |X ′ θ 0 ].Estimation <strong>de</strong> F(y|X ′ θ 0 ).Choix du paramètre h 1 :possibilité d’adapter <strong>la</strong> métho<strong>de</strong> <strong>de</strong> Härdle, Hall, Ichimura"Optimal smoothing in single-in<strong>de</strong>x mo<strong>de</strong>ls". Ann. Statist.(1993) Sous les hypothèses fortes, on peut choisirh 1 = O(n −1/5 ).Sous les Hypothèse fortes, autre métho<strong>de</strong> :Burke, M. D. & Lu, X. (2005). C<strong>en</strong>sored multiple regressionby the method of average <strong>de</strong>rivatives. J. Multivariate Anal.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfBi<strong>la</strong>nOn obti<strong>en</strong>t, sous les hypothèses fortes ou faibles,n 1/2 (ˆθ − θ 0 ) ⇒ N (0, σ 2 (φ)).Utilisation <strong>de</strong> ˆθ <strong>pour</strong> estimer E[Y |X] = E[Y |X ′ θ 0 ].Estimation <strong>de</strong> F(y|X ′ θ 0 ).Choix du paramètre h 1 :possibilité d’adapter <strong>la</strong> métho<strong>de</strong> <strong>de</strong> Härdle, Hall, Ichimura"Optimal smoothing in single-in<strong>de</strong>x mo<strong>de</strong>ls". Ann. Statist.(1993) Sous les hypothèses fortes, on peut choisirh 1 = O(n −1/5 ).Sous les Hypothèse fortes, autre métho<strong>de</strong> :Burke, M. D. & Lu, X. (2005). C<strong>en</strong>sored multiple regressionby the method of average <strong>de</strong>rivatives. J. Multivariate Anal.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfBi<strong>la</strong>nOn obti<strong>en</strong>t, sous les hypothèses fortes ou faibles,n 1/2 (ˆθ − θ 0 ) ⇒ N (0, σ 2 (φ)).Utilisation <strong>de</strong> ˆθ <strong>pour</strong> estimer E[Y |X] = E[Y |X ′ θ 0 ].Estimation <strong>de</strong> F(y|X ′ θ 0 ).Choix du paramètre h 1 :possibilité d’adapter <strong>la</strong> métho<strong>de</strong> <strong>de</strong> Härdle, Hall, Ichimura"Optimal smoothing in single-in<strong>de</strong>x mo<strong>de</strong>ls". Ann. Statist.(1993) Sous les hypothèses fortes, on peut choisirh 1 = O(n −1/5 ).Sous les Hypothèse fortes, autre métho<strong>de</strong> :Burke, M. D. & Lu, X. (2005). C<strong>en</strong>sored multiple regressionby the method of average <strong>de</strong>rivatives. J. Multivariate Anal.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfBi<strong>la</strong>nOn obti<strong>en</strong>t, sous les hypothèses fortes ou faibles,n 1/2 (ˆθ − θ 0 ) ⇒ N (0, σ 2 (φ)).Utilisation <strong>de</strong> ˆθ <strong>pour</strong> estimer E[Y |X] = E[Y |X ′ θ 0 ].Estimation <strong>de</strong> F(y|X ′ θ 0 ).Choix du paramètre h 1 :possibilité d’adapter <strong>la</strong> métho<strong>de</strong> <strong>de</strong> Härdle, Hall, Ichimura"Optimal smoothing in single-in<strong>de</strong>x mo<strong>de</strong>ls". Ann. Statist.(1993) Sous les hypothèses fortes, on peut choisirh 1 = O(n −1/5 ).Sous les Hypothèse fortes, autre métho<strong>de</strong> :Burke, M. D. & Lu, X. (2005). C<strong>en</strong>sored multiple regressionby the method of average <strong>de</strong>rivatives. J. Multivariate Anal.


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfComparaison avec les métho<strong>de</strong>s existantesConfig 1 Config 2 Config 3ε ∼ N (0, 2) ε ∼ N (0, 1) ε ∼ N (0, 1/16)X ∼ U[−2; 2] ⊗ U[−2; 2] X ∼ U[0; 1] ⊗ U[0; 1] X ∼ B(0.6) ⊗ U[−1; 1]f (θ ′ x; θ) = 1/2(θ ′ x) 2 + 1 f (θ ′ x; θ) = 2e(0.5θ′ x)θ ′ xf (θ ′ x; θ) = 1 + 0.1(θ ′ x) 2−0.2(θ ′ x − 1)θ 0 = (1, 1) ′ θ 0 = (1, 2) ′ θ 0 = (1, 2) ′C ∼ U[0, λ 1 ] C ∼ E(λ 2 ) C ∼ E(λ 3 )


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfConfig 1 n = 50 n = 100λ 1 = 1.17 ˆθ AD 3.3285 × 10 −2 1.8236 × 10 −2ˆθ MC 3.8088 × 10 −5 2.9482 × 10 −5λ 1 = 0.1 ˆθAD 7.4870 × 10 −2 5.0438 × 10 −2ˆθ MC 1.3010 × 10 −4 3.7669 × 10 −5Config 2 n = 50 n = 100λ 2 = 0.1 ˆθ AD 3.3522 × 10 −1 2.8713 × 10 −1ˆθ MC 7.8301 × 10 −3 7.7180 × 10 −3λ 2 = 0.05 ˆθAD 1.5553 1.5223ˆθ MC 1.5100 × 10 −2 1.2013 × 10 −2Config 3 n = 50 n = 100λ 3 = 4 ˆθ AD > 10 > 10ˆθ MC 3.3124 × 10 −4 2.8984 × 10 −4λ 3 = 2 ˆθ AD > 10 > 10ˆθ MC 1.1431 × 10 −2 2.4111 × 10 −4


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfConclusion et perspectivesEstimateur <strong>de</strong> <strong>la</strong> fonction <strong>de</strong> répartition : application àd’autres modèles <strong>de</strong> régression (régression quantile),utilisation <strong>pour</strong> <strong>de</strong>s tests d’adéquation...Sous les Hypothèses faibles : outils qui permett<strong>en</strong>td’<strong>en</strong>visager <strong>de</strong>s modèles <strong>de</strong> régression avec régresseursmultivariésPossibilité <strong>de</strong> considérer <strong>de</strong>s variables explicativesdiscrètesLes résultats peuv<strong>en</strong>t être adaptés aux techniques <strong>de</strong>régression dites "synthetic data" (voir Delecroix, Lopez,Patilea, 2006).Données réelles : Stanford Heart Transp<strong>la</strong>nt Data, PBCdata (étu<strong>de</strong> <strong>en</strong> cours)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfConclusion et perspectivesEstimateur <strong>de</strong> <strong>la</strong> fonction <strong>de</strong> répartition : application àd’autres modèles <strong>de</strong> régression (régression quantile),utilisation <strong>pour</strong> <strong>de</strong>s tests d’adéquation...Sous les Hypothèses faibles : outils qui permett<strong>en</strong>td’<strong>en</strong>visager <strong>de</strong>s modèles <strong>de</strong> régression avec régresseursmultivariésPossibilité <strong>de</strong> considérer <strong>de</strong>s variables explicativesdiscrètesLes résultats peuv<strong>en</strong>t être adaptés aux techniques <strong>de</strong>régression dites "synthetic data" (voir Delecroix, Lopez,Patilea, 2006).Données réelles : Stanford Heart Transp<strong>la</strong>nt Data, PBCdata (étu<strong>de</strong> <strong>en</strong> cours)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfConclusion et perspectivesEstimateur <strong>de</strong> <strong>la</strong> fonction <strong>de</strong> répartition : application àd’autres modèles <strong>de</strong> régression (régression quantile),utilisation <strong>pour</strong> <strong>de</strong>s tests d’adéquation...Sous les Hypothèses faibles : outils qui permett<strong>en</strong>td’<strong>en</strong>visager <strong>de</strong>s modèles <strong>de</strong> régression avec régresseursmultivariésPossibilité <strong>de</strong> considérer <strong>de</strong>s variables explicativesdiscrètesLes résultats peuv<strong>en</strong>t être adaptés aux techniques <strong>de</strong>régression dites "synthetic data" (voir Delecroix, Lopez,Patilea, 2006).Données réelles : Stanford Heart Transp<strong>la</strong>nt Data, PBCdata (étu<strong>de</strong> <strong>en</strong> cours)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfConclusion et perspectivesEstimateur <strong>de</strong> <strong>la</strong> fonction <strong>de</strong> répartition : application àd’autres modèles <strong>de</strong> régression (régression quantile),utilisation <strong>pour</strong> <strong>de</strong>s tests d’adéquation...Sous les Hypothèses faibles : outils qui permett<strong>en</strong>td’<strong>en</strong>visager <strong>de</strong>s modèles <strong>de</strong> régression avec régresseursmultivariésPossibilité <strong>de</strong> considérer <strong>de</strong>s variables explicativesdiscrètesLes résultats peuv<strong>en</strong>t être adaptés aux techniques <strong>de</strong>régression dites "synthetic data" (voir Delecroix, Lopez,Patilea, 2006).Données réelles : Stanford Heart Transp<strong>la</strong>nt Data, PBCdata (étu<strong>de</strong> <strong>en</strong> cours)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfConclusion et perspectivesEstimateur <strong>de</strong> <strong>la</strong> fonction <strong>de</strong> répartition : application àd’autres modèles <strong>de</strong> régression (régression quantile),utilisation <strong>pour</strong> <strong>de</strong>s tests d’adéquation...Sous les Hypothèses faibles : outils qui permett<strong>en</strong>td’<strong>en</strong>visager <strong>de</strong>s modèles <strong>de</strong> régression avec régresseursmultivariésPossibilité <strong>de</strong> considérer <strong>de</strong>s variables explicativesdiscrètesLes résultats peuv<strong>en</strong>t être adaptés aux techniques <strong>de</strong>régression dites "synthetic data" (voir Delecroix, Lopez,Patilea, 2006).Données réelles : Stanford Heart Transp<strong>la</strong>nt Data, PBCdata (étu<strong>de</strong> <strong>en</strong> cours)


Les conditions d’i<strong>de</strong>ntifiabilité Modèle non linéaire Nouvel estimateur <strong>de</strong> F (x, y) Modèle <strong>de</strong> régression single-in<strong>de</strong>xHypothèses <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong> ˆfMerci <strong>de</strong> votre att<strong>en</strong>tion !

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!