03.11.2014 Views

Introduction aux problèmes mal posés. - LAAS CNRS

Introduction aux problèmes mal posés. - LAAS CNRS

Introduction aux problèmes mal posés. - LAAS CNRS

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

<strong>Introduction</strong> <strong>aux</strong> <strong>problèmes</strong> <strong>mal</strong> <strong>posés</strong>.<br />

Lionel Ségui<br />

GdT Ignotus <strong>LAAS</strong>-<strong>CNRS</strong><br />

18 janvier 2007


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Qu’est-ce qu’un problème bien posé ?<br />

La notion de problème bien posé (Hadamard).<br />

Soit A : U ⊂ X → Y un opérateur, X et Y espaces normés.<br />

L’équation<br />

Aϕ = f<br />

est dite bien posée si :<br />

la solution ϕ existe pour tout f de Y (surjectivité de A),<br />

elle est unique (injectivité de A),<br />

elle dépend continûment de la donnée f :<br />

∀ε > 0, ∃δ tel que ∣ ∣f − f ′∣ ∣<br />

Y<br />

< δ ⇒ ∣ ∣ϕ − ϕ ′∣ ∣<br />

X<br />

< ε, avec Aϕ ′ = f ′ .<br />

Sinon, on dit que l’équation est <strong>mal</strong> posée.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Exemple typique : les opérateurs compacts en dimension<br />

infinie.<br />

Opérateur compact : l’image d’un borné est relativement compacte<br />

(i.e. d’adhérence compacte).<br />

Théorème<br />

Soit A : U ⊂ X → Y opérateur compact continu, X et Y espaces<br />

normés. Alors si U est de dimension infinie, l’équation Aϕ = f est<br />

<strong>mal</strong> posée.<br />

En dimension ∞, l’inverse d’un opérateur compact n’est pas<br />

continu.<br />

Conséquence : lorsqu’on recherche une solution approchée, plus on<br />

va rechercher une approximation de qualité (dimension finie<br />

d’espace ↗), plus le problème approché va être <strong>mal</strong> conditionné<br />

(instabilités rédhibitoires)⇒ nécessité de régulariser.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Construire des solutions approchées stables <strong>aux</strong> <strong>problèmes</strong><br />

<strong>mal</strong> <strong>posés</strong>.<br />

A injectif ; connaissant un second membre perturbé f δ avec un<br />

niveau d’erreur connu ∣ ∣∣f δ − f ∣ ≤ δ,<br />

Y<br />

on souhaite approximer la solution ϕ de Aϕ = f .<br />

f ∈ A(X ) = Im(A) := {Aϕ : ϕ ∈ X } ⇒ ∃! solution de Aϕ = f<br />

Par contre rien ne dit que f δ ∈ A(X ) ! Connaissant f δ , on souhaite<br />

contruire ϕ δ approximation stable de ϕ solution de Aϕ = f : il faut<br />

approximer l’opérateur inverse non borné A −1 : A(X ) → X par<br />

l’opérateur borné R : Y → X .


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Définition<br />

Soit A : X → Y (espaces normés) un opérateur linéaire borné<br />

injectif. La famille des opérateurs linéaires bornés R α : Y → X ,<br />

α > 0, telle que<br />

lim<br />

α→0 R αAϕ = ϕ<br />

pour tout ϕ ∈ X (convergence simple) est appelée "schéma<br />

régularisant de l’opérateur A".<br />

α : paramètre de régularisation.<br />

Si A est un opérateur compact en dimension ∞, alors la<br />

convergence simple<br />

R α f α→0 −→ A −1 f<br />

ne peut pas être uniforme.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

On approxime la solution ϕ de Aϕ = f par la solution régularisée<br />

Alors<br />

ϕ δ α = R α f δ .<br />

ϕ δ α − ϕ = R α f δ − R α f + R α Aϕ − ϕ<br />

⇒ ∣ ∣ϕ δ α − ϕ ∣ ∣<br />

X<br />

≤ δ ‖R α ‖ + |R α Aϕ − ϕ| X<br />

.<br />

Le premier terme croît lorsque α → 0 alors que le deuxième décroît.<br />

Pour que le schéma soit opti<strong>mal</strong>, on choisit α(δ) minimisant<br />

∣ ϕ<br />

δ<br />

α − ϕ ∣ X<br />

.<br />

Définition<br />

Le schéma régularisant R α , α > 0 est dit régulier si pour tout<br />

f ∈ A(X ) et f δ ∈ Y tels que ∣ ∣f − f δ∣ ∣<br />

Y<br />

≤ δ on a<br />

R α(δ) f δ → A −1 f lorsque δ → 0.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Principe de décalage de Morozov.<br />

Principe<br />

Si l’on considère des données bruitées, le résidu ‖Aϕ − f ‖ Y ne peut<br />

être inférieur à la précision de mesure δ de f : le paramètre α est<br />

ainsi choisi de sorte que<br />

‖AR α f δ − f δ ‖ Y = γδ, avec γ ≥ 1.<br />

Ce principe est théoriquement essentiel, mais d’un intérêt pratique<br />

limité : il permet, lors de la recherche (souvent empirique) de la<br />

régularisation opti<strong>mal</strong>e à niveau de bruit δ fixé de définir un critère<br />

"quantitatif" d’arrêt.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Généralisation de la décomposition spectrale des opérateurs<br />

compacts autoadjoints.<br />

Théorème<br />

X espace de Hilbert. Soit A : X → X opérateur compact<br />

autoadjoint<br />

(Aϕ, ψ) = (ϕ, Aψ) , ∀ϕ, ψ ∈ X ,<br />

avec A ≠ 0. Alors les valeurs propres de A sont réelles. L’opérateur<br />

A possède au moins une valeur propre non nulle, et au plus un<br />

ensemble dénombrable de valeurs propres de point d’accumulation<br />

zéro.<br />

Ces valeurs propres ≠ 0 ont une multiplicité finie, i.e. leurs<br />

sous-espaces propres associés sont de dimension finie, et les<br />

vecteurs propres correspondant à des valeurs propres distinctes sont<br />

orthogon<strong>aux</strong> entre eux.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

On ordonne ces v.p. non nulles de la manière suivante :<br />

|λ 1 | ≥ |λ 2 | ≥ |λ 3 | ≥ ...,<br />

chaque valeur propre étant répétée selon sa multiplicité. On pose<br />

(ϕ n ) n<br />

la suite orthonor<strong>mal</strong>e des vecteurs propres correspondants.<br />

Chaque ϕ ∈ X peut s’écrire<br />

ϕ =<br />

∞∑<br />

(ϕ, ϕ n ) ϕ n + Qϕ,<br />

n=1<br />

où Q : X → N(A) désigne la projection orthogonale de X sur<br />

N(A) = {ϕ ∈ X : Aϕ = 0}. Alors (décomposition spectrale de A)<br />

Aϕ =<br />

∞∑<br />

λ n (ϕ, ϕ n ) ϕ n .<br />

n=1


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Opérateurs compacts quelconques<br />

A : X → Y opérateur borné, X et Y Hilberts.<br />

Définition<br />

Il existe un unique opérateur borné A ∗ : Y → X (adjoint de A) tel<br />

que<br />

(Aϕ, ψ) Y<br />

= (ϕ, A ∗ ψ) X<br />

, ∀ϕ ∈ X et ψ ∈ Y<br />

Propriétés :<br />

A(X ) ⊥ = N(A ∗ ) et N(A ∗ ) ⊥ = A(X ).<br />

Si A : X → Y est un opérateur compact linéaire, alors A ∗ est<br />

également compact.<br />

l’opérateur A ∗ A : X → X est un opérateur compact<br />

autoadjoint positif :<br />

(A ∗ Aϕ, ϕ) X<br />

= (Aϕ, Aϕ) Y<br />

= (ϕ, A ∗ Aϕ) X<br />

≥ 0


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Les racines carrées (réels positifs) des valeurs propres de A ∗ A sont<br />

appelées valeurs singulières de A, ordonnées de la manière suivante :<br />

µ 1 ≥ µ 2 ≥ µ 3 ≥ ...,<br />

en répétant les multiplicités conformément à dim ( µ 2 nI − A ∗ A ) .<br />

Alors il existe des suites orthonor<strong>mal</strong>es (ϕ n ) n<br />

de X et (g n ) n<br />

de Y<br />

telles que<br />

Aϕ n = µ n g n et A ∗ g n = µ n ϕ n , ∀n ∈ N<br />

Pour tout ϕ ∈ X , on a la décomposition en valeurs singulières<br />

∞∑<br />

ϕ = (ϕ, ϕ n ) ϕ n + Qϕ,<br />

n=1<br />

où Q désigne la projection de X sur N(A) noyau de A, et<br />

∞∑<br />

Aϕ = µ n (ϕ, ϕ n ) g n .<br />

n=1<br />

(µ n , ϕ n , g n ) : système singulier de A.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Le théorème de Picard<br />

Théorème<br />

Soit A : X → Y un opérateur compact linéaire de système singulier<br />

(µ n , ϕ n , g n ) n<br />

. L’équation<br />

Aϕ = f<br />

peut être résolue ssi f ∈ N(A ∗ ) ⊥ = A(X ), et vérifie<br />

∞∑<br />

1<br />

µ 2 n=1 n<br />

Une solution est alors donnée par<br />

ϕ =<br />

∞∑<br />

n=1<br />

|(f , g n ) Y<br />

| 2 < ∞.<br />

1<br />

µ n<br />

(f , g n ) Y<br />

ϕ n .


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

En effet, µ n (ϕ, ϕ n ) X<br />

= (ϕ, A ∗ g n ) X<br />

= (Aϕ, g n ) Y<br />

= (f , g n ) Y<br />

.<br />

Le théorème de Picard illustre bien la nature <strong>mal</strong> posée de<br />

l’équation Aϕ = f : un second membre perturbé f δ = f + δg n<br />

donne la solution perturbée ϕ δ = ϕ + δϕ n /µ n . Alors le rapport<br />

∣<br />

∣ϕ δ − ϕ ∣ ∣<br />

X<br />

|f δ − f | Y<br />

= 1 µ n<br />

peut être rendu aussi grand que l’on veut puisque les valeurs<br />

singulières tendent vers zéro ! Idée : régulariser en amortissant ou<br />

en filtrant l’influence des 1/µ n de manière sélective.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Théorème<br />

Soit A : X → Y un opérateur injectif compact linéaire de système<br />

singulier (µ n , ϕ n , g n ) n<br />

, et soit q : (0, ∞) × (0, ‖A‖] → R une<br />

fonction bornée telle que pour tout α > 0 il existe une constante<br />

positive c(α) avec<br />

|q (α, µ)| ≤ c(α)µ, 0 ≤ µ ≤ ‖A‖ ,<br />

et lim α→0 q (α, µ) = 1, 0 ≤ µ ≤ ‖A‖. Alors les opérateurs linéaires<br />

bornés R α : Y → X , α > 0, définis par<br />

R α f :=<br />

∞∑<br />

n=1<br />

1<br />

µ n<br />

q (α, µ n ) (f , g n ) Y<br />

ϕ n , f ∈ Y<br />

décrivent un schéma régularisant avec ‖R α ‖ ≤ c(α).


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Pour α fixé, q(α, µ) représente une "unité approchée", qui<br />

joue le rôle d’un filtre : on la souhaite proche de 1 si µ<br />

"grand", et telle que q(α, µ)/µ reste borné lorsque µ → 0.<br />

Deux exemples :<br />

La coupure spectrale,<br />

La régularisation de Tychonov.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Soit α = 1/m ; on pose<br />

( ) 1<br />

q<br />

m , µ n =<br />

{ 1 si n ≤ m<br />

0 si n > m.<br />

Théorème<br />

Soit A : X → Y un opérateur injectif compact linéaire de système<br />

singulier (µ n , ϕ n , g n ) n<br />

. Alors la coupure spectrale<br />

R m f :=<br />

∑<br />

µ n≥µ m<br />

1<br />

µ n<br />

(f , g n ) Y<br />

ϕ n<br />

décrit un schéma régularisant de paramètre m, et ‖R m ‖ = 1/µ m .


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Principe de décalage pour la coupure spectrale.<br />

Théorème<br />

Soit A : X → Y un opérateur compact linéaire injectif à image<br />

dense dans Y . Soit f ∈ A(X ), f δ ∈ Y tels que ∣ ∣ f − f<br />

δ ∣ ∣<br />

Y<br />

≤ δ, avec<br />

δ > 0, et soit γ > 1. Alors il existe un plus petit entier m = m(δ)<br />

tel que<br />

∣ ∣∣ARm<br />

f δ − f δ ∣ ∣∣Y<br />

≤ γδ<br />

soit vérifié, et<br />

R m(δ) f δ → A −1 f , lorsque δ → 0 (alors m → ∞).


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Théorème<br />

Soit A : X → Y un opérateur linéaire compact. Alors pour chaque<br />

α > 0, l’opérateur αI + A ∗ A : X → X est bijectif et a un inverse<br />

borné. De plus, si A est injectif, alors<br />

R α := (αI + A ∗ A) −1 A ∗<br />

décrit un schéma régularisant, avec ‖R α ‖ ≤ 1/(2 √ α).<br />

L’opérateur A ∗ A étant autoadjoint positif, on a<br />

(αϕ + A ∗ Aϕ, ϕ) X<br />

≥ α |ϕ| 2 X<br />

⇒ si α > 0, alors αI + A ∗ A est bijectif.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Soit (µ n , ϕ n , g n ) n<br />

le système singulier de A, Q : X → N(A) la<br />

projection orthogonale. Alors T : X → X défini par<br />

T ϕ :=<br />

∞∑ 1<br />

α + µ 2 (ϕ, ϕ n ) ϕ n + 1<br />

n<br />

α Q (ϕ)<br />

n=1<br />

est borné et vérifie<br />

(αI + A ∗ A)T = T (αI + A ∗ A) = I ⇔ T = (αI + A ∗ A) −1 . Si A est<br />

injectif, alors Q = 0, et on déduit pour l’unique solution ϕ α de<br />

de (A ∗ f , ϕ n ) X<br />

= µ n (f , g n ) Y<br />

que<br />

ϕ α =<br />

αϕ α + A ∗ Aϕ α = A ∗ f ,<br />

∞∑ µ n<br />

α + µ 2 (f , g n ) Y ϕ n .<br />

n<br />

n=1


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Alors R α est bien un schéma régularisant, avec q(α, µ) = µ2<br />

α+µ 2 . La<br />

fonction q est bornée :<br />

0 < q(α, µ) < 1,<br />

et vérifie la condition q(α, µ) ≤ c(α)µ, avec c(α) = 1<br />

2α (car<br />

√ αµ ≤<br />

α+µ 2<br />

2<br />

).


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Interprétation de la régularisation de Tychonov en terme de<br />

problème d’optimisation sous contrainte.<br />

Théorème<br />

Soit A un opérateur compact linéaire et soit α > 0. Alors pour<br />

chaque f ∈ Y il existe un unique ϕ α ∈ X tel que<br />

|Aϕ α − f | 2 Y + α |ϕ α| 2 X = inf<br />

ϕ∈X |Aϕ − f |2 Y + α |ϕ|2 X .<br />

La valeur ϕ α est l’unique solution de<br />

et dépend continûment de f .<br />

αϕ α + A ∗ Aϕ α = A ∗ f ,


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Deux manières différentes d’interpréter ce problème d’optimisation :<br />

Pour δ > 0 donné, minimiser la norme |ϕ| X<br />

sous la contrainte<br />

|Aϕ − f | Y<br />

≤ δ (principe de décalage),<br />

Pour ρ > 0 donné, minimiser |Aϕ − f | Y<br />

sous la contrainte<br />

|ϕ| X<br />

≤ ρ (concept de quasi-solution).


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Le principe de décalage.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Théorème<br />

Soit A : X → Y un opérateur compact linéaire injectif à image<br />

∣dense dans Y . Soit f ∈ A(X ), f δ ∈ Y tels que<br />

∣f − f δ∣ ∣<br />

Y<br />

≤ δ ≤ ∣ ∣f δ∣ ∣<br />

Y<br />

, avec δ > 0. Alors il existe un unique<br />

paramètre α = α(δ) tel que<br />

∣<br />

∣<br />

∣AR α f δ − f δ ∣∣Y<br />

= δ,<br />

et R α(δ) f δ → A −1 f lorsque δ → 0.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Le concept de quasi-solution.<br />

La coupure spectrale.<br />

La régularisation de Tychonov.<br />

Idée : restreindre l’ensemble des solutions à un sous-ensemble de X ,<br />

et minimiser l’écart |Aϕ − f | Y<br />

sur cet ensemble.<br />

Théorème<br />

Soit A : X → Y un opérateur compact linéaire injectif et soit<br />

ρ > 0. Alors pour chaque f ∈ Y il existe un unique ϕ 0 ∈ X , avec<br />

|ϕ 0 | X<br />

≤ ρ, tel que<br />

|Aϕ 0 − f | Y<br />

≤ |Aϕ − f | Y<br />

, pour tout |ϕ| X<br />

≤ ρ.<br />

ϕ 0 : quasi-solution de Aϕ = f avec contrainte ρ.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Opérateurs non-linéaires.<br />

Théorème<br />

Soit A : U ⊂ X → Y un opérateur compact non-linéaire (aussi<br />

désigné par opérateur complètement continu) d’un ouvert U d’un<br />

espace normé X dans un espace de Banach Y . On suppose que A<br />

est différentiable au sens de Fréchet en ψ ∈ U. Alors la dérivée A ′ ψ<br />

est un opérateur compact.<br />

Ce résultat illustre le fait que la linéarisation d’un problème<br />

non-linéaire <strong>mal</strong> posé mène à un problème encore <strong>mal</strong>-posé.


Généralités.<br />

Méthodes de régularisation.<br />

Décomposition en valeurs singulières.<br />

Familles régularisantes.<br />

Opérateurs non-linéaires.<br />

Références.<br />

D. COLTON et R. KRESS. Inverse Acoustic and<br />

Electromagnetic Scattering Theory (Chapitre 4 : Ill-posed<br />

problems), volume 93 of Applied Mathematical Sciences,<br />

Springer Verlag.<br />

A. KIRSCH. An <strong>Introduction</strong> to the Mathematical Theory of<br />

Inverse Problems, volume 120 of Applied Mathematical<br />

Sciences, Springer Verlag.<br />

V. ISAKOV. Inverse Problems for Partial Differential<br />

Equations, volume 127 of Applied Mathematical Sciences,<br />

Springer Verlag.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!