Introduction aux problèmes mal posés. - LAAS CNRS
Introduction aux problèmes mal posés. - LAAS CNRS
Introduction aux problèmes mal posés. - LAAS CNRS
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
<strong>Introduction</strong> <strong>aux</strong> <strong>problèmes</strong> <strong>mal</strong> <strong>posés</strong>.<br />
Lionel Ségui<br />
GdT Ignotus <strong>LAAS</strong>-<strong>CNRS</strong><br />
18 janvier 2007
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Qu’est-ce qu’un problème bien posé ?<br />
La notion de problème bien posé (Hadamard).<br />
Soit A : U ⊂ X → Y un opérateur, X et Y espaces normés.<br />
L’équation<br />
Aϕ = f<br />
est dite bien posée si :<br />
la solution ϕ existe pour tout f de Y (surjectivité de A),<br />
elle est unique (injectivité de A),<br />
elle dépend continûment de la donnée f :<br />
∀ε > 0, ∃δ tel que ∣ ∣f − f ′∣ ∣<br />
Y<br />
< δ ⇒ ∣ ∣ϕ − ϕ ′∣ ∣<br />
X<br />
< ε, avec Aϕ ′ = f ′ .<br />
Sinon, on dit que l’équation est <strong>mal</strong> posée.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Exemple typique : les opérateurs compacts en dimension<br />
infinie.<br />
Opérateur compact : l’image d’un borné est relativement compacte<br />
(i.e. d’adhérence compacte).<br />
Théorème<br />
Soit A : U ⊂ X → Y opérateur compact continu, X et Y espaces<br />
normés. Alors si U est de dimension infinie, l’équation Aϕ = f est<br />
<strong>mal</strong> posée.<br />
En dimension ∞, l’inverse d’un opérateur compact n’est pas<br />
continu.<br />
Conséquence : lorsqu’on recherche une solution approchée, plus on<br />
va rechercher une approximation de qualité (dimension finie<br />
d’espace ↗), plus le problème approché va être <strong>mal</strong> conditionné<br />
(instabilités rédhibitoires)⇒ nécessité de régulariser.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Construire des solutions approchées stables <strong>aux</strong> <strong>problèmes</strong><br />
<strong>mal</strong> <strong>posés</strong>.<br />
A injectif ; connaissant un second membre perturbé f δ avec un<br />
niveau d’erreur connu ∣ ∣∣f δ − f ∣ ≤ δ,<br />
Y<br />
on souhaite approximer la solution ϕ de Aϕ = f .<br />
f ∈ A(X ) = Im(A) := {Aϕ : ϕ ∈ X } ⇒ ∃! solution de Aϕ = f<br />
Par contre rien ne dit que f δ ∈ A(X ) ! Connaissant f δ , on souhaite<br />
contruire ϕ δ approximation stable de ϕ solution de Aϕ = f : il faut<br />
approximer l’opérateur inverse non borné A −1 : A(X ) → X par<br />
l’opérateur borné R : Y → X .
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Définition<br />
Soit A : X → Y (espaces normés) un opérateur linéaire borné<br />
injectif. La famille des opérateurs linéaires bornés R α : Y → X ,<br />
α > 0, telle que<br />
lim<br />
α→0 R αAϕ = ϕ<br />
pour tout ϕ ∈ X (convergence simple) est appelée "schéma<br />
régularisant de l’opérateur A".<br />
α : paramètre de régularisation.<br />
Si A est un opérateur compact en dimension ∞, alors la<br />
convergence simple<br />
R α f α→0 −→ A −1 f<br />
ne peut pas être uniforme.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
On approxime la solution ϕ de Aϕ = f par la solution régularisée<br />
Alors<br />
ϕ δ α = R α f δ .<br />
ϕ δ α − ϕ = R α f δ − R α f + R α Aϕ − ϕ<br />
⇒ ∣ ∣ϕ δ α − ϕ ∣ ∣<br />
X<br />
≤ δ ‖R α ‖ + |R α Aϕ − ϕ| X<br />
.<br />
Le premier terme croît lorsque α → 0 alors que le deuxième décroît.<br />
Pour que le schéma soit opti<strong>mal</strong>, on choisit α(δ) minimisant<br />
∣ ϕ<br />
δ<br />
α − ϕ ∣ X<br />
.<br />
Définition<br />
Le schéma régularisant R α , α > 0 est dit régulier si pour tout<br />
f ∈ A(X ) et f δ ∈ Y tels que ∣ ∣f − f δ∣ ∣<br />
Y<br />
≤ δ on a<br />
R α(δ) f δ → A −1 f lorsque δ → 0.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Principe de décalage de Morozov.<br />
Principe<br />
Si l’on considère des données bruitées, le résidu ‖Aϕ − f ‖ Y ne peut<br />
être inférieur à la précision de mesure δ de f : le paramètre α est<br />
ainsi choisi de sorte que<br />
‖AR α f δ − f δ ‖ Y = γδ, avec γ ≥ 1.<br />
Ce principe est théoriquement essentiel, mais d’un intérêt pratique<br />
limité : il permet, lors de la recherche (souvent empirique) de la<br />
régularisation opti<strong>mal</strong>e à niveau de bruit δ fixé de définir un critère<br />
"quantitatif" d’arrêt.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Généralisation de la décomposition spectrale des opérateurs<br />
compacts autoadjoints.<br />
Théorème<br />
X espace de Hilbert. Soit A : X → X opérateur compact<br />
autoadjoint<br />
(Aϕ, ψ) = (ϕ, Aψ) , ∀ϕ, ψ ∈ X ,<br />
avec A ≠ 0. Alors les valeurs propres de A sont réelles. L’opérateur<br />
A possède au moins une valeur propre non nulle, et au plus un<br />
ensemble dénombrable de valeurs propres de point d’accumulation<br />
zéro.<br />
Ces valeurs propres ≠ 0 ont une multiplicité finie, i.e. leurs<br />
sous-espaces propres associés sont de dimension finie, et les<br />
vecteurs propres correspondant à des valeurs propres distinctes sont<br />
orthogon<strong>aux</strong> entre eux.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
On ordonne ces v.p. non nulles de la manière suivante :<br />
|λ 1 | ≥ |λ 2 | ≥ |λ 3 | ≥ ...,<br />
chaque valeur propre étant répétée selon sa multiplicité. On pose<br />
(ϕ n ) n<br />
la suite orthonor<strong>mal</strong>e des vecteurs propres correspondants.<br />
Chaque ϕ ∈ X peut s’écrire<br />
ϕ =<br />
∞∑<br />
(ϕ, ϕ n ) ϕ n + Qϕ,<br />
n=1<br />
où Q : X → N(A) désigne la projection orthogonale de X sur<br />
N(A) = {ϕ ∈ X : Aϕ = 0}. Alors (décomposition spectrale de A)<br />
Aϕ =<br />
∞∑<br />
λ n (ϕ, ϕ n ) ϕ n .<br />
n=1
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Opérateurs compacts quelconques<br />
A : X → Y opérateur borné, X et Y Hilberts.<br />
Définition<br />
Il existe un unique opérateur borné A ∗ : Y → X (adjoint de A) tel<br />
que<br />
(Aϕ, ψ) Y<br />
= (ϕ, A ∗ ψ) X<br />
, ∀ϕ ∈ X et ψ ∈ Y<br />
Propriétés :<br />
A(X ) ⊥ = N(A ∗ ) et N(A ∗ ) ⊥ = A(X ).<br />
Si A : X → Y est un opérateur compact linéaire, alors A ∗ est<br />
également compact.<br />
l’opérateur A ∗ A : X → X est un opérateur compact<br />
autoadjoint positif :<br />
(A ∗ Aϕ, ϕ) X<br />
= (Aϕ, Aϕ) Y<br />
= (ϕ, A ∗ Aϕ) X<br />
≥ 0
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Les racines carrées (réels positifs) des valeurs propres de A ∗ A sont<br />
appelées valeurs singulières de A, ordonnées de la manière suivante :<br />
µ 1 ≥ µ 2 ≥ µ 3 ≥ ...,<br />
en répétant les multiplicités conformément à dim ( µ 2 nI − A ∗ A ) .<br />
Alors il existe des suites orthonor<strong>mal</strong>es (ϕ n ) n<br />
de X et (g n ) n<br />
de Y<br />
telles que<br />
Aϕ n = µ n g n et A ∗ g n = µ n ϕ n , ∀n ∈ N<br />
Pour tout ϕ ∈ X , on a la décomposition en valeurs singulières<br />
∞∑<br />
ϕ = (ϕ, ϕ n ) ϕ n + Qϕ,<br />
n=1<br />
où Q désigne la projection de X sur N(A) noyau de A, et<br />
∞∑<br />
Aϕ = µ n (ϕ, ϕ n ) g n .<br />
n=1<br />
(µ n , ϕ n , g n ) : système singulier de A.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Le théorème de Picard<br />
Théorème<br />
Soit A : X → Y un opérateur compact linéaire de système singulier<br />
(µ n , ϕ n , g n ) n<br />
. L’équation<br />
Aϕ = f<br />
peut être résolue ssi f ∈ N(A ∗ ) ⊥ = A(X ), et vérifie<br />
∞∑<br />
1<br />
µ 2 n=1 n<br />
Une solution est alors donnée par<br />
ϕ =<br />
∞∑<br />
n=1<br />
|(f , g n ) Y<br />
| 2 < ∞.<br />
1<br />
µ n<br />
(f , g n ) Y<br />
ϕ n .
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
En effet, µ n (ϕ, ϕ n ) X<br />
= (ϕ, A ∗ g n ) X<br />
= (Aϕ, g n ) Y<br />
= (f , g n ) Y<br />
.<br />
Le théorème de Picard illustre bien la nature <strong>mal</strong> posée de<br />
l’équation Aϕ = f : un second membre perturbé f δ = f + δg n<br />
donne la solution perturbée ϕ δ = ϕ + δϕ n /µ n . Alors le rapport<br />
∣<br />
∣ϕ δ − ϕ ∣ ∣<br />
X<br />
|f δ − f | Y<br />
= 1 µ n<br />
peut être rendu aussi grand que l’on veut puisque les valeurs<br />
singulières tendent vers zéro ! Idée : régulariser en amortissant ou<br />
en filtrant l’influence des 1/µ n de manière sélective.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Théorème<br />
Soit A : X → Y un opérateur injectif compact linéaire de système<br />
singulier (µ n , ϕ n , g n ) n<br />
, et soit q : (0, ∞) × (0, ‖A‖] → R une<br />
fonction bornée telle que pour tout α > 0 il existe une constante<br />
positive c(α) avec<br />
|q (α, µ)| ≤ c(α)µ, 0 ≤ µ ≤ ‖A‖ ,<br />
et lim α→0 q (α, µ) = 1, 0 ≤ µ ≤ ‖A‖. Alors les opérateurs linéaires<br />
bornés R α : Y → X , α > 0, définis par<br />
R α f :=<br />
∞∑<br />
n=1<br />
1<br />
µ n<br />
q (α, µ n ) (f , g n ) Y<br />
ϕ n , f ∈ Y<br />
décrivent un schéma régularisant avec ‖R α ‖ ≤ c(α).
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Pour α fixé, q(α, µ) représente une "unité approchée", qui<br />
joue le rôle d’un filtre : on la souhaite proche de 1 si µ<br />
"grand", et telle que q(α, µ)/µ reste borné lorsque µ → 0.<br />
Deux exemples :<br />
La coupure spectrale,<br />
La régularisation de Tychonov.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Soit α = 1/m ; on pose<br />
( ) 1<br />
q<br />
m , µ n =<br />
{ 1 si n ≤ m<br />
0 si n > m.<br />
Théorème<br />
Soit A : X → Y un opérateur injectif compact linéaire de système<br />
singulier (µ n , ϕ n , g n ) n<br />
. Alors la coupure spectrale<br />
R m f :=<br />
∑<br />
µ n≥µ m<br />
1<br />
µ n<br />
(f , g n ) Y<br />
ϕ n<br />
décrit un schéma régularisant de paramètre m, et ‖R m ‖ = 1/µ m .
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Principe de décalage pour la coupure spectrale.<br />
Théorème<br />
Soit A : X → Y un opérateur compact linéaire injectif à image<br />
dense dans Y . Soit f ∈ A(X ), f δ ∈ Y tels que ∣ ∣ f − f<br />
δ ∣ ∣<br />
Y<br />
≤ δ, avec<br />
δ > 0, et soit γ > 1. Alors il existe un plus petit entier m = m(δ)<br />
tel que<br />
∣ ∣∣ARm<br />
f δ − f δ ∣ ∣∣Y<br />
≤ γδ<br />
soit vérifié, et<br />
R m(δ) f δ → A −1 f , lorsque δ → 0 (alors m → ∞).
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Théorème<br />
Soit A : X → Y un opérateur linéaire compact. Alors pour chaque<br />
α > 0, l’opérateur αI + A ∗ A : X → X est bijectif et a un inverse<br />
borné. De plus, si A est injectif, alors<br />
R α := (αI + A ∗ A) −1 A ∗<br />
décrit un schéma régularisant, avec ‖R α ‖ ≤ 1/(2 √ α).<br />
L’opérateur A ∗ A étant autoadjoint positif, on a<br />
(αϕ + A ∗ Aϕ, ϕ) X<br />
≥ α |ϕ| 2 X<br />
⇒ si α > 0, alors αI + A ∗ A est bijectif.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Soit (µ n , ϕ n , g n ) n<br />
le système singulier de A, Q : X → N(A) la<br />
projection orthogonale. Alors T : X → X défini par<br />
T ϕ :=<br />
∞∑ 1<br />
α + µ 2 (ϕ, ϕ n ) ϕ n + 1<br />
n<br />
α Q (ϕ)<br />
n=1<br />
est borné et vérifie<br />
(αI + A ∗ A)T = T (αI + A ∗ A) = I ⇔ T = (αI + A ∗ A) −1 . Si A est<br />
injectif, alors Q = 0, et on déduit pour l’unique solution ϕ α de<br />
de (A ∗ f , ϕ n ) X<br />
= µ n (f , g n ) Y<br />
que<br />
ϕ α =<br />
αϕ α + A ∗ Aϕ α = A ∗ f ,<br />
∞∑ µ n<br />
α + µ 2 (f , g n ) Y ϕ n .<br />
n<br />
n=1
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Alors R α est bien un schéma régularisant, avec q(α, µ) = µ2<br />
α+µ 2 . La<br />
fonction q est bornée :<br />
0 < q(α, µ) < 1,<br />
et vérifie la condition q(α, µ) ≤ c(α)µ, avec c(α) = 1<br />
2α (car<br />
√ αµ ≤<br />
α+µ 2<br />
2<br />
).
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Interprétation de la régularisation de Tychonov en terme de<br />
problème d’optimisation sous contrainte.<br />
Théorème<br />
Soit A un opérateur compact linéaire et soit α > 0. Alors pour<br />
chaque f ∈ Y il existe un unique ϕ α ∈ X tel que<br />
|Aϕ α − f | 2 Y + α |ϕ α| 2 X = inf<br />
ϕ∈X |Aϕ − f |2 Y + α |ϕ|2 X .<br />
La valeur ϕ α est l’unique solution de<br />
et dépend continûment de f .<br />
αϕ α + A ∗ Aϕ α = A ∗ f ,
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Deux manières différentes d’interpréter ce problème d’optimisation :<br />
Pour δ > 0 donné, minimiser la norme |ϕ| X<br />
sous la contrainte<br />
|Aϕ − f | Y<br />
≤ δ (principe de décalage),<br />
Pour ρ > 0 donné, minimiser |Aϕ − f | Y<br />
sous la contrainte<br />
|ϕ| X<br />
≤ ρ (concept de quasi-solution).
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Le principe de décalage.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Théorème<br />
Soit A : X → Y un opérateur compact linéaire injectif à image<br />
∣dense dans Y . Soit f ∈ A(X ), f δ ∈ Y tels que<br />
∣f − f δ∣ ∣<br />
Y<br />
≤ δ ≤ ∣ ∣f δ∣ ∣<br />
Y<br />
, avec δ > 0. Alors il existe un unique<br />
paramètre α = α(δ) tel que<br />
∣<br />
∣<br />
∣AR α f δ − f δ ∣∣Y<br />
= δ,<br />
et R α(δ) f δ → A −1 f lorsque δ → 0.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Le concept de quasi-solution.<br />
La coupure spectrale.<br />
La régularisation de Tychonov.<br />
Idée : restreindre l’ensemble des solutions à un sous-ensemble de X ,<br />
et minimiser l’écart |Aϕ − f | Y<br />
sur cet ensemble.<br />
Théorème<br />
Soit A : X → Y un opérateur compact linéaire injectif et soit<br />
ρ > 0. Alors pour chaque f ∈ Y il existe un unique ϕ 0 ∈ X , avec<br />
|ϕ 0 | X<br />
≤ ρ, tel que<br />
|Aϕ 0 − f | Y<br />
≤ |Aϕ − f | Y<br />
, pour tout |ϕ| X<br />
≤ ρ.<br />
ϕ 0 : quasi-solution de Aϕ = f avec contrainte ρ.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Opérateurs non-linéaires.<br />
Théorème<br />
Soit A : U ⊂ X → Y un opérateur compact non-linéaire (aussi<br />
désigné par opérateur complètement continu) d’un ouvert U d’un<br />
espace normé X dans un espace de Banach Y . On suppose que A<br />
est différentiable au sens de Fréchet en ψ ∈ U. Alors la dérivée A ′ ψ<br />
est un opérateur compact.<br />
Ce résultat illustre le fait que la linéarisation d’un problème<br />
non-linéaire <strong>mal</strong> posé mène à un problème encore <strong>mal</strong>-posé.
Généralités.<br />
Méthodes de régularisation.<br />
Décomposition en valeurs singulières.<br />
Familles régularisantes.<br />
Opérateurs non-linéaires.<br />
Références.<br />
D. COLTON et R. KRESS. Inverse Acoustic and<br />
Electromagnetic Scattering Theory (Chapitre 4 : Ill-posed<br />
problems), volume 93 of Applied Mathematical Sciences,<br />
Springer Verlag.<br />
A. KIRSCH. An <strong>Introduction</strong> to the Mathematical Theory of<br />
Inverse Problems, volume 120 of Applied Mathematical<br />
Sciences, Springer Verlag.<br />
V. ISAKOV. Inverse Problems for Partial Differential<br />
Equations, volume 127 of Applied Mathematical Sciences,<br />
Springer Verlag.