Skript

Skript Skript

wwwmath.uni.muenster.de
von wwwmath.uni.muenster.de Mehr von diesem Publisher
21.02.2014 Aufrufe

Operator (und damit σ n = λ n und u n = v n ), so erhält man (T + αI)x α = = = = ∞∑ (σ n + α)(x α , u n )u n n=1 ∞∑ ∞∑ (σ n + α)( n=1 ∞∑ n=1 m=1 m=1 1 σ m + α (y, v m)u m , u n )u n ∞∑ 1 (σ n + α) σ m + α (y, v m) (u m , u n ) } {{ } ∞∑ (y, u n )u n = y, , da u n = v n . n=1 =δ n,m u n Das heißt, die regularisierte Lösung läßt sich ohne Kenntniss des Singulärsystems berechnen als Lösung von (T + αI)x α = y. ≤ 1 α erhalten wir wieder C α = 1 α wieder konvergent, wenn gilt δ α → 0. Da 1 σ+α und die Regularisierung ist damit Beispiel 3.1.4. Tikhonov(-Phillips) Regularisierung In diesem Fall nehmen wir und damit x α := R α y = g α (σ) = ∞∑ n=1 σ σ 2 + α σ n σ 2 n + α (y, v n)u n , ∀y ∈ Y. Mit der Abschätzung σ 2 + α ≥ 2σ √ α erhalten wir g α (σ) ≤ C α := 1 2 √ α Wir erhalten daher als Bedingung für die Konvergenz der Methode δ √ α → 0. Genau wie bei der Lavrentiev-Regularisierung oben kann man auch hier wieder x α ohne Kenntniss des Singulärsystems berechenen. Man erhält: (T ∗ T + αI)x α = T ∗ y. Aus dieser Darstellung sehen wir, dass Tikhonov-Regularisierung nichts anderes ist als die Anwendung der Lavrentiev-Regularisierung auf die Gaußschen 33

Normalengleichungen. Außerdem ist diese Gleichung die erste Ordnung Optimalitätsbedingung des Funktionals J α (x) := ‖T x − y‖ 2 + α‖x‖ 2 → min x∈X , vgl. Differentiationsbsp. in Kapitel 1. Weiterhin ist J α strikt konvex für α > 0, denn es gilt J ′′ α(x)(φ, φ) := 2‖T φ‖ 2 + 2α‖φ‖ 2 > 0. Da außerdem lim ‖x‖→∞ J α (x) = ∞ gilt ist x α das eindeutige Minimum des Funktionals. Diese Darstellung der Tikhonovregularisierung erlaubt insbesondere die Erweiterung auf nichtlinear Operatoren! Als nächstes Betrachten wir den Fall, dass Fehlerbehaftete Daten y δ vorliegen (und benutzen die Natiation x δ α := R α y δ ). Für den Fehler gilt dann x † − x δ α = (x † − x α ) } {{ } + (x α − x δ } {{ α) } Fehler durch Reg. Fehler durch Datenfehler. Und mit der Dreiecksungleichung natürlich ‖x † − x δ α‖ ≤ ‖x † − x α ‖ + ‖x α − x δ α‖. Theorem 3.1.5. Sei g α : R + → R eine stückweise stetige Funktion und sei sup(σg α (σ)) ≤ γ, α,σ für konstantes γ ≥ 0. Sei weiterhin R α der Regularisierungoperator definiert in 3.3, dann gilt für alle y ∈ D(T † ) n=1 R α y → T † y für α → 0. Beweis. Nach der Singulärwertzerlegung gilt: ∞∑ ( R α y − T † y = g α (σ n ) − 1 ) ∞∑ (y, v n )u n = (σ n g α (σ n ) − 1) (x † , u n )u n . σ n Nach Vorraussetzung gilt ∥ ∞∑ ∥∥∥∥ (σ n g α (σ n ) − 1) (x † , u n )u n ≤ ∥ n=1 n=1 ∞∑ | (σ n g α (σ n ) − 1) (x † , u n )u n | ≤ (γ+1)‖x † ‖, und daher (nach dem Majorantenkriterium von Weierstrass) ∞∑ lim sup ‖R α y − T † y‖ ≤ lim sup (σ n g α (σ n ) − 1) 2 (x † , u n ) 2 α α ≤ ∞∑ n=1 n=1 n=1 ( lim α σ n g α (σ n ) − 1) 2 (x † , u n ) 2 . Aus der punktweisen Konvergenz von σg α (σ) → 1 folgern wir damit ‖R α y − T † y‖ → 0 für α → 0. 34

Normalengleichungen. Außerdem ist diese Gleichung die erste Ordnung Optimalitätsbedingung<br />

des Funktionals<br />

J α (x) := ‖T x − y‖ 2 + α‖x‖ 2 → min<br />

x∈X ,<br />

vgl. Differentiationsbsp. in Kapitel 1. Weiterhin ist J α strikt konvex für α > 0,<br />

denn es gilt<br />

J ′′<br />

α(x)(φ, φ) := 2‖T φ‖ 2 + 2α‖φ‖ 2 > 0.<br />

Da außerdem lim ‖x‖→∞ J α (x) = ∞ gilt ist x α das eindeutige Minimum des<br />

Funktionals. Diese Darstellung der Tikhonovregularisierung erlaubt insbesondere<br />

die Erweiterung auf nichtlinear Operatoren!<br />

Als nächstes Betrachten wir den Fall, dass Fehlerbehaftete Daten y δ vorliegen<br />

(und benutzen die Natiation x δ α := R α y δ ). Für den Fehler gilt dann<br />

x † − x δ α = (x † − x α )<br />

} {{ }<br />

+ (x α − x δ<br />

} {{ α)<br />

}<br />

Fehler durch Reg. Fehler durch Datenfehler.<br />

Und mit der Dreiecksungleichung natürlich<br />

‖x † − x δ α‖ ≤ ‖x † − x α ‖ + ‖x α − x δ α‖.<br />

Theorem 3.1.5. Sei g α : R + → R eine stückweise stetige Funktion und sei<br />

sup(σg α (σ)) ≤ γ,<br />

α,σ<br />

für konstantes γ ≥ 0. Sei weiterhin R α der Regularisierungoperator definiert in<br />

3.3, dann gilt für alle y ∈ D(T † )<br />

n=1<br />

R α y → T † y für α → 0.<br />

Beweis. Nach der Singulärwertzerlegung gilt:<br />

∞∑<br />

(<br />

R α y − T † y = g α (σ n ) − 1 )<br />

∞∑<br />

(y, v n )u n = (σ n g α (σ n ) − 1) (x † , u n )u n .<br />

σ n<br />

Nach Vorraussetzung gilt<br />

∥ ∞∑<br />

∥∥∥∥ (σ n g α (σ n ) − 1) (x † , u n )u n ≤<br />

∥<br />

n=1<br />

n=1<br />

∞∑<br />

| (σ n g α (σ n ) − 1) (x † , u n )u n | ≤ (γ+1)‖x † ‖,<br />

und daher (nach dem Majorantenkriterium von Weierstrass)<br />

∞∑<br />

lim sup ‖R α y − T † y‖ ≤ lim sup (σ n g α (σ n ) − 1) 2 (x † , u n ) 2<br />

α<br />

α<br />

≤<br />

∞∑<br />

n=1<br />

n=1<br />

n=1<br />

(<br />

lim<br />

α<br />

σ n g α (σ n ) − 1) 2<br />

(x † , u n ) 2 .<br />

Aus der punktweisen Konvergenz von σg α (σ) → 1 folgern wir damit ‖R α y −<br />

T † y‖ → 0 für α → 0.<br />

34

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!