Skript
Skript Skript
Operator (und damit σ n = λ n und u n = v n ), so erhält man (T + αI)x α = = = = ∞∑ (σ n + α)(x α , u n )u n n=1 ∞∑ ∞∑ (σ n + α)( n=1 ∞∑ n=1 m=1 m=1 1 σ m + α (y, v m)u m , u n )u n ∞∑ 1 (σ n + α) σ m + α (y, v m) (u m , u n ) } {{ } ∞∑ (y, u n )u n = y, , da u n = v n . n=1 =δ n,m u n Das heißt, die regularisierte Lösung läßt sich ohne Kenntniss des Singulärsystems berechnen als Lösung von (T + αI)x α = y. ≤ 1 α erhalten wir wieder C α = 1 α wieder konvergent, wenn gilt δ α → 0. Da 1 σ+α und die Regularisierung ist damit Beispiel 3.1.4. Tikhonov(-Phillips) Regularisierung In diesem Fall nehmen wir und damit x α := R α y = g α (σ) = ∞∑ n=1 σ σ 2 + α σ n σ 2 n + α (y, v n)u n , ∀y ∈ Y. Mit der Abschätzung σ 2 + α ≥ 2σ √ α erhalten wir g α (σ) ≤ C α := 1 2 √ α Wir erhalten daher als Bedingung für die Konvergenz der Methode δ √ α → 0. Genau wie bei der Lavrentiev-Regularisierung oben kann man auch hier wieder x α ohne Kenntniss des Singulärsystems berechenen. Man erhält: (T ∗ T + αI)x α = T ∗ y. Aus dieser Darstellung sehen wir, dass Tikhonov-Regularisierung nichts anderes ist als die Anwendung der Lavrentiev-Regularisierung auf die Gaußschen 33
Normalengleichungen. Außerdem ist diese Gleichung die erste Ordnung Optimalitätsbedingung des Funktionals J α (x) := ‖T x − y‖ 2 + α‖x‖ 2 → min x∈X , vgl. Differentiationsbsp. in Kapitel 1. Weiterhin ist J α strikt konvex für α > 0, denn es gilt J ′′ α(x)(φ, φ) := 2‖T φ‖ 2 + 2α‖φ‖ 2 > 0. Da außerdem lim ‖x‖→∞ J α (x) = ∞ gilt ist x α das eindeutige Minimum des Funktionals. Diese Darstellung der Tikhonovregularisierung erlaubt insbesondere die Erweiterung auf nichtlinear Operatoren! Als nächstes Betrachten wir den Fall, dass Fehlerbehaftete Daten y δ vorliegen (und benutzen die Natiation x δ α := R α y δ ). Für den Fehler gilt dann x † − x δ α = (x † − x α ) } {{ } + (x α − x δ } {{ α) } Fehler durch Reg. Fehler durch Datenfehler. Und mit der Dreiecksungleichung natürlich ‖x † − x δ α‖ ≤ ‖x † − x α ‖ + ‖x α − x δ α‖. Theorem 3.1.5. Sei g α : R + → R eine stückweise stetige Funktion und sei sup(σg α (σ)) ≤ γ, α,σ für konstantes γ ≥ 0. Sei weiterhin R α der Regularisierungoperator definiert in 3.3, dann gilt für alle y ∈ D(T † ) n=1 R α y → T † y für α → 0. Beweis. Nach der Singulärwertzerlegung gilt: ∞∑ ( R α y − T † y = g α (σ n ) − 1 ) ∞∑ (y, v n )u n = (σ n g α (σ n ) − 1) (x † , u n )u n . σ n Nach Vorraussetzung gilt ∥ ∞∑ ∥∥∥∥ (σ n g α (σ n ) − 1) (x † , u n )u n ≤ ∥ n=1 n=1 ∞∑ | (σ n g α (σ n ) − 1) (x † , u n )u n | ≤ (γ+1)‖x † ‖, und daher (nach dem Majorantenkriterium von Weierstrass) ∞∑ lim sup ‖R α y − T † y‖ ≤ lim sup (σ n g α (σ n ) − 1) 2 (x † , u n ) 2 α α ≤ ∞∑ n=1 n=1 n=1 ( lim α σ n g α (σ n ) − 1) 2 (x † , u n ) 2 . Aus der punktweisen Konvergenz von σg α (σ) → 1 folgern wir damit ‖R α y − T † y‖ → 0 für α → 0. 34
- Seite 1 und 2: Inverse und schlecht gestellte Prob
- Seite 3 und 4: 5.4 Konjugierte-Gradienten-Verfahre
- Seite 5 und 6: also Stationär: Beispiele: SAR, St
- Seite 7 und 8: d.h. die Genauigkeit der Approximat
- Seite 9 und 10: Bemerkung 1.2.1. 1. Die obige Rechn
- Seite 11 und 12: zeigt, dass neben der Probleme, die
- Seite 13 und 14: Wir entwickeln die gesuchte Funktio
- Seite 15 und 16: Kapitel 2 Grundlagen Wie wir in den
- Seite 17 und 18: • A ist stetig bezüglich L 2 (Ω
- Seite 19 und 20: Definition 2.1.3 (kleinste Quadrate
- Seite 21 und 22: Bemerkung 2.1.12. karl • A ∗ Ax
- Seite 23 und 24: Da A kompakt ist, besitzt (y n ) n
- Seite 25 und 26: Theorem 2.2.10. Sei A ∈ L(X, Y )
- Seite 27 und 28: Durch Koeffizientenvergleich folgt:
- Seite 29 und 30: Kapitel 3 Regularisierungstheorie I
- Seite 31 und 32: Beweis. Sei y ∈ D(T † ) beliebi
- Seite 33: und weiterhin gilt. lim δC α(δ)
- Seite 37 und 38: Durch die Unstetigkeit an 0 wird di
- Seite 39 und 40: Kapitel 4 Inverse Probleme der Inte
- Seite 41 und 42: zu θ(ϕ k ) durchgeführt, daher h
- Seite 43 und 44: 4.2 Funktionalanalytische Grundlage
- Seite 45 und 46: ̂f a (ξ) = (2π) −n/2 ∫ R n =
- Seite 47 und 48: Satz 4.2.5. (Faltungssatz) Seien f,
- Seite 49 und 50: aber f ∉ L 2 (R 2 ). Die Fouriert
- Seite 51 und 52: Wir definieren also allgemein die A
- Seite 53 und 54: keinen Sinn, den das hintere Integr
- Seite 55 und 56: S(C) definiert durch (Rf)(θ, s) =
- Seite 57 und 58: = (2π) 1/2 ̂f(ξ) □ Satz 4.2.20
- Seite 59 und 60: ist ˜f(x) zumindest schon mal posi
- Seite 61 und 62: Theorem 4.2.27. Sei 0 ≤ α < n. D
- Seite 63 und 64: Cormack eine alternative Formel her
- Seite 65 und 66: Beweis: Sei ohne Einschränkung α
- Seite 67 und 68: g k = (2π/h) −n ∫ g(ξ)e i(kh)
- Seite 69 und 70: Man kann sich fragen, was die Bandb
- Seite 71 und 72: Beweis: Sei w ∈ S(R n ) eine Test
- Seite 73 und 74: c k = 1 (2π) 1/2 ∫ ||y|| |x| (De
- Seite 75 und 76: 4.4 Was fehlt? Fanbeam. Interlaced
- Seite 77 und 78: die sogenannte Landweber iteration.
- Seite 79 und 80: Primal Adjungiert messungen unbekan
- Seite 81 und 82: Nichtlineare Probleme Wir diskutier
- Seite 83 und 84: We finally mention that any suitabl
Normalengleichungen. Außerdem ist diese Gleichung die erste Ordnung Optimalitätsbedingung<br />
des Funktionals<br />
J α (x) := ‖T x − y‖ 2 + α‖x‖ 2 → min<br />
x∈X ,<br />
vgl. Differentiationsbsp. in Kapitel 1. Weiterhin ist J α strikt konvex für α > 0,<br />
denn es gilt<br />
J ′′<br />
α(x)(φ, φ) := 2‖T φ‖ 2 + 2α‖φ‖ 2 > 0.<br />
Da außerdem lim ‖x‖→∞ J α (x) = ∞ gilt ist x α das eindeutige Minimum des<br />
Funktionals. Diese Darstellung der Tikhonovregularisierung erlaubt insbesondere<br />
die Erweiterung auf nichtlinear Operatoren!<br />
Als nächstes Betrachten wir den Fall, dass Fehlerbehaftete Daten y δ vorliegen<br />
(und benutzen die Natiation x δ α := R α y δ ). Für den Fehler gilt dann<br />
x † − x δ α = (x † − x α )<br />
} {{ }<br />
+ (x α − x δ<br />
} {{ α)<br />
}<br />
Fehler durch Reg. Fehler durch Datenfehler.<br />
Und mit der Dreiecksungleichung natürlich<br />
‖x † − x δ α‖ ≤ ‖x † − x α ‖ + ‖x α − x δ α‖.<br />
Theorem 3.1.5. Sei g α : R + → R eine stückweise stetige Funktion und sei<br />
sup(σg α (σ)) ≤ γ,<br />
α,σ<br />
für konstantes γ ≥ 0. Sei weiterhin R α der Regularisierungoperator definiert in<br />
3.3, dann gilt für alle y ∈ D(T † )<br />
n=1<br />
R α y → T † y für α → 0.<br />
Beweis. Nach der Singulärwertzerlegung gilt:<br />
∞∑<br />
(<br />
R α y − T † y = g α (σ n ) − 1 )<br />
∞∑<br />
(y, v n )u n = (σ n g α (σ n ) − 1) (x † , u n )u n .<br />
σ n<br />
Nach Vorraussetzung gilt<br />
∥ ∞∑<br />
∥∥∥∥ (σ n g α (σ n ) − 1) (x † , u n )u n ≤<br />
∥<br />
n=1<br />
n=1<br />
∞∑<br />
| (σ n g α (σ n ) − 1) (x † , u n )u n | ≤ (γ+1)‖x † ‖,<br />
und daher (nach dem Majorantenkriterium von Weierstrass)<br />
∞∑<br />
lim sup ‖R α y − T † y‖ ≤ lim sup (σ n g α (σ n ) − 1) 2 (x † , u n ) 2<br />
α<br />
α<br />
≤<br />
∞∑<br />
n=1<br />
n=1<br />
n=1<br />
(<br />
lim<br />
α<br />
σ n g α (σ n ) − 1) 2<br />
(x † , u n ) 2 .<br />
Aus der punktweisen Konvergenz von σg α (σ) → 1 folgern wir damit ‖R α y −<br />
T † y‖ → 0 für α → 0.<br />
34