Skript
Skript Skript
2.1 Varallgemeinerte Inverse Seien X, Y Hilberträume, d.h. Vektorräume mit einem Skalarprodukt die vollständig sind bzgl. der vom Skalarprodukt induzierten Norm Sei M ⊂ X. Wie nennen: Es gilt: • M = Abschluss von M (closure), ‖ · ‖ := √ (·, ·). • M ⊥ = orthogonales Komplement von M (closure) M ⊥ := {u ∈ X | (u, v) = 0, ∀v ∈ M}. • M ist ein Untervektorraum von X, • M ⊥⊥ = M, • X = ¯M ⊕ M ⊥ . Definition 2.1.1. Sei M ⊂ X ein abgeschlossener, linearer Unterraum und sei f ∈ X. Dann ist die orthogonale Projektion u = P M f definiert durch u ∈ M und (f − u, v) = 0, ∀v ∈ M Bemerkung 2.1.2. P M ist ein linearer Operator Sei L(X, Y ) := {A : X → Y | A ist stetig und linear}. Sei A ∈ L(X, Y ), dann ist die Norm von A definiert als ‖Ax‖ Y ‖A‖ X,Y := sup = sup ‖Ax‖ Y < ∞, x∈X ‖x‖ X x∈X,‖x‖ X ≤1 da A stetig ist. Es gelten folgende Definitionen: • Kern von A (kernel): N(A) := {x ∈ X | Ax = 0}, • Bild von A (range): R(A) := {y ∈ Y | ∃x ∈ X, so dass Ax = y}. Wir betrachten nun wieder die Gleichung Ax = y. Wenn nun das Bild von A, R(A) nicht der ganze Raum Y ist (oder auch nicht Dicht in Y ), dann ist die obige Gleichung nicht für beliebige y ∈ Y lösbar. Wir suchen daher nach einem verallgemeinerten Lösungskonzept und dies motiviert die folgende Definition: 17
Definition 2.1.3 (kleinste Quadrate Lösung). Seien X, Y Hilberträume, g ∈ Y und A : X → Y . Dann heißt u kleinste Quadrate Lösung (least squares solution) von Af = g genau dann, wenn ‖Au − g‖ Y ≤ ‖Af − g‖ Y für alle f ∈ X. Wenn der Operator A weiterhin einen nicht-trivialen Nullraum hat, so muss die kleinste Quadrate Lösung nicht unbedingt eindeutig sein. Daher definieren wir: Definition 2.1.4. Sei y ∈ R(A) ⊕ R(A) ⊥ . Dann ist die minimum-Norm oder Lösung von (2.1) ist definiert als x, so dass ‖x‖ = inf{‖z‖|z ist kleinste Quadrate Lösung von (2.1)} Bemerkung 2.1.5. Die minumum-norm Lösung ist eindeutig, denn die Menge der kleinste-Quadrate-Lösungen ist abgeschlossen und konvex. Betrachten wir nun einige Eigenschaften dieser Objekte: Theorem 2.1.6. Die folgenden Aussagen sind äquivalent: • u ist kleinste-Quadrate-Lösung • A ∗ Au = A ∗ g • Au = P R(A) g, wobei P orthogonale Projektion auf R(A). Beweis. karl 1) → 2) Sei u die kleinste Quadrate Lösung, d.h. u = minũ ‖Aũ − g‖ 2 . Die Optimalitätsbedingungen lauten: 0 = d dλ ‖A(u + λv) − g‖2 ∣ ∣∣∣λ=0 = (Au − g, Av) Y , ∀v ∈ X, also A ∗ Au = A ∗ g. 2) → 3) (Au − g, Av) = 0, ∀v ∈ X ⇒ (g − Au)⊥Av ⇔ (g − Au)⊥R(A) Nach Definition der orthogonalen Projektion ergibt sich also: Au = P R(A) g 3) → 1) ‖Af − g‖ 2 L = ‖A(u − g) + A(f − u)‖ 2 2 L = ‖ Au − g + A(f − u) 2 } {{ } } {{ } ∈R(A) ⊥ ∈R(A) ‖ 2 L 2 = ‖Au − g‖ 2 L 2 + ‖A(f − u)‖ 2 L 2 ≥ ‖Au − g‖ 2 L 2 18
- Seite 1 und 2: Inverse und schlecht gestellte Prob
- Seite 3 und 4: 5.4 Konjugierte-Gradienten-Verfahre
- Seite 5 und 6: also Stationär: Beispiele: SAR, St
- Seite 7 und 8: d.h. die Genauigkeit der Approximat
- Seite 9 und 10: Bemerkung 1.2.1. 1. Die obige Rechn
- Seite 11 und 12: zeigt, dass neben der Probleme, die
- Seite 13 und 14: Wir entwickeln die gesuchte Funktio
- Seite 15 und 16: Kapitel 2 Grundlagen Wie wir in den
- Seite 17: • A ist stetig bezüglich L 2 (Ω
- Seite 21 und 22: Bemerkung 2.1.12. karl • A ∗ Ax
- Seite 23 und 24: Da A kompakt ist, besitzt (y n ) n
- Seite 25 und 26: Theorem 2.2.10. Sei A ∈ L(X, Y )
- Seite 27 und 28: Durch Koeffizientenvergleich folgt:
- Seite 29 und 30: Kapitel 3 Regularisierungstheorie I
- Seite 31 und 32: Beweis. Sei y ∈ D(T † ) beliebi
- Seite 33 und 34: und weiterhin gilt. lim δC α(δ)
- Seite 35 und 36: Normalengleichungen. Außerdem ist
- Seite 37 und 38: Durch die Unstetigkeit an 0 wird di
- Seite 39 und 40: Kapitel 4 Inverse Probleme der Inte
- Seite 41 und 42: zu θ(ϕ k ) durchgeführt, daher h
- Seite 43 und 44: 4.2 Funktionalanalytische Grundlage
- Seite 45 und 46: ̂f a (ξ) = (2π) −n/2 ∫ R n =
- Seite 47 und 48: Satz 4.2.5. (Faltungssatz) Seien f,
- Seite 49 und 50: aber f ∉ L 2 (R 2 ). Die Fouriert
- Seite 51 und 52: Wir definieren also allgemein die A
- Seite 53 und 54: keinen Sinn, den das hintere Integr
- Seite 55 und 56: S(C) definiert durch (Rf)(θ, s) =
- Seite 57 und 58: = (2π) 1/2 ̂f(ξ) □ Satz 4.2.20
- Seite 59 und 60: ist ˜f(x) zumindest schon mal posi
- Seite 61 und 62: Theorem 4.2.27. Sei 0 ≤ α < n. D
- Seite 63 und 64: Cormack eine alternative Formel her
- Seite 65 und 66: Beweis: Sei ohne Einschränkung α
- Seite 67 und 68: g k = (2π/h) −n ∫ g(ξ)e i(kh)
Definition 2.1.3 (kleinste Quadrate Lösung). Seien X, Y Hilberträume, g ∈ Y<br />
und A : X → Y .<br />
Dann heißt u kleinste Quadrate Lösung (least squares solution) von Af = g<br />
genau dann, wenn ‖Au − g‖ Y ≤ ‖Af − g‖ Y für alle f ∈ X.<br />
Wenn der Operator A weiterhin einen nicht-trivialen Nullraum hat, so muss<br />
die kleinste Quadrate Lösung nicht unbedingt eindeutig sein. Daher definieren<br />
wir:<br />
Definition 2.1.4. Sei y ∈ R(A) ⊕ R(A) ⊥ . Dann ist die minimum-Norm oder<br />
Lösung von (2.1) ist definiert als x, so dass<br />
‖x‖ = inf{‖z‖|z ist kleinste Quadrate Lösung von (2.1)}<br />
Bemerkung 2.1.5. Die minumum-norm Lösung ist eindeutig, denn die Menge<br />
der kleinste-Quadrate-Lösungen ist abgeschlossen und konvex.<br />
Betrachten wir nun einige Eigenschaften dieser Objekte:<br />
Theorem 2.1.6. Die folgenden Aussagen sind äquivalent:<br />
• u ist kleinste-Quadrate-Lösung<br />
• A ∗ Au = A ∗ g<br />
• Au = P R(A)<br />
g, wobei P orthogonale Projektion auf R(A).<br />
Beweis. karl<br />
1) → 2) Sei u die kleinste Quadrate Lösung, d.h. u = minũ ‖Aũ − g‖ 2 . Die Optimalitätsbedingungen<br />
lauten:<br />
0 = d<br />
dλ ‖A(u + λv) − g‖2 ∣<br />
∣∣∣λ=0<br />
= (Au − g, Av) Y , ∀v ∈ X,<br />
also A ∗ Au = A ∗ g.<br />
2) → 3)<br />
(Au − g, Av) = 0, ∀v ∈ X<br />
⇒ (g − Au)⊥Av ⇔ (g − Au)⊥R(A)<br />
Nach Definition der orthogonalen Projektion ergibt sich also:<br />
Au = P R(A) g<br />
3) → 1)<br />
‖Af − g‖ 2 L<br />
= ‖A(u − g) + A(f − u)‖ 2 2 L<br />
= ‖ Au − g + A(f − u)<br />
2<br />
} {{ } } {{ }<br />
∈R(A) ⊥<br />
∈R(A)<br />
‖ 2 L 2<br />
= ‖Au − g‖ 2 L 2 + ‖A(f − u)‖ 2 L 2<br />
≥ ‖Au − g‖ 2 L 2<br />
18