Skript

Skript Skript

wwwmath.uni.muenster.de
von wwwmath.uni.muenster.de Mehr von diesem Publisher
21.02.2014 Aufrufe

gilt. Hier ist α : R + × Y → (0, α 0 ) so gewählt, dass { } lim sup α(δ, y δ ) | y δ ∈ Y, ‖y δ − y‖ ≤ 0 δ→0 = 0 (3.2) gilt. Für ein gegebenes y ∈ D(T † ) nennt man ein Paar (R α , α) eine (konvergente) Regularisierungsmethode (zur Lösung von T x = y), falls (3.1) und (3.2) erfüllt sind. Definition 3.0.9. Für die Parameterwahl unterscheiden wir zwei Fälle: • Hängt α nicht von y δ ab (also α = α(δ)), so heißt α a-priori Parameterwahl. • Andernfalls heißt α a-posteriori Parameterwahl Theorem 3.0.10. Sei T : X → Y ein beschränkter Operator und sei {R α } α eine konvergenzte Regularisierung für T † mit einer Parameterwahl α, die nur von y δ und nicht von δ selbst abhängt. Dann ist T † beschränkt und kann auf einene steigen Operator von X nach Y erweitert werden. Beweis. Sei α = α(y δ ). Nach Definition gilt dann lim sup δ→0 { ‖R α(y δ )y δ − T † y‖ | y δ ∈ Y, ‖y δ − y‖ ≤ 0 } = 0 und daher insbesonder R α(y) y = T † y für alle y ∈ D(T † ). Weiter gilt für jede Folge (y n ) ∈ D(T † ) mit Grenzwert y T † y n = R α(yn)y → R α(y) y = T † y. Daraus folgt, dass T † stetig ist auf D(T † ). Da D(T † ) Dicht ist in Y existiert eine eindeutige, stetige Erweiterung von T † auf ganz Y . Bemerkung 3.0.11. 1. Es gibt keine Fehlerfreien (error-free) Regularisierungsmethoden. (In der Praxis trotzdem oft sinnvoll, aber aufpassen für δ klein) 2. Es stellen sich folgende Fragen: • Wie kann man Regularisierungsoperatoren konstruieren? • Wie erhält man eine Parameterwahl, so dass die zugehörigen Regularisierungen konvergieren? • Wie kann man dies “optimal” tun? Lemma 3.0.12. Sei, für alle α > 0, R α ein stetiger (möglicherweise nichtlinearer) Operator. Dann ist die Familie R α eine Regularisierung, wenn gilt: R α → T † punktweise auf D(T † ) für α → 0. Ist diese Bedingung erfüllt, so existiert für jedes y ∈ D(T † ) eine a-priori parameter choice rule α = α(δ), so dass (R α , α) eine konvergente Regularisierung für T x = y ist. 29

Beweis. Sei y ∈ D(T † ) beliebig. Es existiert eine monotone Funktion σ : R + → R + mit lim ɛ→0 σ(ɛ) = 0, so dass für jedes ɛ > 0, ‖R σ(ɛ) y − T † y‖ ≤ ɛ 2 . Da R σ(ɛ) stetig ist für jedes ɛ > 0 existiert ρ(ɛ) so dass für ‖z − y‖ ≤ ρ(ɛ) gilt ‖R σ(ɛ) z − R σ(ɛ) y‖ ≤ ɛ 2 . Dies definiert eine Funktion ρ : R + → R + die (o.B.d.A.) strikt monoton und stetig ist sowie die Eigenschaft lim ɛ→0 ρ(ɛ) = 0 besitzt. Insbesondere ist ρ invertierbar und ρ −1 die gleichen Eigenschaften. Wir definieren α :R + → R + δ → σ(ρ −1 (δ)). Dann ist auch α monoton und es gilt lim δ→0 α(δ) = 0. ‖R α(δ) y δ − T † y‖ ≤ ‖R α(ɛ) y δ − R α(ɛ) y‖ + ‖R α(ɛ) y δ − T † y‖ ≤ ɛ 2 + ɛ 2 ≤ ɛ, da α(δ) = σ(ɛ). Daher def. (R α , α) eine konvergente Regularisierungsmethode. Betrachten wir nun die umgekehrte Aussage: Theorem 3.0.13. Sei T ∈ L(X, Y ) ein stetiger, linearer Operator und R α : Y → X eine Familie stetiger, linearer Regularisierungsoperatoren. Dann gilt: 1. Für y ∈ D(T † ) konvergiert x α := R α y zu T † y für α → 0. 2. Gilt y ∉ D(T † ) und außerdem dann folgt ‖x α ‖ → ∞ sup ‖T R α ‖ < ∞ α>0 Beweis. 1.: Aus der Definition folgt für y ∈ D(T † ) direkt lim R α(δ,y δ→0 δ )y = T † y ∀y ∈ D(T † ). Damit folgt aus der Stetigkeit von α die Behauptung. 2.: Sei nun y ∉ D(A † ). Nehme an dass eine Folge α n → 0 existiert, so dass ‖x αn ‖ gleichmäßig beschränkt. Dann existiert eine schwach konvergente Teilfolge (wieder x αn ) mit einem Grenzwert x ∈ X und da stetige, lin. operatoren auch schwach stetig sind, gilt T x αn → T x. Andererseits da T R α gleichmäßig beschränkt gilt T x αn = T R αn y → T T † y = Qy (nach Moore-Penrose-Gleichungen) und daher T x = Qy und somit y ∈ D(A † ), also ein Widerspruch. 30

Beweis. Sei y ∈ D(T † ) beliebig. Es existiert eine monotone Funktion σ : R + →<br />

R + mit lim ɛ→0 σ(ɛ) = 0, so dass für jedes ɛ > 0,<br />

‖R σ(ɛ) y − T † y‖ ≤ ɛ 2 .<br />

Da R σ(ɛ) stetig ist für jedes ɛ > 0 existiert ρ(ɛ) so dass für ‖z − y‖ ≤ ρ(ɛ) gilt<br />

‖R σ(ɛ) z − R σ(ɛ) y‖ ≤ ɛ 2 .<br />

Dies definiert eine Funktion ρ : R + → R + die (o.B.d.A.) strikt monoton und<br />

stetig ist sowie die Eigenschaft lim ɛ→0 ρ(ɛ) = 0 besitzt. Insbesondere ist ρ<br />

invertierbar und ρ −1 die gleichen Eigenschaften. Wir definieren<br />

α :R + → R +<br />

δ → σ(ρ −1 (δ)).<br />

Dann ist auch α monoton und es gilt lim δ→0 α(δ) = 0.<br />

‖R α(δ) y δ − T † y‖ ≤ ‖R α(ɛ) y δ − R α(ɛ) y‖ + ‖R α(ɛ) y δ − T † y‖ ≤ ɛ 2 + ɛ 2 ≤ ɛ,<br />

da α(δ) = σ(ɛ). Daher def. (R α , α) eine konvergente Regularisierungsmethode.<br />

Betrachten wir nun die umgekehrte Aussage:<br />

Theorem 3.0.13. Sei T ∈ L(X, Y ) ein stetiger, linearer Operator und R α : Y →<br />

X eine Familie stetiger, linearer Regularisierungsoperatoren. Dann gilt:<br />

1. Für y ∈ D(T † ) konvergiert x α := R α y zu T † y für α → 0.<br />

2. Gilt y ∉ D(T † ) und außerdem<br />

dann folgt ‖x α ‖ → ∞<br />

sup ‖T R α ‖ < ∞<br />

α>0<br />

Beweis. 1.: Aus der Definition folgt für y ∈ D(T † ) direkt<br />

lim R α(δ,y<br />

δ→0 δ )y = T † y ∀y ∈ D(T † ).<br />

Damit folgt aus der Stetigkeit von α die Behauptung.<br />

2.: Sei nun y ∉ D(A † ). Nehme an dass eine Folge α n → 0 existiert, so dass<br />

‖x αn ‖ gleichmäßig beschränkt. Dann existiert eine schwach konvergente Teilfolge<br />

(wieder x αn ) mit einem Grenzwert x ∈ X und da stetige, lin. operatoren<br />

auch schwach stetig sind, gilt<br />

T x αn → T x.<br />

Andererseits da T R α gleichmäßig beschränkt gilt T x αn = T R αn y → T T † y =<br />

Qy (nach Moore-Penrose-Gleichungen) und daher T x = Qy und somit y ∈<br />

D(A † ), also ein Widerspruch.<br />

30

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!