Kapitel 2 Lineare und nichtlineare Gleichungen - Institut für ...
Kapitel 2 Lineare und nichtlineare Gleichungen - Institut für ... Kapitel 2 Lineare und nichtlineare Gleichungen - Institut für ...
28 Lineare und nichtlineare Gleichungen Spalte genau eine 1 als Eintrag besitzt und sonst nur Nullen), eine untere Dreiecksmatrix L ∈ R n×n (also alle Einträge unterhalb der Diagonalen verschwinden bzw. l ij =0für ij)mit PA = LU. Die Zerlegung wird mit Hilfe des Gaußschen Eliminationsverfahrens berechnet. • QR-Zerlegung: Sei A ∈ R m×n mit m ≥ n und Rang (A) =n gegeben 5 .Dann gibt es eine orthogonale Matrix Q ∈ R n×n (d. h. es ist Q T Q = I) undeineobere Dreiecksmatrix R ∈ R m×n mit A = QR. Diese Zerlegung kann man mit sogenannten Householder-Spiegelungen oder mit sogenannten Givens-Rotationen berechnen. • Cholesky-Zerlegung: Sei A ∈ R n×n symmetrisch (d. h. a ij = a ji für 1 ≤ i, j ≤ n) und positiv definit. Dann existiert (genau) eine untere Dreiecksmatrix L ∈ R n×n mit positiven Diagonalelementen und A = LL T . Wir werden nun zeigen, weshalb es für die numerische Lösung eines linearen Gleichungssystems (bzw. eines linearen Least Square Problems) wünschenswert ist, eine der eben angegebenen Zerlegungen zu berechnen. • LU-Zerlegung: Gegeben sei ein lineares Gleichungssystem Ax = b mit nichtsingulärem A ∈ R n×n .BekanntseieineLU-Zerlegung PA = LU, alsoquadratische Matrizen P, L, U mit den oben angegebenen Eigenschaften. Eine Permutationsmatrix P ∈ R n×n ist durch eine Permutation {π(1),...,π(n)} der Zahlen {1,...,n} gegeben: In der i-ten Zeile steht in der π(i)-ten Spalte eine 1, sonst nur Nullen. Mit Hilfe des Kronecker-Symbols kann man dies auch durch p ij = δ π(i)j , 1 ≤ i, j ≤ n, ausdrücken. Eine Permutationsmatrix ist orthogonal 6 und folglich nichtsingulär. Daher ist das lineare Gleichungssystem Ax = b äquivalent zu P Ax = Pb.DieneuerechteSeitePb entsteht aus b durch eine Permutation der Komponenten, genauer ist (Pb) i = n p ij b j = j=1 n δ π(i)j b j = b π(i) , j=1 i =1,...,n. 5 Z. B. ist m = n und A nichtsingulär. Der allgemeinere Fall wird zugelassen, um auch lineare Least Square Probleme zu erfassen. 6 Denn es ist (P T P ) ij = n (P T ) ik (P ) kj = k=1 n p ki p kj = k=1 n δ π(k)i δ π(k)j = δ ij . k=1
2.1 Lineare Gleichungssysteme 29 Das lineare Gleichungssystem P Ax = LUx = Pb wird in zwei Schritten gelöst. Zunächst bestimmt man y = Ux als Lösung von Ly = Pb durch Vorwärtseinsetzen (forward substitution), danach berechnet man die gesuchte Lösung x durch Rückwärtseinsetzen aus Ux = y. • QR-Zerlegung: Gegeben seien eine Matrix A ∈ R m×n mit m ≥ n und Rang (A) = n, einVektorb ∈ R m und hiermit das lineare Least Square Problem Minimiere Ax − b 2 , x ∈ R n . Hierbei sei · 2 die euklidische Norm auf dem R m .Füry ∈ R m ist also y 2 := m 1/2. y T y = yi 2 Angenommen, es sei eine QR-Zerlegung von A bekannt, also eine orthogonale Matrix Q ∈ R m×m und eine obere Dreiecksmatrix R. Da wir Rang (A) =n bzw. die lineare Unabhängigkeit der n Spalten von A voraussetzen und Q als orthogonale Matrix nichtsingulär ist, sind auch die n Spalten von R linear unabhängig. Als obere m × n-Dreiecksmatrix hat R die Form ˆR R = 0 mit einer oberen n × n-Dreiecksmatrix ˆR, welchewegendesebengesagtennichtsingulär ist. Zur Abkürzung setzen wir c := Q T b mit c ∈ R n ,d∈ R m−n . d Für ein beliebiges x ∈ R n ist dann i=1 Ax − b 2 2 = QRx − b 2 2 = Rx − Q T b 2 2 ˆR c 2 = x − 0 d 2 = ˆRx − c 2 2 + d 2 2. Hierbei haben wir ausgenutzt, dass die euklidische Norm invariant unter der Transformation mit einer orthogonalen Matrix ist. Genauer: Ist y ∈ R m und Q ∈ R m×m orthogonal, so ist Qy 2 = (Qy) T (Qy) = y T Q T Qy = y T y = y 2 . Daher wird Ax − b 2 minimal, wenn ˆRx = c. DieseslineareGleichungssystem mit einer (nichtsingulären) oberen Dreiecksmatrix kann man durch Rückwärtseinsetzen lösen.
- Seite 1 und 2: Kapitel 2 Lineare und nichtlineare
- Seite 3 und 4: 2.1 Lineare Gleichungssysteme 21 Is
- Seite 5 und 6: 2.1 Lineare Gleichungssysteme 23 Se
- Seite 7 und 8: 2.1 Lineare Gleichungssysteme 25 so
- Seite 9: 2.1 Lineare Gleichungssysteme 27
- Seite 13 und 14: 2.1 Lineare Gleichungssysteme 31 >
- Seite 15 und 16: 2.1 Lineare Gleichungssysteme 33 Es
- Seite 17 und 18: 2.1 Lineare Gleichungssysteme 35 Da
- Seite 19 und 20: 2.1 Lineare Gleichungssysteme 37 Da
- Seite 21 und 22: 2.1 Lineare Gleichungssysteme 39 un
- Seite 23 und 24: 2.1 Lineare Gleichungssysteme 41 fu
- Seite 25 und 26: 2.1 Lineare Gleichungssysteme 43 Di
- Seite 27 und 28: 2.1 Lineare Gleichungssysteme 45 x(
- Seite 29 und 30: 2.1 Lineare Gleichungssysteme 47 8
- Seite 31 und 32: 2.1 Lineare Gleichungssysteme 49
- Seite 33 und 34: 2.2 Nichtlineare Gleichungen und Gl
- Seite 35 und 36: 2.2 Nichtlineare Gleichungen und Gl
- Seite 37 und 38: 2.2 Nichtlineare Gleichungen und Gl
- Seite 39 und 40: 2.2 Nichtlineare Gleichungen und Gl
- Seite 41 und 42: 2.2 Nichtlineare Gleichungen und Gl
- Seite 43 und 44: 2.2 Nichtlineare Gleichungen und Gl
- Seite 45 und 46: 2.2 Nichtlineare Gleichungen und Gl
- Seite 47 und 48: 2.2 Nichtlineare Gleichungen und Gl
- Seite 49 und 50: 2.2 Nichtlineare Gleichungen und Gl
- Seite 51 und 52: 2.2 Nichtlineare Gleichungen und Gl
- Seite 53 und 54: 2.2 Nichtlineare Gleichungen und Gl
- Seite 55 und 56: 2.2 Nichtlineare Gleichungen und Gl
- Seite 57 und 58: 2.2 Nichtlineare Gleichungen und Gl
2.1 <strong>Lineare</strong> Gleichungssysteme 29<br />
Das lineare Gleichungssystem P Ax = LUx = Pb wird in zwei Schritten gelöst.<br />
Zunächst bestimmt man y = Ux als Lösung von Ly = Pb durch Vorwärtseinsetzen<br />
(forward substitution), danach berechnet man die gesuchte Lösung x durch<br />
Rückwärtseinsetzen aus Ux = y.<br />
• QR-Zerlegung: Gegeben seien eine Matrix A ∈ R m×n mit m ≥ n <strong>und</strong> Rang (A) =<br />
n, einVektorb ∈ R m <strong>und</strong> hiermit das lineare Least Square Problem<br />
Minimiere Ax − b 2 , x ∈ R n .<br />
Hierbei sei · 2 die euklidische Norm auf dem R m .Füry ∈ R m ist also<br />
y 2 := <br />
m 1/2.<br />
y T y = yi 2<br />
Angenommen, es sei eine QR-Zerlegung von A bekannt, also eine orthogonale<br />
Matrix Q ∈ R m×m <strong>und</strong> eine obere Dreiecksmatrix R. Da wir Rang (A) =n bzw.<br />
die lineare Unabhängigkeit der n Spalten von A voraussetzen <strong>und</strong> Q als orthogonale<br />
Matrix nichtsingulär ist, sind auch die n Spalten von R linear unabhängig.<br />
Als obere m × n-Dreiecksmatrix hat R die Form<br />
ˆR<br />
R =<br />
0<br />
mit einer oberen n × n-Dreiecksmatrix ˆR, welchewegendesebengesagtennichtsingulär<br />
ist. Zur Abkürzung setzen wir<br />
c<br />
:= Q T b mit c ∈ R n ,d∈ R m−n .<br />
d<br />
Für ein beliebiges x ∈ R n ist dann<br />
i=1<br />
Ax − b 2 2 = QRx − b 2 2<br />
= Rx − Q T b 2 2<br />
ˆR c<br />
2<br />
= x −<br />
0 d 2<br />
= ˆRx − c 2 2 + d 2 2.<br />
Hierbei haben wir ausgenutzt, dass die euklidische Norm invariant unter der<br />
Transformation mit einer orthogonalen Matrix ist. Genauer: Ist y ∈ R m <strong>und</strong><br />
Q ∈ R m×m orthogonal, so ist<br />
Qy 2 = (Qy) T (Qy) = y T Q T Qy = y T y = y 2 .<br />
Daher wird Ax − b 2 minimal, wenn ˆRx = c. DieseslineareGleichungssystem<br />
mit einer (nichtsingulären) oberen Dreiecksmatrix kann man durch Rückwärtseinsetzen<br />
lösen.