30 2 POLYNOMAPPROXIMATION – DICHTHEITSAUSSAGEN = 〈f, f〉 − 2 = f 2 2 − = f 2 2 − 2 n j=1 n 〈f, ψj〉〈f, ψj〉 + j=1 〈f, ψj〉 2 ≤ f 2 2 − n aj 〈f, ψj〉 + j=1 n j,k=1 〈f, ψj〉〈f, ψk〉 〈ψj, ψk〉 n 〈f, ψj〉 2 + j=1 δjk n (aj − 〈f, ψj〉) 2 j=1 n a 2 j〈ψj, ψj〉 = f − j=1 n j=1 aj ψj weswegen die Bestapproximation gerade der Fall aj = 〈f, ψj〉, j = 1, . . . , n ist. Und das ist für k = 1, . . . , n äquivalent zu n n f − 〈f, ψj〉 ψj, ψk = 〈f, ψk〉 − 〈f, ψj〉〈ψj, ψk〉 = 〈f, ψk〉 − 〈f, ψk〉 = 0. j=1 j=1 Für (2.18) sei φ ∗ = a1φ1 + · · · + anφn die 32 Bestapproximation von f in Φ; dann ist nach (2.17) also d 2 = d 2 2 (f, Φ) = f − φ ∗ 2 2 = 〈f − φ∗ , f − φ ∗ 〉 = 〈f, f − φ ∗ 〉 − 〈φ ∗ , f − φ ∗ 〉 d 2 = 〈f, f〉 − 2 2 , =0 n aj 〈f, φj〉. (2.19) Schreiben wir außerdem (2.17) bezüglich der Basis φ1, . . . , φn, dann heißt dies, daß für j = 1, . . . , n 0 = 〈f − φ ∗ n , φj〉 = 〈f, φj〉 − ak 〈φj, φk〉 (2.20) In Matrixform liefern (2.19) und (2.20), die sogenannte Normalengleichungen ⎡ 〈f, f〉 ⎢ 〈φ1, f〉 ⎢ ⎣ . 〈f, φ1〉 〈φ1, φ1〉 . . . . . . . . .. ⎤ ⎡ ⎤ 〈f, φn〉 1 〈φ1, φn〉 ⎥ ⎢ ⎥ ⎢ −a1 ⎥ ⎥ ⎢ ⎥ . ⎦ ⎣ . ⎦ 〈φn, f〉 〈φn, φ1〉 . . . 〈φn, φn〉 −an = ⎡ d ⎢ ⎣ 2 ⎤ 0. ⎥ ⎦ 0 , die wir auch als j=1 −an k=1 ⎡ ⎤ 1 ⎢ −a1 ⎥ G (f, φ1, . . . , φn) ⎢ ⎥ ⎣ . ⎦ = ⎡ ⎢ ⎣ 32 Nach dem, was wir gerade bewiesen haben, ist es wirklich die Bestapproximation – sie ist eindeutig. d2 0. 0 ⎤ ⎥ ⎦ , (2.21)
2.4 Müntz–Sätze 31 schreiben können. Lösen wir nun das lineare Gleichungssystem (2.21) mit Hilfe der Cramerschen 33 Regel, dann erhalten wir für die erste Komponente der Lösung, daß d 1 = 2 〈f, φ1〉 . . . 〈f, φn〉 0 〈φ1, φ1〉 . . . 〈φ1, φn〉 . . . .. . 0 〈φ1, φ1〉 . . . 〈φ1, φn〉 〈f, f〉 〈f, φ1〉 . . . 〈f, φn〉 〈φ1, f〉 〈φ1, φ1〉 . . . 〈φ1, φn〉 . . . .. . 〈φ1, f〉 〈φ1, φ1〉 . . . 〈φ1, φn〉 = d 2 g (φ1, . . . , φn) g (f, φ1, . . . , φn) , und das ist (2.18). Bemerkung 2.23 Die Normalengleichungen (2.21) ermöglichen es uns, die Bestapproximation bezüglich der L2–Norm durch “einfaches” Lösen eines linearen Gleichungssystems zu bestimmen und diese Lösung liefert uns als netten Nebeneffekt auch noch die Qualität der Approximation mit – schließlich müssen wir erst mal d 2 kennen, um die rechte Seite zu komplettieren, aber dafür haben wir ja die Formel (2.18). Für den Numeriker ist so eine Gram–Matrix übrigens nicht zu wild, denn sie ist symmetrisch und positiv definit und dafür gibt es vergleichsweise gute und stabile Lösungsverfahren. Um den Quotienten der Gram–Determinanten aus (2.18) in den Griff zu bekommen, ja sogar explizit angeben zu können, verwendet man eine Determinantenformel, die auf Cauchy zurückgeht. Lemma 2.24 Seien a, b ⊂ R Zahlenfolgen und sei, für n ∈ N, Dann ist Dn = 1 aj + bk ⎡ ⎢ : j, k = 1, . . . , n = ⎣ dn := det Dn = 1≤j
- Seite 1 und 2: 10 8 6 4 2 0 -4 -3 -2 -1 0 1 2 3 4
- Seite 3 und 4: INHALTSVERZEICHNIS 1 Inhaltsverzeic
- Seite 5 und 6: And first, so that all may understa
- Seite 7 und 8: 1.2 Ein historisches Beispiel: Summ
- Seite 9 und 10: 1.2 Ein historisches Beispiel: Summ
- Seite 11 und 12: 1.2 Ein historisches Beispiel: Summ
- Seite 13 und 14: 1.2 Ein historisches Beispiel: Summ
- Seite 15 und 16: 1.3 Fazit 13 und somit Fn(t) ≤ 1
- Seite 17 und 18: Sunt qui quicquid in libris scriptu
- Seite 19 und 20: 2.1 Der Satz von Weierstraß 17 Mit
- Seite 21 und 22: 2.2 Der Satz von Stone 19 Satz 2.7
- Seite 23 und 24: 2.2 Der Satz von Stone 21 und werde
- Seite 25 und 26: 2.3 Der Satz von Bishop 23 Satz 2.1
- Seite 27 und 28: 2.4 Müntz-Sätze 25 und da f −
- Seite 29 und 30: 2.4 Müntz-Sätze 27 “·” das k
- Seite 31: 2.4 Müntz-Sätze 29 Übung 2.7 Zei
- Seite 35 und 36: 2.4 Müntz-Sätze 33 und somit cn c
- Seite 37 und 38: 2.4 Müntz-Sätze 35 2. limj→∞
- Seite 39 und 40: 3.1 Approximation durch lineare Rä
- Seite 41 und 42: 3.1 Approximation durch lineare Rä
- Seite 43 und 44: 3.2 Das Kolmogoroff-Kriterium und e
- Seite 45 und 46: 3.2 Das Kolmogoroff-Kriterium und e
- Seite 47 und 48: 3.2 Das Kolmogoroff-Kriterium und e
- Seite 49 und 50: 3.2 Das Kolmogoroff-Kriterium und e
- Seite 51 und 52: 3.3 Haar-Räume und Alternanten 49
- Seite 53 und 54: 3.3 Haar-Räume und Alternanten 51
- Seite 55 und 56: 3.3 Haar-Räume und Alternanten 53
- Seite 57 und 58: 3.3 Haar-Räume und Alternanten 55
- Seite 59 und 60: 3.3 Haar-Räume und Alternanten 57
- Seite 61 und 62: 3.4 Der Remez-Algorithmus 59 φ ∗
- Seite 63 und 64: 3.4 Der Remez-Algorithmus 61 Dieses
- Seite 65 und 66: 3.4 Der Remez-Algorithmus 63 Was al
- Seite 67 und 68: 3.4 Der Remez-Algorithmus 65 muß y
- Seite 69 und 70: Bisweilen erweist sich das wahre Wi
- Seite 71 und 72: 4.2 Simultanapproximation 69 was pe
- Seite 73 und 74: 4.2 Simultanapproximation 71 also i
- Seite 75 und 76: 4.3 Shape preservation 73 Satz 4.8
- Seite 77 und 78: 4.4 Der Preis: Saturation 75 Übung
- Seite 79 und 80: 4.4 Der Preis: Saturation 77 Satz 2
- Seite 81 und 82: 4.4 Der Preis: Saturation 79 Lemma
- Seite 83 und 84:
4.4 Der Preis: Saturation 81 zur Ko
- Seite 85 und 86:
4.5 Multivariate Bernsteinpolynome
- Seite 87 und 88:
4.5 Multivariate Bernsteinpolynome
- Seite 89 und 90:
4.5 Multivariate Bernsteinpolynome
- Seite 91 und 92:
4.5 Multivariate Bernsteinpolynome
- Seite 93 und 94:
4.5 Multivariate Bernsteinpolynome
- Seite 95 und 96:
5.1 Ein Satz von Bernstein 93 Bemer
- Seite 97 und 98:
5.1 Ein Satz von Bernstein 95 Bewei
- Seite 99 und 100:
5.3 Trigonometrische Polynome II: J
- Seite 101 und 102:
5.3 Trigonometrische Polynome II: J
- Seite 103 und 104:
5.4 Trigonometrische Polynome III:
- Seite 105 und 106:
5.4 Trigonometrische Polynome III:
- Seite 107 und 108:
5.5 Trigonometrische Polynome IV: D
- Seite 109 und 110:
5.6 Trigonometrische Polynome V: Di
- Seite 111 und 112:
5.7 Algebraische Polynome 109 1. Is
- Seite 113 und 114:
5.7 Algebraische Polynome 111 Um nu
- Seite 115 und 116:
5.7 Algebraische Polynome 113 Also
- Seite 117 und 118:
6.1 Translationsinvariante Räume 1
- Seite 119 und 120:
6.1 Translationsinvariante Räume 1
- Seite 121 und 122:
6.2 Ein bißchen Fourieranalysis 11
- Seite 123 und 124:
6.2 Ein bißchen Fourieranalysis 12
- Seite 125 und 126:
6.2 Ein bißchen Fourieranalysis 12
- Seite 127 und 128:
6.2 Ein bißchen Fourieranalysis 12
- Seite 129 und 130:
6.3 Polynomreproduktion und die Str
- Seite 131 und 132:
6.3 Polynomreproduktion und die Str
- Seite 133 und 134:
6.3 Polynomreproduktion und die Str
- Seite 135 und 136:
6.4 Approximationsordnung 133 6.4 A
- Seite 137 und 138:
6.4 Approximationsordnung 135 worau
- Seite 139 und 140:
6.4 Approximationsordnung 137 Bemer
- Seite 141 und 142:
7.1 Multiresolution Analysis 139 2.
- Seite 143 und 144:
7.1 Multiresolution Analysis 141 Pr
- Seite 145 und 146:
7.2 Orthogonale Skalierungsfunktion
- Seite 147 und 148:
7.2 Orthogonale Skalierungsfunktion
- Seite 149 und 150:
7.3 Wavelets für orthonormale Skal
- Seite 151 und 152:
7.3 Wavelets für orthonormale Skal
- Seite 153 und 154:
7.4 Approximation mit Wavelets 151
- Seite 155 und 156:
7.4 Approximation mit Wavelets 153
- Seite 157 und 158:
7.4 Approximation mit Wavelets 155
- Seite 159 und 160:
7.4 Approximation mit Wavelets 157
- Seite 161 und 162:
8.1 Nomographie, Hilberts 13. Probl
- Seite 163 und 164:
8.1 Nomographie, Hilberts 13. Probl
- Seite 165 und 166:
8.2 Von Würfeln und Intervallen 16
- Seite 167 und 168:
8.2 Von Würfeln und Intervallen 16
- Seite 169 und 170:
8.3 Der Beweis 167 ist. Der Grund h
- Seite 171 und 172:
8.3 Der Beweis 169 4. Die Intervall
- Seite 173 und 174:
8.3 Der Beweis 171 ε > 0, so daß
- Seite 175 und 176:
8.3 Der Beweis 173 zusammen, die du
- Seite 177 und 178:
8.3 Der Beweis 175 Bemerkung 8.12 D
- Seite 179 und 180:
8.4 Neuronale Netze 177 w = (w0, .
- Seite 181 und 182:
8.4 Neuronale Netze 179 1 2 3 . . .
- Seite 183 und 184:
LITERATUR 181 Uns ist in alten mær
- Seite 185 und 186:
LITERATUR 183 [29] H. Heuser. Lehrb
- Seite 187 und 188:
LITERATUR 185 [62] T. J. Ransford.
- Seite 189 und 190:
Abschluß, 19 Abstand, 37 Algebra,
- Seite 191 und 192:
INDEX 189 Identität approximative,
- Seite 193:
INDEX 191 Stammfunktion, 155 Standa