Approximationstheorie
Approximationstheorie
Approximationstheorie
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
176 8 DER SATZ VON KOLMOGOROFF<br />
1. Bei der Konstruktion der φj müssen “kleine Änderungen” an den Werten der Funktionen<br />
vorgenommen werden. In der Praxis heisst dies, daß derartige Änderungen klein genug<br />
sein müssten, um schwierige zu kontrollierenden Anforderungen zu genügen, gleichzeitig<br />
aber dann doch groß genug, um vom Rechner überhaupt wahrgenommmen zu werden.<br />
2. Die numerische Realisierung von reellen Zahlen, die über Q linear unabhängig sind, ist<br />
eigentlich unmöglich, schließlich zahlen sich derartige Zahlen ja einerseits dadurch aus,<br />
daß sie bezüglich jeder Basis eine unendliche und nichtperiodische Entwicklung haben,<br />
andererseits sind sie aber ohnehin eher schlecht durch rationale Zahlen zu approximieren,<br />
siehe [36, 72].<br />
3. Die Funktion g liegt nicht wirklich exakt vor, sondern ist Grenzwert einer Funktionenreihe.<br />
Das ist aber für praktische Zwecke die geringste Einschränkung, denn mehr als<br />
eine Approximation von f durch nomographische Funktionen brauchen wir uns sowieso<br />
nicht einzubilden und die Partialsummen sind ja gute Approximationen, schließlich ist<br />
der Fehler von der Form<br />
<br />
<br />
<br />
g<br />
−<br />
<br />
n<br />
k=1<br />
gj<br />
<br />
<br />
<br />
<br />
≤<br />
∞<br />
k=n+1<br />
gk ≤ f<br />
∞<br />
k=n+1<br />
µ k−1<br />
s + 1 =<br />
µ n<br />
(s + 1)(1 − µ) f,<br />
was sogar exponentiell gegen Null geht – lineare Konvergenzordnung nennt man sowas,<br />
siehe [69].<br />
8.4 Neuronale Netze<br />
Der Satz von Kolmogoroff hat aufgrund seiner mathematischen Natur allein schon durchaus das<br />
Zeug zum Klassiker aber es gibt darüber hinaus auch noch eine Interpretation im Sinne moderner<br />
numerischer Anwendungen, nämlich der neuronalen Netze. Die Idee des neuronalen Netzes<br />
ist es, die Arbeitsweise der Gehirns zu simulieren und Funktionen aus einfachen Elementen,<br />
eben Neuronen zusammenzusetzen. Ein derartiges Neuron ist eine Funktion f : R n → R der<br />
Form<br />
f(x) = ϕw,w0(x) := ϕ w T n<br />
x + w0 , w ∈ R , w0 ∈ R, (8.18)<br />
wobei ϕ die Anregungsfunktion des Neurons ist. Eine Funktion wie in (8.18) bezeichnet man<br />
auch als Ridge–Funktion und solche Funktionen sind sehr einfach, denn sie sind entlang der<br />
affinenen Hyperebenen<br />
y + w ⊥ , w ⊥ = x ∈ R n : w T x = 0 <br />
konstant: Für x ⊥ ∈ w ⊥ ist<br />
f y + x ⊥ = ϕ w T y + x ⊥ T T ⊥ T<br />
+ w0 = ϕ w y + w x + w0 = ϕ w y + w0 = f(y).<br />
Das Konzept des Neurons ist nun, daß die Aktivierungsfunktion als fest angesehen wird und<br />
man nur die Parameter w0 und w variiert. Um die Notation zu vereinfachen setzen wir nun