15.10.2013 Aufrufe

Approximationstheorie

Approximationstheorie

Approximationstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

176 8 DER SATZ VON KOLMOGOROFF<br />

1. Bei der Konstruktion der φj müssen “kleine Änderungen” an den Werten der Funktionen<br />

vorgenommen werden. In der Praxis heisst dies, daß derartige Änderungen klein genug<br />

sein müssten, um schwierige zu kontrollierenden Anforderungen zu genügen, gleichzeitig<br />

aber dann doch groß genug, um vom Rechner überhaupt wahrgenommmen zu werden.<br />

2. Die numerische Realisierung von reellen Zahlen, die über Q linear unabhängig sind, ist<br />

eigentlich unmöglich, schließlich zahlen sich derartige Zahlen ja einerseits dadurch aus,<br />

daß sie bezüglich jeder Basis eine unendliche und nichtperiodische Entwicklung haben,<br />

andererseits sind sie aber ohnehin eher schlecht durch rationale Zahlen zu approximieren,<br />

siehe [36, 72].<br />

3. Die Funktion g liegt nicht wirklich exakt vor, sondern ist Grenzwert einer Funktionenreihe.<br />

Das ist aber für praktische Zwecke die geringste Einschränkung, denn mehr als<br />

eine Approximation von f durch nomographische Funktionen brauchen wir uns sowieso<br />

nicht einzubilden und die Partialsummen sind ja gute Approximationen, schließlich ist<br />

der Fehler von der Form<br />

<br />

<br />

<br />

g<br />

−<br />

<br />

n<br />

k=1<br />

gj<br />

<br />

<br />

<br />

<br />

≤<br />

∞<br />

k=n+1<br />

gk ≤ f<br />

∞<br />

k=n+1<br />

µ k−1<br />

s + 1 =<br />

µ n<br />

(s + 1)(1 − µ) f,<br />

was sogar exponentiell gegen Null geht – lineare Konvergenzordnung nennt man sowas,<br />

siehe [69].<br />

8.4 Neuronale Netze<br />

Der Satz von Kolmogoroff hat aufgrund seiner mathematischen Natur allein schon durchaus das<br />

Zeug zum Klassiker aber es gibt darüber hinaus auch noch eine Interpretation im Sinne moderner<br />

numerischer Anwendungen, nämlich der neuronalen Netze. Die Idee des neuronalen Netzes<br />

ist es, die Arbeitsweise der Gehirns zu simulieren und Funktionen aus einfachen Elementen,<br />

eben Neuronen zusammenzusetzen. Ein derartiges Neuron ist eine Funktion f : R n → R der<br />

Form<br />

f(x) = ϕw,w0(x) := ϕ w T n<br />

x + w0 , w ∈ R , w0 ∈ R, (8.18)<br />

wobei ϕ die Anregungsfunktion des Neurons ist. Eine Funktion wie in (8.18) bezeichnet man<br />

auch als Ridge–Funktion und solche Funktionen sind sehr einfach, denn sie sind entlang der<br />

affinenen Hyperebenen<br />

y + w ⊥ , w ⊥ = x ∈ R n : w T x = 0 <br />

konstant: Für x ⊥ ∈ w ⊥ ist<br />

f y + x ⊥ = ϕ w T y + x ⊥ T T ⊥ T<br />

+ w0 = ϕ w y + w x + w0 = ϕ w y + w0 = f(y).<br />

Das Konzept des Neurons ist nun, daß die Aktivierungsfunktion als fest angesehen wird und<br />

man nur die Parameter w0 und w variiert. Um die Notation zu vereinfachen setzen wir nun

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!