07.10.2013 Aufrufe

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

3.1 Strukturierte rekurrente Netze 49<br />

des rekurrenten Netzes zusammengefasst werden. Im Parametervektor sind entsprechend<br />

alle zu identifizierenden Gewichte enthalten.<br />

Im Allgemeinen setzt sich der Parametervektor aus p Elementen zusammen und<br />

beinhaltet die Gewichte ˆ Ψ, die die linearen Systemanteile erfassen und die Gewichte<br />

ˆΘ, welche die nichtlinearen Systemanteile über Funktionsapproximatoren berücksichtigen.<br />

Die Gewichte ˆ Ψ werden daher im Folgenden als lineare und die Gewichte<br />

ˆΘ als nichtlineare Parameter bezeichnet.<br />

3.1.2 Parameteradaption<br />

Für PSfrag die Parameteradaption replacements wird die in Kapitel 2.2 vorgestellte Ausgangsfehleranordnung<br />

verwendet. <strong>mit</strong> Dies ist in Abbildung 3.3 noch einmal dargestellt.<br />

u<br />

Prozess<br />

rekurrentes Netz<br />

Abb. 3.3: Prinzip der Ausgangsfehleranordnung<br />

Das Lerngesetz für das strukturierte rekurrente Netz wird analog zur Herleitung des<br />

Gradientenverfahrens für statische Neuronale Netze berechnet.<br />

Ausgangspunkt ist der quadratische Fehler<br />

E(ˆw) = 1<br />

2 · e2 (ˆw) = 1<br />

(y − ˆy(ˆw))2<br />

2<br />

e<br />

−<br />

y<br />

ˆy<br />

(3.1)<br />

Analog zu Gleichung (2.14) ergibt sich folgende Gleichung für die Parameteradaption<br />

ˆw[k + 1] = ˆw[k] − η ·<br />

∂E[ ˆw,k]<br />

∂ ˆw1<br />

. . .<br />

∂E[ ˆw,k]<br />

∂ ˆwp<br />

ˆw[k]<br />

η ist hierbei die an das Problem angepasste Lernschrittweite, wobei die Bedingung<br />

η > 0 erfüllt sein muss 3 .<br />

Zur übersichtlicheren Schreibweise wird der Nabla-Operator eingeführt<br />

<br />

∇ =<br />

∂<br />

∂ ˆw1<br />

· · ·<br />

∂<br />

∂ ˆwp<br />

T 3 Mit η < 0 führt das Gradientenverfahren auf ein lokales Maximum in der Funktion E, wo<strong>mit</strong><br />

eine stabile <strong>Identifikation</strong> nicht möglich ist.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!