07.10.2013 Aufrufe

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

ag replacements<br />

y[k]<br />

y[k−1]<br />

y[k−2]<br />

y[k−n]<br />

2.4 Dynamische Neuronale Netze 21<br />

bezeichnet. Abbildung 2.12 zeigt ein TDNN in der Nonlinear-Autoregressiv-withexogenous-Inputs<br />

(NARX)-Struktur. Dies wird auch oft als Seriell-Parallel-Modell<br />

bezeichnet [Nelles, 2001].<br />

u[k]<br />

1<br />

z<br />

1<br />

z<br />

1<br />

z<br />

u[k−1]<br />

u[k−2]<br />

u[k−n]<br />

1<br />

z<br />

1<br />

z<br />

1<br />

z<br />

ˆy[k−1]<br />

ˆy[k−2]<br />

ˆy[k−n]<br />

PSfrag replacements<br />

NL<br />

ˆy[k]<br />

Abb. 2.11: Struktur eines TDNN als<br />

NOE-Modell<br />

ˆy[k−1]<br />

ˆy[k−2]<br />

ˆy[k−n]<br />

u[k]<br />

1<br />

z<br />

1<br />

z<br />

1<br />

z<br />

y[k]<br />

u[k−1]<br />

u[k−2]<br />

u[k−n]<br />

1<br />

z<br />

1<br />

z<br />

1<br />

z<br />

y[k−1]<br />

y[k−2]<br />

y[k−n]<br />

NL<br />

ˆy[k]<br />

Abb. 2.12: Struktur eines TDNN in der<br />

NARX-Struktur<br />

Der Unterschied zwischen den beiden Strukturen ist, dass in der NOE-Struktur<br />

der geschätzte Ausgang ˆy zurückgekoppelt wird, während in der NARX-Struktur<br />

die verzögerten Werte des gemessenen Ausgangs y als Eingang dienen. Es handelt<br />

sich jedoch bei beiden Strukturen um ein System <strong>mit</strong> externer Dynamik. Diese<br />

Bezeichnung folgt aus der Tatsache, dass beide Strukturen in zwei Bereiche aufgeteilt<br />

werden können, zum einen in einen externen Dynamik-Block (Filter), in dem die Einund<br />

Ausgangswerte verzögert werden, und in den nichtlinearen Funktionsblock NL.<br />

Hierbei ist NL ein statisches Neuronales Netz. Aufgrund der relativ großen Anzahl<br />

an Eingangsgrößen finden nur solche statischen Neuronalen Netze Verwendung, die<br />

<strong>mit</strong> dieser großen Zahl an Eingangsgrößen trainiert werden können. Hier kommt in<br />

vielen Fällen das MLP-Netz zum Einsatz.<br />

Aufgrund der großen Vielzahl an Einstellmöglichenkeiten ist das TDNN ein universelles<br />

Werkzeug zur <strong>Identifikation</strong> von unbekannten Ein-/Ausgangszusammenhängen.<br />

Allerdings erschwert die Vielzahl der Einstellmöglichkeiten auch das Finden der optimalen<br />

Einstellungen, welches bislang nur iterativ basierend auf Erfahrungswerten<br />

geschieht [Wimbök, 2001].

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!