07.10.2013 Aufrufe

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.7 Vergleich der Neuronalen Netze 41<br />

das Lernergebnis im Gegensatz zum MLP-Netz interpretierbar ist. Durch die Normierung<br />

wird ein monotoner Verlauf der approximierten Funktion erreicht, was bei<br />

dem RBF-Netz nicht der Fall ist. Allerdings muss an dieser Stelle angemerkt werden,<br />

dass sich die Neuronalen Netze auf Basis von lokalen Basisfunktionen nicht zur<br />

Approximation von mehrdimensionalen statischen Funktion eignen, da die Anzahl<br />

der Stützwerte exponentiell <strong>mit</strong> der Anzahl der Eingangsdimensionen steigt. Für<br />

eine hohe Eingangszahl (N > 3) eignet sich von den in dieser Arbeit beschriebenen<br />

statischen Neuronalen Netze nur das MLP-Netz.<br />

Eine Sonderrolle spielt das HANN-Netz, welches sich nur zur Approximation von<br />

periodischen Nichtlinearitäten eignet.<br />

In Tabelle 2.2 sind die Einsatzbereiche der diskutierten statischen Funktionsapproximatoren<br />

zusammengefasst.<br />

Netztyp Einsatzbereich<br />

RBF <strong>Identifikation</strong> von 1- oder 2-dimensionalen statischen Funktionen<br />

GRNN <strong>Identifikation</strong> von 1- oder 2-dimensionalen statischen Funktionen<br />

HANN <strong>Identifikation</strong> von periodischen Nichtlinearitäten<br />

MLP <strong>Identifikation</strong> von höher dimensionalen Funktionen<br />

Tabelle 2.2: Einsatzbereich statischer Neuronaler Netze<br />

Im zweiten Teil dieses Kapitels wurde auf drei dynamische Neuronale Netze eingegangen.<br />

Als erstes dynamisches Netz wurde das TDNN-Netz vorgestellt, welches<br />

<strong>mit</strong> Hilfe eines statischen Neuronalen Netzes in NOE- oder in NARX-Struktur ein<br />

nichtlineares dynamisches System identifizieren kann. Dieses Neuronale Netz wird<br />

der Klasse der dynamischen Neuronalen Netze <strong>mit</strong> externer Dynamik zugeordnet,<br />

da hierbei die Dynamik durch die vorgeschalteten Verzögerungen approximiert wird.<br />

Aus der Klasse der dynamischen Neuronalen Netze <strong>mit</strong> interner Dynamik wurden<br />

das Jordan- und das Elman-Netz vorgestellt. Hierbei handelte es sich um vorwärtsgerichtete<br />

Neuronale Netze, bei denen die Dynamik <strong>mit</strong> Hilfe von Rückkopplungen<br />

über sogenannte interne Kontextzellen realisiert wurde. Die Kontextzellen sind in<br />

der Lage, vergangene Ausgangsgrößen (Jordan-Netz) bzw. vergangene Ausgangsgrößen<br />

der verdeckten Schicht (Elman-Netz) zu speichern. In der Literatur [Zell,<br />

1994] und auch in Versuchen, die im Zuge dieser Arbeit entstanden sind [Schury,<br />

2002; Wimbök, 2001], hat sich gezeigt, dass <strong>mit</strong> Hilfe des TDNN-Netzes beliebige<br />

nichtlineare <strong>Systeme</strong> hinreichend genau approximiert werden können. Allerdings<br />

stellte sich die Bestimmung der optimalen Netztstruktur für den statischen Funktionsapproximator<br />

oft als sehr schwierig und zeitaufwendig heraus. Zudem sind die<br />

Konvergenzzeiten sehr hoch. Ein deutlich schnelleres Konvergenzverhalten bei geringerer<br />

Parameteranzahl konnte für das Jordan-Netz erreicht werden. Allerdings<br />

war die Approximationsgüte oft deutlich schlechter als für das TDNN-Netz. Dies<br />

lässt sich zum einen darauf zurückführen, dass kein optimaler Rückkoppelfaktor<br />

der Kontextzellen gefunden werden konnte. Zum anderen lässt sich die schlechtere

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!