14.07.2013 Aufrufe

Künstliche Neuronale Netze zur Prognose von Zeitreihen

Künstliche Neuronale Netze zur Prognose von Zeitreihen

Künstliche Neuronale Netze zur Prognose von Zeitreihen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

5 ANWENDUNGEN VON KNN ZUR PROGNOSE VON ZEITREIHEN<br />

Im Sinne einer Komplexitätsreduktion können beim Preprocessing Eingangsvariablen<br />

wie im Abschnitt <strong>zur</strong> Vergangenheitstiefe beschrieben bereits im Vorhinein als gleitende<br />

Durchschnitte aggregiert werden. Der Vorteil liegt darin, dass eine große Informations-<br />

breite aufgenommen werden kann, ohne dass dies die Komplexität des KNN durch eine<br />

überdimensional große Eingabeschicht unnötig erhöhen würde. Zudem werden durch die<br />

Bildung <strong>von</strong> gleitenden Durchschnitten Ausreißer, die zu Verfremdungen führen könnten,<br />

geglättet. Dass lediglich 10 % der Anwendungen auf gleitende Durchschnitte <strong>zur</strong>ückgrei-<br />

fen, ist damit zu erklären, dass solche Aggregate auch Informationen ausblenden können,<br />

die für die <strong>Prognose</strong>n wesentlich sein könnten.<br />

Die <strong>Zeitreihen</strong> der Anwendungen, deren Werte mathematisch berechnet wurden, unter-<br />

scheiden sich <strong>von</strong> gemessenen Daten realer <strong>Zeitreihen</strong> dadurch, dass sie keinen Mess-<br />

ungenauigkeiten unterliegen. Sollen damit jedoch Verfahren entwickelt oder <strong>Netze</strong> trai-<br />

niert werden, deren Aufgabe es ist, auch auf realen <strong>Zeitreihen</strong> zu arbeiten, können die<br />

Trainingsdaten beim Preprocessing mit einem Rauschen versehen werden. Dadurch wird<br />

sowohl die Vergleichbarkeit mit als auch die Anwendbarkeit auf reale Anwendungen ge-<br />

währleistet. Ein zusätzlicher Nutzen der Hinzufügung <strong>von</strong> Rauschen besteht in der erhöh-<br />

ten Generalisierungsfähigkeit des trainierten <strong>Netze</strong>s. 74 Trotzdem wurden unter den un-<br />

tersuchten Anwendungen die Trainingsdaten lediglich bei 7 % der <strong>Zeitreihen</strong> mit einem<br />

additiven Rauschen versehen.<br />

Eine Übersicht über die Verwendungshäufigkeiten der einzelnen Arten des Preproces-<br />

sings wird in Tabelle 10 gegeben. Besonders bei dieser Auflistung ist zu beachten, dass<br />

vermutlich viele Anwendungen, bei denen es keine Angaben über ein Preprocessing gab,<br />

auch tatsächliches keines anwenden. Schließlich können KNN abhängig <strong>von</strong> der jeweili-<br />

gen Zeitreihe auch bei vollständigem Verzicht auf ein Preprocessing sehr gute Ergebnisse<br />

bei der <strong>Prognose</strong> erzielen.<br />

Transformation Anzahl der Anwendungen Anteil<br />

Lineare Skalierung 36 62 %<br />

Logarithmus 16 28 %<br />

Differenzenbildung 16 28 %<br />

Trend- und Saisonbereinigung 5 9 %<br />

Bildung gleitender Durchschnitte 6 10 %<br />

Hinzufügen <strong>von</strong> Rauschen 4 7 %<br />

Wavelet Transformation 1 2 %<br />

Anzahl betrachteter Anwendungen 58 100 %<br />

Tabelle 10: Im Preprocessing angewandte Transformationen 75<br />

5.3.4 Zur <strong>Prognose</strong> verwendete Datensätze<br />

Wie bereits zu Beginn dieses Kapitels erwähnt, können die einzelnen Anwendungen auch<br />

nach der Anzahl der <strong>zur</strong> Verfügung stehenden Datensätze und der Anzahl der bei der<br />

74 Vgl. [Lotr04, S. 179].<br />

75 In einigen Anwendungen wurden auch mehrere Transformationen kombiniert.<br />

43

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!