Interaktion mittels Gestik, Animation - Institut für Verteilte Systeme ...

Interaktion mittels Gestik, Animation - Institut für Verteilte Systeme ... Interaktion mittels Gestik, Animation - Institut für Verteilte Systeme ...

vs.informatik.uni.ulm.de
von vs.informatik.uni.ulm.de Mehr von diesem Publisher

Universität Ulm<br />

Proseminar Virtuelle Präsenz SS05<br />

Bastian Könings<br />

bk8@informatik.uni-ulm.de<br />

Ausarbeitung zum Thema:<br />

<strong>Interaktion</strong> <strong>mittels</strong> <strong>Gestik</strong>,<br />

<strong>Animation</strong>


Inhaltsverzeichnis:<br />

1. Einleitung: ..................................................................................................................... - 3 -<br />

2. <strong>Gestik</strong> allgemein............................................................................................................ - 3 -<br />

3. <strong>Gestik</strong>erkennung............................................................................................................ - 4 -<br />

3.1. Erkennung per Datenhandschuh............................................................................ - 4 -<br />

3.2. Bildbasierte Erkennung......................................................................................... - 4 -<br />

3.2.1. Neuronale Netze zum Erkennen von Handstellungen................................... - 4 -<br />

3.2.2. Kodierung durch Gaborfilterung................................................................... - 5 -<br />

3.2.3. Vor- und Nachteile der bildbasierten Erkennung.......................................... - 7 -<br />

3.2.4. Anwendungsbeispiele.................................................................................... - 7 -<br />

4. <strong>Animation</strong> von Gesten................................................................................................... - 8 -<br />

4.1. Keyframe-<strong>Animation</strong>en......................................................................................... - 8 -<br />

4.2. inverse Kinematik ................................................................................................. - 8 -<br />

4.3. Vertex Skinning................................................................................................... - 10 -<br />

4.4. H-Anim Standard ................................................................................................ - 11 -<br />

4.5. Anwendungsbeispiele.......................................................................................... - 12 -<br />

4.5.1. Avatare und NSCs....................................................................................... - 12 -<br />

4.5.2. Virtuelle Assistenten ................................................................................... - 12 -<br />

5. Literaturverzeichnis:.................................................................................................... - 13 -<br />

- 2 -


1. Einleitung:<br />

Mit dieser Arbeit soll ein Überblick über die Bedeutung und Verwendung von <strong>Gestik</strong> im<br />

Bereich der virtuellen Präsenz vermittelt werden. Die Arbeit ist in drei Hauptkategorien<br />

gegliedert. Die erste Kategorie erläutert den Begriff <strong>Gestik</strong> im Allgemeinen. Die zweite<br />

Kategorie beschäftigt sich mit Methoden der <strong>Gestik</strong>erkennung. Zuletzt wird auf die<br />

Gestenanimation eingegangen.<br />

2. <strong>Gestik</strong> allgemein<br />

Der Begriff <strong>Gestik</strong> bezeichnet die Gesamtheit aller Gesten. Unter einer Geste versteht man<br />

hauptsächlich nonverbale Kommunikation, bei der vor allem Arme und Hände verwendet<br />

werden. <strong>Gestik</strong> kann sprachersetzend oder auch sprachbegleitend eingesetzt werden.<br />

Sprachbegleitende Gesten verwendet man alltäglich, oft auch unbewusst. Die wohl größte<br />

Bedeutung der sprachersetzenden <strong>Gestik</strong> liegt natürlich in der Gebärdensprache.<br />

Alle Gesten lassen sich in 4 große Gestenklassen unterteilen.<br />

1. lexikalische Gesten<br />

Lexikalische Gesten sind erlernte Gesten, wie z.B. das Winken mit der Hand als Zeichen der<br />

Begrüßung. Sie funktionieren wie Wörter einer Lautsprache. Wichtig hierbei ist, dass die<br />

Bedeutung dieser Art von Gesten kulturell abhängig ist. So ist das Kopfschütteln, welches in<br />

Europe ein Zeichen der Ablehnung/Verneinung ist, in Indien ein Zeichen der Zustimmung.<br />

Lexikalische Gesten können also leicht zu Missverständnissen führen. Bei der<br />

Implementierung von Interfaces, die durch Gesten gesteuert werden sollen, ist also auf diese<br />

Tatsache besonders zu achten.<br />

2. deiktische Gesten<br />

Deiktische Gesten sind Zeigegesten. Mit ihnen deutet man auf eine Person oder ein Objekt in<br />

unmittelbarer Nähe. Auch diese Art Gesten sind sehr wichtig <strong>für</strong> gestikgesteuerte Interfaces,<br />

da sie kulturell unabhängig und besonders intuitiv anwendbar sind.<br />

3. ikonische Gesten<br />

Ikonische Gesten bilden reale Objekte ab. Man formt z.B. mit der Hand einen Ball.<br />

4. koverbale Gesten<br />

Koverbale Gesten sind die sprachbegleitenden Gesten, die Aussagen eines Redners<br />

unterstützen und ihm helfen Emotionen auszudrücken.<br />

<strong>Gestik</strong> erleichtert und unterstützt die intermenschliche Kommunikation. Daher ist es nahe<br />

liegend auf Grund der intuitiven Verwendung von Gesten, diese auch im Bereich der Mensch-<br />

Maschine <strong>Interaktion</strong> einzusetzen. In diesem Bereich wird <strong>Gestik</strong> immer wichtiger. Gerade in<br />

Zeiten, in denen fast jeder Haushalt einen Computer besitzt, wünscht man sich eine möglichst<br />

benutzerfreundliche Handhabung der Geräte. Besonders im Bereich der Navigation in 3D-<br />

Anwendungen wäre <strong>Gestik</strong> eine wünschenswerte alternative zu Mäusen und anderen<br />

Eingabegeräten, mit denen es nur schwer möglich ist Bewegungen im Raum zu<br />

bewerkstelligen. Für die Mensch-Maschine <strong>Interaktion</strong> <strong>mittels</strong> Gesten ist eine zuverlässige<br />

Methode zur <strong>Gestik</strong>erkennung erforderlich. Auf diesem Bereich besteht großes<br />

- 3 -


Forschungspotential. Es gibt viele verschieden Ansätze um dieses Problem zu meistern. Auf<br />

eine dieser Methoden wird im nächsten Abschnitt eingegangen.<br />

<strong>Gestik</strong> ist aber nicht nur wichtig <strong>für</strong> den <strong>Interaktion</strong>sbereich. Auch bei der Darstellung<br />

virtueller Charaktere wird zunehmend größerer Wert auf Realitätsnähe gelegt. Dazu gehört<br />

selbstverständlich die Umsetzung real wirkender Bewegungen und Gesten. Wie Gesten <strong>für</strong><br />

virtuelle Charaktere möglichst realistisch animiert werden können, wird im letzen Abschnitt<br />

erläutern.<br />

3. <strong>Gestik</strong>erkennung<br />

3.1. Erkennung per Datenhandschuh<br />

Bei der <strong>Gestik</strong>erkennung unterscheidet man zwischen zwei wesentlichen<br />

Erkennungsmethoden. Die erste ist die Erkennung per Datenhandschuh bzw. per Datenanzug.<br />

Diese Methode ist sehr zuverlässig und liefert sehr genaue Ergebnisse über Positionen und<br />

Bewegungsabläufe. Die <strong>Gestik</strong>erkennung funktioniert mit dieser Methode daher recht schnell<br />

und unkompliziert. Ein weiterer Vorteil ist die Umgebungsunabhängigkeit. Ein großer<br />

Nachteil hingegen ist, dass ein Datenhandschuh <strong>für</strong> den Benutzer als äußerst störend und<br />

lästig empfunden wird. Ein Datenhandschuh ist nur in bestimmten Bereichen anwendbar. Für<br />

öffentliche Interfaces ist dieser z.B. undenkbar. Auch die hohen Kosten <strong>für</strong> präzise Geräte<br />

sprechen gegen diese Erkennungsmethode.<br />

3.2. Bildbasierte Erkennung<br />

Die zweite, wesentlich benutzerfreundlichere Variante zur <strong>Gestik</strong>erkennung, ist die<br />

Erkennung per Videokamera. Diese bildbasierte Erkennung ist eine Kombination aus<br />

Bildverarbeitung und künstlicher Intelligenz. Es gibt viele verschiedene Ansätze, die auf<br />

dieser Methode aufbauen. Im Folgenden wird anhand des Forschungsprojektes „Visuelle<br />

Zeigegestik <strong>für</strong> die Mensch-Maschine-<strong>Interaktion</strong>“ der Universität Bielefeld einer dieser<br />

Ansätze zur bildbasierten <strong>Gestik</strong>erkennung erläutert. Hierbei geht man davon aus, dass man<br />

nur statische Gesten (postures) erkennen möchte. Die Erkennung von dynamischen Gesten<br />

(gestures) ist wesentlich aufwendiger und bleibt bei dieser Ausführung unbeachtet. Bei der<br />

verwendeten Erkennungsmethode des Projekts kommt die Erkennung von postures hingegen<br />

vieler anderer Methoden ohne jegliche Markierungen der Gelenke aus.<br />

3.2.1. Neuronale Netze zum Erkennen von Handstellungen<br />

Künstliche neuronale Netze dienen dazu dem Computer Fehlertoleranz zu erlauben. Dabei<br />

werden Strukturen und Lernfähigkeit des menschlichen Gehirns in abstrakter Weise auf den<br />

Computer übertragen. Die Mustererkennung ist heutzutage das Hauptanwendungsgebiet<br />

neuronaler Netze. Dazu wird das Netz in einer Lernphase mit Beispielen trainiert um in der<br />

anschließenden Nutzungsphase unbekannte Eingaben durch die trainierten Strukturen<br />

klassifizieren zu können. Eine Programmierung ist daher überflüssig.<br />

Aufgrund der Vielgestaltigkeit des visuellen Erscheinungsbildes menschlicher<br />

Handpositionen sind neuronale Netze besonders gut <strong>für</strong> die Erkennung von Handgesten<br />

geeignet.<br />

- 4 -


3.2.2. Kodierung durch Gaborfilterung<br />

Um allerdings die gewünschten Informationen <strong>für</strong> ein neuronales Netz aus einem Bild zu<br />

gewinnen, muss dieses zunächst in ein geeignetes Format kodiert werden. Dies geschieht<br />

durch die Gaborfilterung, bei der einige Bildpunkte (Gaborzentren) ausgewählt werden und in<br />

deren Umgebung die Helligkeiten der einzelnen Bildpunkte mit speziellen<br />

Gewichtungsfaktoren multipliziert und zusammenaddiert werden. Diese Gewichtungsfaktoren<br />

hängen von der relativen Lage jedes einzelnen Bildpunktes zum Filterzentrum ab und lassen<br />

sich als ein zweidimensionales Muster um jedes Gaborzentrum veranschaulichen.<br />

Die aus den jeweiligen Gaborfiltern resultierenden Summen (in Abbildung 1 farbkodiert<br />

dargestellt) bilden die Grundlage <strong>für</strong> die weitere Verarbeitung durch eine Reihe<br />

nachgeschalteter neuronaler Netze. Diese liefern als Ergebnis einen kleineren Bildausschnitt.<br />

Um nun z.B. eine Fingerspitze erkennen zu können müssen diese Schritte wiederholt werden,<br />

wobei man immer feinere Gaborfilter verwendet. Abbildung 1 zeigt dieses Schema, bei dem<br />

nach dem dritten Durchgang als Ergebnis des letzten neuronalen Netzes die Fingerposition<br />

resultiert.<br />

Abbildung 1: Positionsbestimmung einer Fingerspitze [Q11]<br />

- 5 -


Abbildung 2: typische Fingerstellungen, die durch neuronale Netze erkannt werden können<br />

[Q11]<br />

Für jede Fingerspitze existiert eine separate Verarbeitungskette mehrerer Netze. Die Netze<br />

sind zwar anfangs gleich strukturiert, unterscheiden sich dann aber nach dem Training <strong>für</strong><br />

jede einzelne Fingerspitze. Während des Trainings wird eine große Anzahl von<br />

Trainingsbildern abgearbeitet, bei denen die Position der Fingerspitze bekannt ist. Die<br />

Abweichungen die dabei entstehen dienen dazu die Gewichtungsparameter der neuronalen<br />

Netze richtig einzustellen. Die Fehler der einzelnen Netze werden so im Laufe des Trainings<br />

schrittweise verringert.<br />

Um nun z.B. eine Zeigerichtung erkennen zu können, muss man zusätzlich die Position der<br />

Fingerwurzel bestimmen. Dies geschieht ebenfalls wieder durch ein trainiertes neuronales<br />

Netz. Die Verbindungsstrecke der Fingerwurzel mit der Fingerspitze ist dann die gesuchte<br />

Zeigerichtung. (Abbildung 3)<br />

Abbildung 3: Zeigerichtung kann durch 2 trainierte Netze bestimmt werden [Q11]<br />

- 6 -


3.2.3. Vor- und Nachteile der bildbasierten Erkennung<br />

Der Hauptvorteil gegenüber der <strong>Gestik</strong>erkennung per Datenhandschuh ist ganz klar die<br />

Benutzerfreundlichkeit. Es bedarf keiner lästigen Zusatzausrüstung. Ein weiterer Vorteil ist,<br />

dass diese Methode leicht auf den ganzen Körper erweitert werden kann. Im Vergleich zum<br />

Datenhandschuh ist diese Variante außerdem wesentlich preisgünstiger in der Anschaffung.<br />

Ein großer Nachteil hingegen ist die Umgebungsabhängigkeit. Durch Lichteinstrahlung oder<br />

ungeeignete Hintergründe kann die bildbasierte Erkennung schnell beeinträchtigt werden.<br />

Die Umsetzung ist außerdem recht aufwändig, da zum Teil sehr komplizierte Algorithmen<br />

implementiert werden müssen. Dies wirkt sich negativ auf die Geschwindigkeit aus, mit der<br />

die Gesten erkannt werden können, die zusätzlich noch durch die Bildrate der Kamera<br />

beschränkt ist.<br />

Kontinuierliche <strong>Gestik</strong>erkennung, also die Erkennung von dynamischen Gesten, ist mit dieser<br />

Methode sehr schwer, denn hierzu ist es notwendig den Start- und Endzeitpunkt der Geste zu<br />

kennen.<br />

3.2.4. Anwendungsbeispiele<br />

1. SIVIT (Siemens Virtual Touchscreen)<br />

SIVIT wurde 1996 entwickelt und bezeichnet den weltweit ersten Computer, der keine Maus,<br />

keine Tastatur und keinen Monitor benötigt. Durch einen Videobeamer kann die<br />

Benutzeroberfläche auf nahezu jede Unterlage projiziert werden. Die Bedienung erfolgt dann<br />

einfach über Zeigegesten, die durch eine Kamera aufgenommen und vom System erkannt<br />

werden. So ist es z.B. möglich Objekte auszuwählen, indem man mit dem Finger auf diesem<br />

kurz verweilt, und es dann durch Handbewegung zu verschieben.<br />

Das System hat großen Nutzen <strong>für</strong> Parkinson- und Multiple-Sklerose-Patienten.<br />

Bewegungsstörungen sowie das Zittern der Patienten können durch das System ausgeglichen<br />

werden. So wird den Patienten eine Möglichkeit geboten mit einem Computer zu interagieren,<br />

was ihnen mit Tastatur und Maus nicht möglich war. [Q1]<br />

2. 3D-Kiosksystem<br />

Das Kiosksystem wurde 2005 von der Firma Rittal gemeinsam mit dem Frauenhofer <strong>Institut</strong><br />

<strong>für</strong> Nachrichtentechnik entwickelt. Es ist zurzeit das weltweit einzige hochauflösende 3D-<br />

Kiosksystem mit Gestenerkennung. Die angezeigten photorealistischen Objekte können<br />

einfach per Hand gedreht oder verschoben werden. Das System soll zukünftig in Museen,<br />

Flughäfen, Einkaufszentren und Tourismusinformationen zum Einsatz kommen. [Q2]<br />

- 7 -


4. <strong>Animation</strong> von Gesten<br />

4.1. Keyframe-<strong>Animation</strong>en<br />

Alle Arten von <strong>Animation</strong>en lassen sich in drei Kategorien einteilen. Die erste Kategorie<br />

besteht dabei aus vordefinierten <strong>Animation</strong>en. Diese Art kann durch Motion-Capture-<br />

Verfahren aufgezeichnet oder in 3D-Programmen (wie z.B. Maya) entworfen werden. Die<br />

erste Möglichkeit <strong>Animation</strong>en dieser Kategorie zu speichern sind Keyframe-<strong>Animation</strong>en.<br />

Hierbei werden in bestimmten Zeitintervallen Rotationswinkel, Translationswerte und<br />

Skalierungswerte <strong>für</strong> die Achsen x, y und z gespeichert. Die Rotationen werden dabei in<br />

Eulerwinkeln angegeben. Einen genauen Wert berechnet man beim Abspielen einer<br />

Keyframe-<strong>Animation</strong> durch eine einfache lineare Interpolation zwischen zwei gespeicherten<br />

Werten. Die zweite Möglichkeit zur Speicherung von vordefinierten <strong>Animation</strong>en sind<br />

Kurvenformate wie Bézier-Kurven oder B-Splines, die den Verlauf einer <strong>Animation</strong> anhand<br />

von wenigen Stützstellen beschreiben (Abbildung 4).<br />

Werden <strong>Animation</strong>en anhand von Stützstellen gespeichert, ist die Berechnung eines Wertes<br />

zwischen zwei Stützstellen aufwendiger, weil anstelle einer linearen Interpolation zwischen<br />

zwei Punkten, ein Punkt auf einer Kurve berechnet werden muss. Der Vorteil von<br />

Kurvenformaten ist, dass eine Interpolation zwischen dem Übergang zweier <strong>Animation</strong>en<br />

bessere Ergebnisse liefert.<br />

Abbildung 4: Winkeländerungen der x, y und z-Achse eines Knotens beschrieben anhand<br />

von sechs Stützstellen [Q9]<br />

4.2. inverse Kinematik<br />

Die zweite Kategorie von <strong>Animation</strong>en bilden so genannte prozedurale <strong>Systeme</strong>, die<br />

<strong>Animation</strong>en anhand von Algorithmen berechnen. Ein solches prozedurales Verfahren ist<br />

die inverse Kinematik (IK). Unter einer kinematischen Kette versteht man zunächst mehrere<br />

Glieder, die hintereinander durch Gelenke verbunden sind. Dabei beginnt die Kette mit einem<br />

Elternteil, an dem die Kinder anhängen. Bewegt sich das Elternteil so bewegen sich auch die<br />

Kinder. Man unterscheidet zwischen Vorwärtskinematik (Abbildung 5), bei der die<br />

- 8 -


Winkelstellungen der Gelenke (bekannt als Pose) bekannt sind und die Lage des letzten<br />

Gliedes (Endeffektorposition) berechnet wird, und IK (Abbildung 6), bei der die Lage des<br />

letzten Gliedes bekannt ist und die Winkelstellung der Gelenke berechnet wird. Ein<br />

Endeffektor kann beispielsweise eine Fingerspitze sein, mit deren Position die Winkel der<br />

Gelenke des Armes berechnet werden. Aufgrund der vielen Möglichkeiten der Stellung von<br />

Gelenken sind natürlich aussehende Gesten durch IK nur mit hohem Aufwand zu<br />

verwirklichen.<br />

Abbildung 5: Vorwärtskinematik [Q5]<br />

Abbildung 6: Inverse Kinematik [Q5]<br />

Die dritte Kategorie von <strong>Animation</strong>en verbindet prozedurale <strong>Systeme</strong> und vorgefertigte<br />

<strong>Animation</strong>en, um natürlich aussehende Bewegungen umzusetzen, ohne rechenintensive<br />

komplexe Algorithmen zu verwenden.<br />

- 9 -


4.3. Vertex Skinning<br />

Eine weitere Schwierigkeit der Charakteranimation besteht in der Umsetzung der Haut. Es<br />

gibt zwei verschiedene Ansätze. Der einfache Ansatz legt ein Polygonnetz um jeden Knochen<br />

des Skeletts. Somit ist jeder Eckpunkt eines Polygons einem Knochen zugeordnet und folgt<br />

diesem steif bei einer Bewegung. Das Problem bei dieser Methode ist, dass sich in den<br />

Gelenkbereichen unschöne Lücken oder Überschneidungen bilden können. Außerdem wirkt<br />

die Haut sehr statisch.<br />

Damit die Haut also möglichst realistisch wirkt, verwendet man eine andere Methode, auch<br />

bekannt als Vertex Skinning. Hierbei wird ein Polygonnetz über das gesamte Skelett gespannt.<br />

Jeder Eckpunkt eines Polygons (Vertex) wird nun mindestens einem Knochen zugeordnet und<br />

der Einfluss der Knochenstellung auf diesen Eckpunkt mit einem Faktor gewichtet. Der<br />

Faktor 100 würde z.B. bedeuten, dass der Hautpunkt dem Knochen bei einer Bewegung steif<br />

folgen soll. Diese Methode bewirkt, dass sich in den Gelenkbereichen nun die Haut bei einer<br />

Bewegung verformen, also strecken oder zusammenziehen kann. (Abbildung 7)<br />

Abbildung 7: Die Haut passt sich der Armbewegung an<br />

- 10 -


4.4. H-Anim Standard<br />

Die Abkürzung H-Anim Standard steht <strong>für</strong> Humanoid <strong>Animation</strong> Working Group Standard<br />

und bezeichnet einen Standard <strong>für</strong> die Strukturierung, Benennung und Geometriedefinition<br />

virtueller menschlicher Körper. Verwendet wird dieser Standard z.B. in der 3D-<br />

Modellierungssprache X3D (Nachfolger der Virtual Reality Modeling Language, VRML).<br />

Nach dem Standard setzt sich ein humanoid VRML Modell aus folgenden vier<br />

Hauptknotentpyen zusammen (Abbildung 8).<br />

1. Der Humanoid-Knoten stellt den Wurzelknoten dar und darf bei jedem Modell nur<br />

einmal vorkommen.<br />

2. Der Joint-Knoten stellt ein Gelenk dar.<br />

3. Der Segment-Knoten stellt ein Körperteil bzw. einen Knochen dar.<br />

4. Über den Site-Knoten kann ein relativer Ort, z.B. <strong>für</strong> Endeffektoren oder<br />

Vernküpfungspunkte <strong>für</strong> Kleidung/Schmuck, definiert werden.<br />

Abbildung 8: Aufbau eines humanoiden VRML-Modells nach H-Anim Spezifikation 1.1 [Q9]<br />

- 11 -


4.5. Anwendungsbeispiele<br />

4.5.1. Avatare und NSCs<br />

Realistisch wirkende virtuelle Charaktere haben natürlich eine besonders große Bedeutung <strong>für</strong><br />

virtuelle 3D-Welten. Einerseits gibt es Avatare, die eine 3D-Repräsentation einer realen<br />

Person darstellen und von dieser evtl. direkt gesteuert werden. Andererseits gibt es Nicht<br />

Spieler Charaktere (NSCs), die lediglich dazu dienen eine virtuelle Welt zu beleben. Gerade<br />

bei dieser Art von virtuellen Charakteren ist es wichtig, dass der Computer zufällige<br />

realistische Bewegungen generieren kann. Bei eben dieser Methode spielt besonders die<br />

inverse Kinematik eine große Rolle.<br />

4.5.2. Virtuelle Assistenten<br />

Auch bei virtuellen Assistenten erfreut sich die Charakteranimation immer größerer<br />

Beliebtheit. Das Projekt „Tessa“ stellt z.B. eine große Hilfe <strong>für</strong> Gehörlose dar. Eine virtuelle<br />

Frau übersetzt dabei gesprochene Worte problemlos in die Gebärdensprache.<br />

Im Bereich der virtuellen Assistenten kann man in Zukunft noch viele Neuerungen erwarten.<br />

- 12 -


5. Literaturverzeichnis:<br />

[Q1] http://w4.siemens.de/FuI/de/archiv/zeitschrift/heft1_98/artikel07/<br />

[Q2] http://presse.rittal.de/Kiosk_3D.html<br />

[Q3] http://www.it.fht-esslingen.de/~schmidt/vorlesungen/vr/seminar/ws9899/kinmodinvkinem.html<br />

[Q4] http://www.blitzbase.de/lexikon/vertexskinning.htm<br />

[Q5] http://medien.informatik.uniulm.de/lehre/courses/ss04/animationsgrundlagen/unterlagen/anim04-09-animation.pdf<br />

[Q6] http://www-vs.informatik.uni-ulm.de/teach/ws03/vp/ausarbeitungen/<strong>Gestik</strong>_Gromer.pdf<br />

[Q7] http://www-vs.informatik.uniulm.de/teach/ws04/vp/VPS_WS0405_08_VirtCharaktere.pdf<br />

[Q8] http://elefant.khm.de/~actor/projects/making_of/making_of_title.html<br />

[Q9] http://info.bib.fh-giessen.de/opus/volltexte/2004/3159/pdf/Diplomarbeit.pdf<br />

[Q10] http://www.payer.de/kommkulturen/kultur042.htm<br />

[Q11] http://www.uni-bielefeld.de/presse/fomag/uni17_pdf/s20_25.pdf<br />

- 13 -

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!