17.08.2013 Aufrufe

Vertiefung_2.pdf

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Einleitung<br />

Neue Technologien, insbesondere das Internet, verändern<br />

die Bedingungen für Lehre und Forschung<br />

sowie den Zugang zu wissenschaftlichen Ressourcen<br />

und Lernmaterialien. Vor allem für Lehrende an Universitäten,<br />

aber auch für Studierende, sind das Internet<br />

und den damit verbundenen Möglichkeiten des<br />

Zugriffs auf wissenschaftliche Veröffentlichungen<br />

und Materialien wesentlich: Während diese früher in<br />

der Regel nur gedruckt in Bibliotheken oder für die<br />

Universitäten und deren Mitglieder in einem eingeschränkten<br />

Intranet zur Verfügung standen, sind jetzt<br />

immer häufiger Fachpublikationen und Forschungsdaten<br />

frei im Internet zugänglich. Auch immer mehr-<br />

Lernmaterialien werden zur freien Nutzung angeboten.<br />

In diesem Kapitel werden wir uns zum einen<br />

dem Publizieren mit freiem Zugang (engl. „open<br />

access“) und zum anderen frei zugänglichen und<br />

nutzbaren Bildungsmaterialien (engl. „open educational<br />

resources“) widmen. Dabei werden wir jeweils<br />

zunächst das tradierte Verfahren, dann die Neu- und<br />

Weiterentwicklungen vorstellen und Fragen des Urheberrechts<br />

berühren.<br />

2. Tradi1onelle wissenscha7liche Publika1onen<br />

Damit Forschungsarbeiten diskutiert und zitiert<br />

werden können, müssen Wissenschaftler/innen diese<br />

veröffentlichen und bestmöglich verbreiten. Veröffentlichungsformen<br />

unterscheiden sich je nach Disziplin.<br />

So werden in den Geisteswissenschaften häufiger<br />

als in anderen Bereichen Sammelbände und Monografien<br />

genutzt, im Bauwesen und in der Architektur<br />

spielen zum Beispiel Tagungsbände eine zentrale<br />

Rolle. Über alle Wissenschaftsfelder hinweg sind<br />

jedoch Artikel in Fachzeitschriften die am häufigsten<br />

genutzte Veröffentlichungsform (Deutsche Forschungsgemeinschaft,<br />

2005).<br />

Der Grundsatz „Publish or perish“<br />

Der Aufbau der modernen Wissenschaften, wie wir<br />

sie heute kennen, war von Beginn an mit der<br />

Gründung von wissenschaftlichen Fachgesellschaften<br />

und wissenschaftlichen Fachzeitschriften verbunden.<br />

Die beiden ältesten Zeitschriften, das „Journal des<br />

sçavans“ und die „Philosophical Transactions“ of the<br />

Royal Society, starteten 1665 und erfüllten Funktionen,<br />

die bis heute für wissenschaftliche Zeitschriften<br />

zentral sind – die Sicherung von Priorität<br />

durch möglichst schnelle und breite Veröffentlichung<br />

von Forschungsergebnissen und die Sicherung von<br />

Qualität, letzteres insbesondere durch sogenannte<br />

„Peer-Review-Verfahren“: Peers, also Kolleginnen<br />

und Kollegen, begutachten (oft anonym, selten als<br />

sogenanntes Open-Peer-Review) zur Veröffentlichung<br />

eingereichte Beiträge, um so sicherzustellen,<br />

dass nur Artikel verbreitet werden, die wissenschaftlichen<br />

Standards genügen. Durch Zitationsanalysen<br />

veröffentlichter Artikel soll geprüft werden, wie<br />

häufig diese durch andere genutzt werden, welchen<br />

„Impact“ (engl. für „Einfluss“) sie haben. Da wissenschaftliche<br />

Veröffentlichungen für berufliche Karrierewege<br />

und universitäre Mittelvergaben von besonderer<br />

Bedeutung sind, ist der Druck insbesondere in<br />

den Naturwissenschaften sehr hoch, in sogenannten<br />

High-Impact-Zeitschriften zu veröffentlichen. Hier<br />

gilt der Grundsatz „publish or perish“, eine englische<br />

Redewendung, die in etwa als „publiziere oder gehe<br />

unter“ ins Deutsche übertragen werden kann.<br />

Die Akzeptanz solcher Maße (vor allem deren Berechnungsgrundlage)<br />

wird vielfach kritisiert, zudem<br />

muss von verschiedenen Arten von Impact im Sinne<br />

von Sichtbarkeit ausgegangen werden, der sich nicht<br />

allein an Zitationshäufigkeit bemisst (Mruck & Mey,<br />

2002).<br />

Der tradi1onelle Publika1onsprozess<br />

Der traditionelle Publikationsprozess in Printzeitschriften<br />

sieht vor, dass Wissenschaftler/innen Artikel<br />

schreiben und bei Zeitschriften, in denen sie<br />

gerne sichtbar sein wollen, zur Veröffentlichung einreichen.<br />

Die Zeitschriftenredaktionen organisieren<br />

dann die Begutachtung, indem sie Gutachter/innen<br />

um eine Bewertung des eingereichten Artikels bitten,<br />

also um eine Einschätzung darüber, ob ein Artikel<br />

zur Veröffentlichung angenommen, durch die Autorinnen<br />

und Autoren überarbeitet oder abgelehnt<br />

werden sollte. Wenn ein solcher Artikel – teilweise<br />

nach mehreren Überarbeitungsrunden – für die Veröffentlichung<br />

akzeptiert worden ist, organisiert die<br />

Redaktion in der Regel das Lektorat und Korrektorat,<br />

also die formale Prüfung und Korrektur des Artikels<br />

und gibt den fertigen Artikel an einen kommerziellen<br />

Verlag weiter, der für Druck und Verbreitung der<br />

Zeitschrift, in dem der Artikel erscheinen soll, zuständig<br />

ist. Mit der Veröffentlichung geben die Autorinnen<br />

und Autoren zumeist die Nutzungsrechte an<br />

ihrer Arbeit an den Verlag weiter. Bibliotheken<br />

können die Zeitschrift dann für die Nutzung durch<br />

ihre Mitglieder (zum Beispiel Angehörige einer Universität)<br />

wiedererwerben.<br />

3. Einfluss der digitalen Technologien auf das Publika1-­‐<br />

onsverhalten<br />

Erst mit dem Internet und der Verbreitung digitaler<br />

Technologien begannen Wissenschaftler/innen, sich


Artikel per E-Mail zuzuschicken, schnell folgten, als<br />

dies technisch machbar war, die ersten Preprint-<br />

Server, über die sie ihre Papiere zugänglich machten,<br />

noch bevor sie in Zeitschriften veröffentlicht wurden.<br />

Ein solches Verfügbarmachen sollte helfen, den Text<br />

unter Kolleginnen und Kollegen – öffentlich – zu<br />

diskutieren (und so die Güte beziehungsweise Qualität<br />

des Textes zu erhöhen, eine Art „Vorläufer“ des<br />

Open-Peer-Review) und zur Vernetzung in der Community<br />

beitragen. Zudem konnten Prioritätsansprüche,<br />

zum Beispiel im Falle von Entdeckungen,<br />

frühzeitig kenntlich gemacht werden. Ebenfalls in<br />

den Naturwissenschaften starteten die ersten elektronischen<br />

Zeitschriften, diese gehören mittlerweile aber<br />

zum Angebot fast aller Disziplinen (siehe das Directory<br />

of Open Access Journals, http://doaj.org). In<br />

elektronischen Zeitschriften können neben Text und<br />

Bild zusätzliche Dateiformate (zum Beispiel Audiound<br />

Videodateien oder Primärdaten; letztere gerade<br />

auch mit Blick auf bessere Nachvollziehbarkeit und<br />

Transparenz des Forschungsprozesses) angeboten<br />

werden. Einschränkungen wie die Anzahl der Druckseiten<br />

entfallen.<br />

Mit der Entwicklung des Internets und von besserer<br />

Software (insbesondere des Open Journal<br />

System, OJS) eröffnete sich für Wissenschaftler/innen<br />

zudem die Option, nicht nur als Autor/in, Redaktionsmitglied,<br />

Gutachter/in oder Lektor/in ihre<br />

in der Regel durch die öffentliche Hand finanzierte<br />

Zeit in die Produktion von Artikeln zu investieren,<br />

sondern die Zeitschriften selbst zu betreiben. Zum<br />

Beispiel über Mailinglisten können Kollegen und<br />

Kolleginnen auf ihre Zeitschrift, neue Artikel usw.<br />

aufmerksam gemacht werden. Dies steht im Zeichen<br />

der Demokratisierung von Wissenschaft und für die<br />

zurückgewonnene Autonomie der Wissenschaftler/innen.<br />

4. Die Open-­‐Access-­‐Bewegung<br />

Da zeitgleich die sogenannte Bibliothekskrise um sich<br />

griff, das heißt dass wissenschaftliche Bibliotheken<br />

die Arbeiten ihrer Wissenschaftler/innen trotz sinkender<br />

Budgets bei teilweise horrende steigenden<br />

Zeitschriftenpreisen zurückkaufen mussten beziehungsweise<br />

nur noch in begrenztem Umfang zurückkaufen<br />

konnten, formierte sich eine international<br />

immer stärker werdende Open-Access-Bewegung, in<br />

deren Kern die Forderung steht, dass die Ergebnisse<br />

öffentlich finanzierter Forschung auch öffentlich<br />

zugänglich sein müssen (Mruck et al., 2004).<br />

Offener Zugang. Open Access, Open EducaConal Resources und Urheberrecht — 3<br />

!<br />

„Open access meint, dass [...] Literatur kostenfrei und<br />

öffentlich im Internet zugänglich sein sollte, so dass<br />

Interessierte die Volltexte lesen, herunterladen, ko-­‐<br />

pieren, verteilen, drucken, in ihnen suchen, auf sie<br />

verweisen und sie auch sonst auf jede denkbare legale<br />

Weise benutzen können, ohne finanzielle, gesetzliche<br />

oder technische Barrieren jenseits von denen, die mit<br />

dem Internet-­‐Zugang selbst verbunden sind.“ (Open<br />

Society FoundaCon, 2010)<br />

Um die eigene Arbeit frei zugänglich zu machen,<br />

lassen sich zwei Hauptstrategien des Open Access<br />

unterscheiden: Bei dem sogenannten goldenen Weg<br />

veröffentlichen Wissenschaftler/innen direkt in<br />

Open-Access-Zeitschriften, bei dem sogenannten<br />

grünen Weg werden digitale Kopien von Artikeln,<br />

die kostenpflichtig in Print- beziehungsweise Closed-<br />

Access-Zeitschriften veröffentlicht werden, auf Dokumentenservern<br />

zugänglich gemacht, die zum Beispiel<br />

von Universitäten oder für Fächer beziehungsweise<br />

Fachgruppen betrieben werden (siehe hierzu<br />

das „Directory of Open Access Repositories“,<br />

http://www.opendoar.org).<br />

Beiden Strategien gemeinsam ist aufgrund des<br />

schnellen und freien Zugangs und der daraus folgenden<br />

guten Auffindbarkeit wissenschaftlicher Arbeiten<br />

über Suchmaschinen und Nachweisdienste die<br />

Verbesserung der Informationsversorgung und das<br />

!<br />

Einige ausgewählte Meilensteine der Open-­‐Access-­‐Be-­‐<br />

wegung:<br />

▸ 1991 wird arXiv als erster frei zugänglicher Doku-­‐<br />

mentenserver gegründet; er bietet heute Zugang<br />

zu über 650.000 E-­‐Prints aus Physik, MathemaCk,<br />

Computerwissenschag usw. (hhp://arxiv.org).<br />

▸ 2001 startet die erste große naturwissenschag-­‐<br />

liche Open-­‐Access-­‐Zeitschrig der Public Library of<br />

Science (hhp://www.plos.org).<br />

▸ 2002 gewinnt Open Access mit der Budapest<br />

Open Access IniCaCve über die Naturwissen-­‐<br />

schagen hinaus Konturen auch im Sinne einer<br />

Wendung gegen den „Digital Divide“<br />

(hhp://www.soros.org/openaccess/).<br />

▸ 2003 iniCiert die Max-­‐Planck-­‐Gesellschag die<br />

Berlin DeclaraCon on Open Access to Knowledge<br />

in the Sciences and HumaniCes, die auch auf den<br />

Zugang zum kulturellen Erbe abhebt und der sich<br />

viele wichCge InsCtuConen und Fördereinrich-­‐<br />

tungen weltweit anschließen.<br />

(hhp://oa.mpg.de/lang/de/berlin-­‐prozess/)<br />

▸ 2005 startet die „PeCCon for Guaranteed Public<br />

Access to Publicly-­‐funded Research Results“ mit<br />

erheblicher Breitenwirkung insbesondere in<br />

Europa (hhp://www.ec-­‐peCCon.eu/).


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

In der Praxis : Die Zeitschrift „Forum Qualitative Sozialforschung / Forum: Qualitative Social Research“<br />

QualitaCve Forschungsmethoden kommen in unterschied-­‐<br />

lichsten Disziplinen zum Einsatz. Als 1999 die Idee entstand,<br />

ein Journal zu gründen, das hilg, qualitaCve Forschung trans-­‐<br />

disziplinär und internaConal sichtbar zu machen und Wissen-­‐<br />

schagler/innen aus aller Welt auf diese Weise zu vernetzen,<br />

winkten die Verlage ab – eine elektronische Zeitschrig? Die<br />

Wissenschagler/innen nahmen dies darauuin selbst in die<br />

Hand. Heute ist die Zeitschrig "Forum QualitaCve Sozialfor-­‐<br />

schung / Forum: QualitaCve Social Research" – mit über<br />

13.000 registrierten Leser/innen die weltweit größte Res-­‐<br />

source für qualitaCve Forschung.<br />

Sichtbarmachen (neuer) Themen (besonders wichtig<br />

bei Randthemen; Zawacki-Richter et al., 2010). Insgesamt<br />

trägt Open Access wesentlich zur Förderung<br />

internationaler und interdisziplinärer Zusammenarbeit<br />

und von Forschungseffizienz durch die rasche<br />

Diskussion von Forschungsergebnissen bei.<br />

Mittlerweile beschränkt sich die Forderung nach<br />

Open Access nicht mehr nur auf wissenschaftliche<br />

Fachzeitschriften, sondern es geht zunehmend auch<br />

um Open Access zu Monografien, zu Daten und<br />

prinzipieller zu kulturellem Erbe (Deutsche<br />

UNESCO-Kommission, 2007). Mit einigem Recht<br />

kann für einige Länder wie Großbritannien, Holland,<br />

aber auch die Bundesrepublik Deutschland gesagt<br />

werden, dass Open Access wissenschaftspolitisch<br />

mehr und mehr zum herrschenden Paradigma geworden<br />

ist: die Hochschulrektorenkonferenz, große<br />

Forschungseinrichtungen sowie Fördereinrichtungen<br />

wie die Volkswagenstiftung, die Deutsche Forschungsgemeinschaft<br />

(DFG) unterstützen Open<br />

Access. Letztere treiben die Verbreitung von Informationen<br />

über Open Access sowie von Open-<br />

Access-Publikationsmodellen aktiv voran, indem sie<br />

die freie Verfügbarkeit in ihre Förderrichtlinien aufnehmen<br />

oder sich um ein wissenschaftsfreundlicheres<br />

Urheberrecht bemühen. Diese Bemühungen haben<br />

zwischenzeitlich auch positive Resonanz bei allen<br />

!<br />

Für Wissenschagler/innen bedeutet Open Access eine<br />

wesentliche SelbstermächCgung: "Science back to the<br />

ScienCsts". Eine wissenschagliche Zukung, in der<br />

E-­‐Learning, E-­‐Publishing, E-­‐Science, Datenaustausch<br />

usw. integriert am Bildschirm Tagesgeschäg werden,<br />

setzt die freie Verfügbarkeit aller relevanten Res-­‐<br />

sourcen unmihelbar voraus.<br />

ArCkel werden in deutsch, englisch oder spanisch begut-­‐<br />

achtet und muhersprachlich lektoriert, RedakCon und Beirat<br />

kommen aus 10 Disziplinen und 13 Ländern, alle ca. 1.350<br />

bisher veröffentlichten ArCkel sind frei online zugänglich<br />

(Mruck & Mey, 2008). Eine gerade veröffentlichte empirische<br />

Untersuchung zu qualitaCver Forschung in der Psychologie<br />

zeigt, dass FQS-­‐Veröffentlichungen nicht nur maximal<br />

sichtbar sind, sondern sich auch durch eine überdurch-­‐<br />

schnihlich hohe Qualität auszeichnen (Ilg & Boothe, 2010).<br />

URL: hhp://www.qualitaCve-­‐research.net/index.php/fqs<br />

Bundestagsfraktionen gefunden. Und auch zum Beispiel<br />

in Österreich und der Schweiz haben die nationalen<br />

Fördereinrichtungen Open Access in ihre<br />

Richtlinien aufgenommen.<br />

5. Open Educa1onal Resources: Frei verwendbare Lern-­‐<br />

und Lehrmaterialien<br />

Unabhängig hiervon, aber sicher von der Open-<br />

Access-Bewegung auf der einen Seite sowie auf der<br />

anderen Seite auch von Erfolgen der Open-Source-<br />

Entwicklungen wie das Betriebssystem „Linux“ beeinflusst,<br />

hat sich Anfang des 21. Jahrhunderts eine<br />

Bewegung formiert, die die freie Verwendung, den<br />

Austausch und die Modifikation von Bildungsressourcen<br />

im Web einfordert und unterstützt.<br />

Frei verwendbare Lern- und Lehrmaterialien<br />

werden auch in der deutschsprachigen Diskussion<br />

häufig als „Open Educational Resources“ oder kurz<br />

„OER“ bezeichnet. Solche frei verwendbaren digitalen<br />

Materialien zeichnen sich nicht nur dadurch aus,<br />

dass sie im Web zugänglich sind, sondern sie sollen<br />

!<br />

Open EducaConal Resources (OER) sind Materialien<br />

für Lernende und Lehrende, die kostenlos im Web zu-­‐<br />

gänglich sind, entsprechend zur Verwendung und<br />

auch ModifikaCon freigegeben, das heißt lizensiert<br />

wurden. In einigen DefiniConen wird zusätzlich die<br />

Verwendung von offenen Sogware-­‐Standards als Kri-­‐<br />

terium – das jedoch häufig nicht erfüllt wird – einge-­‐<br />

fordert (Geser, 2007).<br />

auch dezidiert frei nutzbar sein.<br />

Damit ist auch hier die Frage des Urheberrechts<br />

berührt. Es gilt generell, dass die Urheberrechtsinhaber/innen<br />

– also die Autorinnen und Autoren von<br />

Lern- und Lehrmaterialien – um Erlaubnis gefragt


werden müssen, bevor die Materialien im Unterricht<br />

verwendet, an anderer Stellen zur Verfügung gestellt<br />

oder sogar modifiziert werden.<br />

Es liegen unterschiedliche Lizenzmodelle vor, die<br />

es ermöglichen, eindeutig zu regeln, unter welchen<br />

Voraussetzungen Bildungsressourcen oder auch<br />

andere Materialien weiterverwendet werden dürfen.<br />

Im deutschsprachigen Raum ist der Einsatz der<br />

„Creative-Commons-Lizenzen“ verbreitet. Dabei<br />

stehen Lizenzformulierungen für viele europäische<br />

Länder zur Verfügung, die von Juristinnen und Juristen<br />

geprüft wurden, aber auch in einfacher, klarer<br />

Sprache Rechte von Autorinnen und Autoren sowie<br />

Benutzerinnen und Benutzern beschreiben.<br />

Urheber/innen können mit diesen Creative-<br />

Commons-Lizenzen beispielsweise festlegen, ob (a)<br />

der Name des Urhebers genannt werden muss, ob (b)<br />

das Werk modifiziert werden darf oder ob (c) alle<br />

Werke, die auf den Inhalten aufbauen, unter der<br />

gleichen Lizenz veröffentlich werden müssen (als<br />

„Copyleft“ bezeichnet).<br />

In einigen Sammlungen von OER werden entsprechende<br />

Lizenzierungen als Standard vorgegeben,<br />

das heißt Nutzer/innen müssen ihre Materialien<br />

unter einer solchen liberalen Lizenz veröffentlichen.<br />

Zu solchen Angeboten gehören unter anderem<br />

OERcommons.org, Wikieducator.org (englischsprachig,<br />

für Hochschulen) oder auch das deutschsprachige<br />

ZUM.wiki.de mit Lehr- und Lernmaterialien<br />

für Schulen. Gleichzeitig ermöglichen Such-<br />

Offener Zugang. Open Access, Open EducaConal Resources und Urheberrecht — 5<br />

In der Praxis : Umgang mit Internetressourcen in Unterricht und Lehre<br />

Das Urheberrecht war ursprünglich so angelegt, dass es Au-­‐<br />

torinnen und Autoren erfolgreicher Werke eine Finanzierung<br />

und einen Anreiz zum weiteren kreaCven Schaffen bieten<br />

sollte (vgl. Steinhauer, 2010). Dem Recht auf alleinige Her-­‐<br />

ausgabe der eigenen Werke standen immer Beschränkungen<br />

entgegen – beispielsweise die zeitliche Begrenzung des Urhe-­‐<br />

berrechts (ursprünglich 14 Jahre) – die sicherstellen sollten,<br />

dass private und öffentliche Interessen im Gleichgewicht<br />

stehen. Dieser gesellschagliche Interessenausgleich hat sich<br />

in den letzten 50 Jahren vor allem zugunsten der Rechteinha-­‐<br />

ber/innen verändert.<br />

Lehrende an einer Schule oder Universität hahen bisher<br />

jedoch kaum mit Problemen zu rechnen: Die Nutzung aller<br />

möglichen Medienartefakte war normalerweise durch<br />

„Schrankenregelungen“ gedeckt, die explizite Ausnahmen für<br />

Zwecke des Unterrichts und Forschung vorsahen. In diesem<br />

Sinne können alle im Internet oder auf legalem Wege erstan-­‐<br />

denen Medien in der Lehre eingesetzt werden, ohne dass<br />

mit Konsequenzen zu rechnen ist. Auch gilt hier: „Wo kein<br />

Kläger, da kein Richter“: Was im Klassenzimmer, Semi-­‐<br />

narraum oder in nicht öffentlich zugänglichen virtuellen Lern-­‐<br />

räumen passiert, wird kaum ausreichend Aufregung und<br />

wirkliche Probleme erzeugen können.<br />

Mehr und mehr finden wir uns aber in SituaConen wieder, in<br />

denen die Verwendung von Materialien technisch erschwert<br />

wird oder man in rechtlich unsicheres Fahrwasser gerät. Bei-­‐<br />

spielsweise dürfen gefundene Lernmaterialien (Bilder,<br />

Screenshots, Texte) nicht einfach in eigene Materialien inte-­‐<br />

griert und wieder veröffentlicht werden. Hier sind es also die<br />

durch die neuen Medien und Technologien ermöglichten<br />

Formen der Veröffentlichung und Verteilung sowie die damit<br />

möglichen neuen Lern-­‐ und Lehrformen, die Lehrende – und<br />

auch Lernende – auf Kollisionskurs mit dem Gesetz bringen<br />

können.<br />

funktionen vieler Anwendungen (beispielsweise bei<br />

Flickr.com) auch gezielt die Recherche nach liberal lizenzierten<br />

Inhalten.<br />

!<br />

Ausgewählte Meilensteine der Open-­‐EducaConal-­‐Re-­‐<br />

sources-­‐Bewegung sind:<br />

▸ 2002: Die UNESCO-­‐IniCaCve „Free EducaConal Re-­‐<br />

sources“ weckt erstmal breites Interesse für das<br />

Thema.<br />

▸ 2003: Das Massachusehs InsCtute of Technology<br />

startet die Veröffentlichung von Kursunterlagen<br />

(MIT OpenCourseWare).<br />

▸ 2007: Die OECD veröffentlicht eine Studie zu OER,<br />

die William and Flora Hewleh FoundaCon analy-­‐<br />

siert die OER-­‐Bewegung (Atkins et al., 2007), und<br />

die Europäische Kommission ko-­‐finanziert erstmals<br />

Projekte zu OER (zum Beispiel OLCOS, BAZAAR)<br />

Argumente, die für die Einführung von OER<br />

sprechen, sind (Geser, 2007): OER ermöglichen potenziell<br />

einfacheren und kostengünstigeren Zugang<br />

zu Ressourcen, die einigen Lernenden sonst nicht zugänglich<br />

wären. Auch werden Steuergelder rentabler<br />

eingesetzt, da Ressourcen wiederverwendet werden<br />

können. Auch für Lehrende werden Möglichkeiten<br />

der effektiveren Erstellung von Materialien beziehungsweise<br />

Gestaltung des Unterrichts als Vorteile<br />

genannt. Oft steht dabei auch die Kooperation und<br />

Kollaboration von Lehrenden und Lernenden im<br />

Vordergrund, beispielsweise bei der Open University<br />

im Vereinigten Königreich (Lane, 2008). Hochschulen<br />

wie das Massachusetts Institute of Tech-


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

nology, die OER-Strategien einführen, bringen<br />

darüber beispielsweise auch offen Argumente wie die<br />

Möglichkeit positiver Public Relations oder Neukundengewinnung<br />

an (Schaffert, 2010).<br />

?<br />

Literatur<br />

Auf der Website Wikieducator.org werden gemein-­‐<br />

schaglich OER erstellt, die überwiegend um Themen<br />

des technologiegestützten Lernens kreisen. Dort gibt<br />

es auch ein Tutorium in mehreren Sprachen, das unter<br />

anderem das Recherchieren, die Erstellung und das<br />

Publizieren von OER themaCsiert. Welche Tipps er-­‐<br />

halten Sie dort? Sind die Hinweise aktuell? Falls Sie<br />

wollen, ändern und aktualisieren Sie die Beiträge!<br />

▸ Atkins, D. E.; Brown, J. S. & Hammond, A. L. (2007). A<br />

Review of the Open Educational Resources (OER) Movement:<br />

Achievements, Challenges and New Opportunities. Report to<br />

The William and Flora Hewlett Foundation. URL: http://cohesion.rice.edu/Conferences/Hewlett/emplibrary/A%20Review%20of%20the%20Open%20Educational%20Resources%20%28OER%29%20Movement_BlogLink.pdf<br />

[2010-12-06].<br />

▸ Deutsche Forschungsgemeinschaft (2005). Publikationsstrategien<br />

im Wandel? Ergebnisse einer Umfrage zum Publikations-<br />

und Rezeptionsverhalten unter besonderer Berücksichtigung<br />

von Open Access. Weinheim: Wiley-VCH Verlag, URL:<br />

http://www.dfg.de/dfg_profil/evaluation_statistik/programm<br />

_evaluation/studien/studie_publikationsstrategien [2010-12-<br />

06], 31.<br />

▸ Deutsche UNESCO-Kommission (Hrsg.) (2007). Open<br />

Access. Chancen und Herausforderungen. Ein Handbuch.<br />

Bonn, URL: http://openaccess.net/fileadmin/downloads/Open-Access-Handbuch.pdf<br />

[2010-12-06].<br />

▸ Geser, G. (2007). Open Educational Practices and Resources.<br />

OLCOS Roadmap 2012. Salzburg: Salzburg Research, URL:<br />

http://www.salzburgresearch.at/research/publications_detail.php?pub_id=357<br />

[2010-12-06].<br />

▸ Ilg, S. & Boothe, B. (2010). Qualitative Forschung im psychologischen<br />

Feld: Was ist eine gute Publikation?. In: Forum Qualitative<br />

Sozialforschung / Forum: Qualitative Social Research,<br />

11(2), Art. 27, URL: http://nbn-resolving.de/urn:nbn:de:0114fqs1002256<br />

[2010-12-06].<br />

▸ Informationsplattform Open Access. URL: http://open-access.net/<br />

[2010-12-06]; URL:<br />

http://www.dfg.de/download/programme/sachbeihilfe/abschlussberichte/2_01/2_01.pdf<br />

[2010-12-06], 21-22.<br />

▸ Koch, L.; Mey, G. & Mruck, K. (2009). Erfahrungen mit Open<br />

Access – ausgewählte Ergebnisse aus der Befragung zum<br />

Nutzen und Nutzung von FQS. In: Information, Wissenschaft,<br />

Praxis, 60(3), URL: http://eprints.rclis.org/16860 [2012-12-06],<br />

291-299.<br />

▸ Lane, A. (2008). Reflections on Sustaining Open Educational<br />

Resources: An Institutional Case Study. In: eLearning Papers,<br />

10, URL: http://www.elearningeuropa.info/files/media/media16677.pdf<br />

[2010-12-06].<br />

▸ Mruck, K. & Mey, G. (2002). Peer Review Between Printed<br />

Past and Digital Future. In: Research in Science Education,<br />

32(2), 257-268.<br />

▸ Mruck, K. &. Mey, G. (2008). Using the Internet for Scientific<br />

Publishing. In: Poiesis Praxis, 5, 113-123.<br />

▸ Mruck, K.; Gradmann, S. & Mey, G. (2004). Open Access: Wissenschaft<br />

als Öffentliches Gut. In: Forum Qualitative Sozialforschung<br />

/ Forum: Qualitative Social Research, 5(2), 14, URL:<br />

http://nbn-resolving.de/urn:nbn:de:0114-fqs0402141 [2010-<br />

12-06].<br />

▸ OECD (2007). Giving Knowledge for Free. The Emergence of<br />

Open Educational Resources. Paris, URL:<br />

http://213.253.134.43/oecd/pdfs/browseit/9607041E.PDF<br />

[2010-12-06].<br />

▸ Open Society Foundation (2010). Budapest: Open Access Initiative,<br />

URL: http://www.soros.org/openaccess/g/read.shtml<br />

[2010-12-12].<br />

▸ Schaffert, S. (2010). Strategic Integration of Open Educational<br />

Resources in Higher Education. Objectives, Case Studies, and<br />

the Impact of Web 2.0 on Universities. In: U.-D. Ehlers & D.<br />

Schneckenberg (Hrsg.), Changing Cultures in Higher Education<br />

– Moving Ahead to Future Learning. New York: Springer, 119-<br />

131.<br />

▸ Steinhauer, E. W. (2010). Das Recht auf Sichtbarkeit. Überlegungen<br />

zu Open Access und Wissenschaftsfreiheit. URL:<br />

http://fiz1.fh-potsdam.de/volltext/aueintrag/10497.pdf<br />

[2010-12-06].<br />

▸ Zawacki-Richter, O.; Anderson, T. & Tuncay, N. (2010) .The<br />

Growing Impact of Open Access Distance Education Journals:<br />

A Bibliometric Analysis. In: The Journal of Distance Education<br />

/ Revue de l'Éducation à Distance, 24(3), URL:<br />

http://auspace.athabascau.ca:8080/dspace/handle/2149/2770<br />

[2010-12-06]..


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Entwicklung von Videokonferenzen<br />

Seit der Verbreitung des Telefons gab es immer<br />

wieder die Vision und den Wunsch, das Gegenüber<br />

nicht nur zu hören, sondern auch zu sehen. Bereits in<br />

der 30er Jahren des letzten Jahrhunderts gab es mit<br />

der Einführung der Fernsehsprechzelle erste Versuche,<br />

Bild- und Tonübertragungen vorzunehmen,<br />

die dann in den späten 1960er Jahren mit der Einführung<br />

des Picturephones fortgeführt wurden –<br />

wirklich erfolgreich waren beide Ansätze nicht. Erst<br />

mit der Verbreitung des Internets Ende der 1990er<br />

Jahre erlebt die Videokonferenz einen neuen Aufschwung<br />

– insbesondere seitdem die Übertragung<br />

von Bild und Ton auch über die Web-Standards<br />

möglich geworden ist und ausreichend Bandbreiten<br />

zur Verfügung stehen (Flessner, 2000).<br />

!<br />

„Eine Videokonferenz ist eine Besprechung mehrerer<br />

Personen an unterschiedlichen Orten, die per Video-­‐<br />

kamera oder Webcam und Datenleitungen mit hoher<br />

Bandbreite, beispielsweise über das Internet, über-­‐<br />

tragen wird, wobei sich alle Teilnehmenden über Mo-­‐<br />

nitor sowie Sprachein-­‐ und -­‐ausgabegeräte sehen und<br />

hören können.“ (DefiniQon von „Videokonferenz“ im<br />

Glossar von e-­‐teaching.org)<br />

2. Szenarien des Lernens in Videokonferenzen<br />

Betrachtet man Lernszenarien in Videokonferenzen,<br />

dann stellt sich die Frage, inwieweit sich diese vom<br />

Lernen Face-to-Face (das heißt Lernende und Lehrende<br />

befinden sich an einem gemeinsamen Ort)<br />

oder von anderen Formen des E-Learnings unterscheiden.<br />

Diese Frage lässt sich sowohl auf einer<br />

technischen, als auch auf einer didaktischen Ebene<br />

beantworten. Technisch fokussiert diese Frage auf<br />

Aspekte wie den Aufwand, mit dem sich Lernen in<br />

Videokonferenzen realisieren lässt, und wie einfach<br />

der Zugang der Lernenden zu solchen Lernszenarien<br />

ist. Die Beantwortung dieser Frage ist von der verwendeten<br />

Infrastruktur abhängig und kann daher erst<br />

in der konkreten Anwendung berücksichtigt werden<br />

(Hinweise dazu finden Sie am Ende des Kapitels). An<br />

dieser Stelle liegt der Fokus auf dem didaktischen<br />

Aspekt, das heißt wie sich charakteristische Eigenschaften<br />

von Videokonferenzen so einsetzen lassen,<br />

dass die Lernenden davon besonders profitieren:<br />

Synchrone sprachliche Kommunikation, durch die<br />

elaborierte Erklärungen und interaktive Diskussionen<br />

ermöglicht werden, und Application-Sharing, wodurch<br />

die Lernenden gleichzeitig auf einen gemeinsam<br />

sichtbaren Arbeitsbereich zugreifen<br />

können. Dadurch eignen sich Videokonferenzen be-<br />

sonders für kooperative Lernszenarien, die von interaktiver<br />

Kommunikation wie Tutoring oder Coaching<br />

profitieren, und für Szenarien, die eine gemeinsame<br />

Lösungs- oder Entscheidungsfindung beinhalten.<br />

Aspekte beider Szenarien sollen im Folgenden kurz<br />

charakterisiert werden:<br />

Tutoring- und Coaching-Szenarien zeichnen<br />

sich durch unterschiedlich hohe Expertise der Teilnehmer/innen<br />

aus. Dabei leitet eine Person mit<br />

hoher Expertise eine oder mehrere Personen mit geringerer<br />

Expertise über Videokonferenz an. Der besondere<br />

Beitrag der Videokonferenz in solchen Situationen<br />

besteht in der Möglichkeit, zusätzliche Anwendungen<br />

oder Werkzeuge in den Lernprozess zu integrieren<br />

und dadurch gemeinsame Referenzpunkte zu<br />

schaffen (Ertl, 2007).<br />

Bei der kooperativen Lösungs- oder Entscheidungsfindung<br />

diskutieren Lernende mit vergleichbarer<br />

Expertise gemeinsam Fragestellungen oder erarbeiten<br />

gemeinsam eine Problemlösung. Hier stehen<br />

die gemeinsame Diskussion und Problemreflexion im<br />

Vordergrund. Der spezifische Beitrag der Videokonferenz<br />

besteht in solchen Szenarien aus dem Bereitstellen<br />

eines hoch interaktiven Kommunikationsmediums<br />

und gemeinsamer Arbeitsdokumente für die<br />

Lerngruppe (Paechter et al., 2010).<br />

Weitere didaktische Szenarien können Vorlesungen<br />

über Videokonferenzen umfassen. Beispielsweise<br />

haben sich die Universitäten Freiburg, Heidelberg,<br />

Karlsruhe und Mannheim in einem Projekt<br />

zur virtuellen Hochschule zusammengeschlossen.<br />

Die vier Universitäten tauschen Vorlesungen über<br />

Datenleitungen aus, führen gemeinsam Televorlesungen<br />

und -seminare durch und tauschen multimediale<br />

Lernmodule. So wurde über Videokonferenz die<br />

Vorlesung „Rechnernetze“ der Universität Mannheim<br />

an die Partneruniversitäten übertragen. Die Übertragung<br />

von Vorlesungen erfolgt in speziellen, technisch<br />

entsprechend ausgestatteten Hörsälen. Interaktive<br />

Whiteboards (die technisierte Form der Wandtafel),<br />

spezielle Softwareprogramme und eine ausreichend<br />

hohe Übertragungsrate der Netzwerke gehören<br />

zur Standardausstattung in diesem Projekt. Die<br />

Lerninhalte werden zudem archiviert. Vorlesungen<br />

werden aufgezeichnet und ins Netz gestellt oder Dozierende<br />

erstellen Präsentationen ausschließlich für<br />

das Netz (vgl. VCC, siehe Literaturverzeichnis). Ergänzend<br />

dazu gibt es Ansätze, dass sich die einzelnen<br />

Teilnehmer/innen vom eigenen Computer aus an<br />

einem Videokonferenz-Seminar beteiligen; Gestaltungsvorschläge<br />

für das Design solcher Seminare und<br />

konkrete Anforderungen an Tutoren von Videokonferenz-Seminaren<br />

finden sich unter anderem bei


Keller (2009). Er beschreibt auch Spezifika der Seminarsituation<br />

Videokonferenz. Insgesamt ist die Kommunikation<br />

beim Lernen mit Hilfe von Videokonferenzen<br />

der Face-to-Face-Kommunikation eher<br />

ähnlich; dennoch gibt es Unterschiede. Diese sollen<br />

im Folgenden näher betrachtet werden.<br />

3. Kommunika>on in Videokonferenzen<br />

Kommunikation kann man als einen fortlaufenden<br />

Prozess der gemeinsamen Verständigung von zwei<br />

oder mehreren Personen beschreiben (Clark &<br />

Brennan, 1996), in dem unterschiedliche Ziele erfüllt<br />

werden: Personen entwickeln zum Beispiel einen Eindruck<br />

voneinander, tauschen sachbezogene oder<br />

emotionale Information aus, koordinieren Arbeitstätigkeiten.<br />

Man kann Kommunikation als gemeinsames<br />

Handeln beschreiben, in dem die Kommunikationspartner/innen<br />

die Gesprächsinhalte und den<br />

Gesprächsverlauf koordinieren. In diesem Prozess<br />

versuchen sie fortlaufend eine gemeinsame Verständigungsbasis,<br />

einen „Common Ground“, zu gewährleisten<br />

(Clark & Brennan, 1996). Dazu müssen sie<br />

sich an die Besonderheiten des jeweils verwendeten<br />

Kommunikationsmediums anpassen.<br />

Videokonferenzkommunikation und Face-to-Face-<br />

Kommunikation haben zunächst einige Gemeinsamkeiten:<br />

Sichtbarkeit, Hörbarkeit, Synchronizität (das<br />

heißt ein Beitrag wird zur selben Zeit produziert, zu<br />

der er von der Kommunikationspartnerin oder vom<br />

Kommunikationspartner empfangen wird; dies trifft<br />

zum Beispiel auf E-Mail nicht zu), Sequenzialität (das<br />

heißt es bleibt die von den Sprechenden intendierte<br />

Abfolge der Beiträge erhalten; dies trifft zum Beispiel<br />

auf Chats nicht zu). Dennoch unterscheidet sich die<br />

Videokonferenz- von der Face-to-Face-Kommunikation:<br />

So fehlt die Kopräsenz, da sich die Kommunikationspartner/innen<br />

nicht denselben Raum teilen.<br />

Gerade dieses Merkmal ist jedoch wesentlich für das<br />

Erfahren von emotionaler Nähe und sozialer<br />

Präsenz. Videokonferenzen schränken zudem die<br />

Sichtbarkeit von Personen ein, wenn zum Beispiel in<br />

Desktop-Videokonferenzen nur ein Porträtausschnitt<br />

der Kommunikationspartner/innen auf dem Monitor<br />

angezeigt wird. Eine wesentliche Einschränkung der<br />

Sichtbarkeit betrifft die fehlende Möglichkeit, Blickkontakt<br />

herzustellen. Damit fehlt ein wichtiges Mittel<br />

für die non-verbale Koordination der Abfolge von<br />

Gesprächsbeiträgen (Paechter et al., 2010).<br />

Diese Besonderheiten machen es notwendig, dass<br />

die Kommunikationspartner/innen ihr Verhalten an<br />

das Setting „Videokonferenz“ anpassen. Dazu ein<br />

Beispiel: In einer Studie von Paechter et al. (2010)<br />

wurden über mehrere Teamtreffen hinweg die Kom-<br />

Lernen mit Videokonferenzen. Szenarien, Anwendungen und PraxisQpps — 3<br />

munikation und die Leistung von Gruppen in Videokonferenz-<br />

und Face-to-Face-Kommunikation untersucht.<br />

Achtundvierzig Teams zu je vier Personen<br />

trafen sich dreimal entweder Face-to-Face oder in<br />

einer Videokonferenz und bearbeiteten komplexe<br />

Aufgaben. Alle Gruppenmitglieder sollten ihr Wissen<br />

austauschen, einen gemeinsamen Lösungsvorschlag<br />

entwickeln und sich auf diesen einigen. Bei der<br />

Analyse der Leistung zeigten sich keine Unterschiede<br />

zwischen den Videokonferenz- und den Face-to-Face-Gruppen.<br />

Allerdings kommunizierten die Gruppenmitglieder<br />

in den beiden Settings unterschiedlich:<br />

Videokonferenzteams verbalisierten wesentlich häufiger<br />

die Koordination der gemeinsamen Arbeit und<br />

die Ausführung der Aufgaben. Sie machten häufiger<br />

Äußerungen dazu, welches Gruppenmitglied eine<br />

(Teil-) Aufgabe durchführt, über welches Wissen oder<br />

über welche zeitlichen Ressourcen bestimmte Gruppenmitglieder<br />

verfügen. Dieses Ergebnis kann dadurch<br />

erklärt werden, dass in der Videokonferenz<br />

Mittel zur Gesprächskoordination, wie der Blickkontakt,<br />

nicht zur Verfügung stehen.<br />

Die Bedeutung der Koordination in Videokonferenzen<br />

wird durch weitere Studien bestätigt: In einer<br />

Studie von Paechter et al. (2010) wurde ein Training<br />

für das gemeinsame Arbeiten in Videokonferenzen<br />

entwickelt und untersucht. Arbeitsgruppen lernten,<br />

die Koordination der gemeinsamen Arbeit explizit zu<br />

verbalisieren, aufgabenbezogene Information im Gespräch<br />

wiederaufzugreifen und mit der Aufgabe in<br />

Bezug zu setzen. In einer empirischen Untersuchung<br />

wurden Gruppen, die dieses Training erhalten hatten,<br />

mit Gruppen verglichen, die kein Training erhalten<br />

hatten. Es zeigte sich, dass die Trainingsgruppen<br />

bessere Leistungen erzielten.<br />

4. Unterstützung des Lernens in Videokonferenzen<br />

Auch wenn sich durch Trainings die Kommunikation<br />

in Videokonferenzen verbessern lässt, bleibt die<br />

Frage offen, inwieweit die Lernpartner/innen über<br />

die notwendigen Fähigkeiten zur erfolgreichen Bearbeitung<br />

kooperativer Aufgaben verfügen. Da dies oft<br />

nicht in ausreichendem Maße der Fall ist, ist didaktische<br />

Unterstützung für das Lernen in Videokonferenzen<br />

notwendig. Es lassen sich verschiedene<br />

Arten der didaktischen Unterstützung des<br />

Lernens in Videokonferenzen klassifizieren, deren<br />

Anwendung entweder vor oder während der Videokonferenz<br />

stattfindet und deren Fokus auf der Verbesserung<br />

der Kooperation oder auf der Unterstützung<br />

der Inhaltsbearbeitung liegt.<br />

Unterstützungsmöglichkeiten vor der Kooperation<br />

zielen darauf ab, die Lernenden besser auf die


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Kooperation in der Videokonferenz vorzubereiten.<br />

Hierunter fallen die schon beschriebenen Trainings<br />

für den Umgang mit der spezifischen Kommunikationssituation<br />

„Videokonferenz“, Kooperationstrainings<br />

und das Zirkulieren von Agenden oder von<br />

Unterlagen zur individuellen inhaltlichen Vorbereitung<br />

(siehe dazu auch den Teil „Leitfäden für erfolgreiche<br />

Videokonferenzen“).<br />

Während der Kooperation kann die Unterstützung<br />

durch Strukturvorgaben umgesetzt werden.<br />

Kooperationsspezifische Unterstützung unterteilt den<br />

Kooperationsprozess in spezifische Phasen, die unterschiedliche<br />

Aspekte der Aufgabenbearbeitung hervorheben.<br />

So lassen sich zum Beispiel der Austausch<br />

von Informationen, das Sammeln von Aspekten und<br />

die Diskussion der Lösung fokussieren (siehe auch<br />

das Anwendungsbeispiel am Ende des Kapitels). Auf<br />

inhaltlicher Ebene können Wissensschemata und<br />

Mapping-Methoden die Teilnehmenden auf spezifische<br />

Inhaltsbereiche aufmerksam machen und Zusammenhänge<br />

visualisieren. Studien haben gezeigt,<br />

dass Lernende von einer Kombination beider Unterstützungsmethoden<br />

am meisten profitieren (Ertl et<br />

al., 2006).<br />

In der nun folgenden Übungsaufgabe werden Sie<br />

die Gelegenheit haben, die Methoden des Kooperationsskripts<br />

und des Wissensschemas selbst in einer<br />

Videokonferenz zu erproben.<br />

5. Anwendung von Videokonferenzen<br />

Fokus<br />

Inhalt KooperaQon<br />

Inhalt vor der Ko-­‐<br />

operaQon<br />

Agenden Trainings<br />

während der Wissens-­‐ KooperaQons-­‐<br />

KooperaQon schemata skripts<br />

Tabelle 1: Unterstützungsmöglichkeiten für Lernen und<br />

Kooperation in Videokonferenzen.<br />

Es gibt eine Vielzahl an frei und kostenlos verfügbaren<br />

sowie kommerziellen internetbasierten Anwendungen<br />

und Software für die Einrichtung einer Videokonferenz,<br />

mit und ohne Application-Sharing-<br />

Funktionalität. Auch die gängigen Instant-Messaging-<br />

Anwendungen bieten zusätzlich zur Chat-Funktion<br />

häufig die Möglichkeiten zur Kommunikation über<br />

einen Audio- und Videokanal.<br />

?<br />

In diesem AbschniX werden Sie eine Videokonferenz<br />

einrichten und in einem Lernkontext anwenden. Auf<br />

Basis der eigenen Erfahrungen reflekQeren Sie dabei<br />

den Einsatz dieser Technologie und die didakQschen<br />

ImplikaQonen, die sich daraus ergeben.<br />

Hinweise zur Technologieentscheidung<br />

Die Internationale Fernmeldeunion ITU klassifiziert<br />

Videokonferenz-Endgeräte in Desktopsysteme,<br />

Kompaktsysteme oder Raumsysteme, die sich hinsichtlich<br />

Leistungsspektrum und Einsatzgebiet unterscheiden.<br />

Bei einer Point-to-Point-Desktop-Videokonferenz<br />

werden Bild und Ton von einem PC auf einen<br />

anderen übertragen. Dazu benötigt man eine Videokamera<br />

oder Webcam und ein Mikrofon. Die Verbindung<br />

kann über Internet oder mindestens zwei<br />

ISDN-Telefonleitungen hergestellt werden.<br />

Wenn mehrere Personen gleichzeitig miteinander<br />

verbunden sind, spricht man von einer Multipoint-<br />

Destop-Konferenz. Für die Organisation einer<br />

solchen Konferenz werden eine Multipoint-Control-<br />

Unit (MCU) oder ein Videokonferenz-Server benötigt.<br />

Diese verbinden drei und mehr PC-Arbeitsplätze<br />

gleichzeitig. In der Regel nutzen ISDNbasierte<br />

MCUs den international etablierten Videokonferenzstandard<br />

H.320 oder wenn es sich um eine<br />

IP-basierte Übertragung handelt, wird das Protokoll<br />

H.323 verwendet. Die Basisfunktion von H.323 bzw.<br />

H.320 ist die Übertragung von Audio, Video und<br />

Daten von einem Standort zum anderen.<br />

Für den Einsatz von Videokonferenzen in<br />

großen Räumen, zum Beispiel um einen Vortragenden<br />

oder eine Vortragende aus Übersee in die<br />

Vorlesung per Videokonferenzübertragung einzuladen,<br />

empfiehlt sich die Anschaffung von eigens<br />

dafür konzipierten Raumsystemen. Dazu gehören<br />

eine hochwertige Kamera, ein Beamer für die Projektion<br />

des Bildes auf eine größere Fläche, eventuell<br />

eine Dokumentenkamera sowie ein PC. Üblicherweise<br />

sind Raumsysteme fix installiert.<br />

Schließlich gibt es auch portable Systeme.<br />

Laptops und Netbooks verfügen heute standardmäßig<br />

über Webkameras. Auch die mobile Telefonie<br />

bietet Geräte, in die Webcams integriert sind. Webportale,<br />

die Schnittstellen zu mobilen Endgeräten wie<br />

Handys, Smartphones und Handheld-Geräten anbieten,<br />

ermöglichen unabhängig von Zeit und Ort die<br />

audio-visuelle Kommunikation zwischen Personen<br />

und damit kooperatives Lernen.


In der Praxis: Leitfäden für erfolgreiche Videokonferenzen<br />

Im folgenden AbschniX werden praxisnahe Ratschläge für<br />

den Einsatz von Videokonferenzsystemen in der alltäglichen<br />

Lern-­‐ sowie Lehrpraxis angeführt. Die Verwendung der Vi-­‐<br />

deokonferenztechnologie bringt in der Regel einen gewissen<br />

Mehraufwand für die Lehrenden mit sich. Dieser wird jedoch<br />

mit einer Bereicherung der Lernerfahrung sowie erhöhtem<br />

MoQvaQonspotenzial der Lernenden belohnt. Die nachfol-­‐<br />

genden praxisorienQerten Empfehlungen gliedern sich in un-­‐<br />

terschiedliche Punkte und sollen als Anleitung oder als<br />

Checkliste für die Gewährleistung einer effekQven Appli-­‐<br />

kaQon dienen (vgl. Gyorke,2006; Pepper, 2003; publicare;<br />

Rakoczi et al., 2010; Salmon, 2010).<br />

Technologie<br />

Im Rahmen der Technologieentscheidung sind pladormun-­‐<br />

abhängige Lösungen zu präferieren, um opQmale KonnekQ-­‐<br />

vität der unterschiedlichen (Betriebs-­‐)Systeme gewähren zu<br />

können. Weiters ist die Bandbreite der Netzwerkverbindung<br />

zu beachten, da die Übertragung von Videokanälen mitunter<br />

sehr datenintensiv ausfallen kann. Bei der Internet-­‐ver-­‐<br />

bindung sollte der Kabelzugang gegenüber dem EinsQeg<br />

über WLAN bevorzugt werden, da dieser in der Regel sta-­‐<br />

bilere Übertragungen garanQert. Es ist auf eine opQmale Be-­‐<br />

lichtung beim Videobild zu achten, um bestmögliche<br />

Videoqualität zu ermöglichen. Den Lernenden sollten für das<br />

Üben im Vorhinein Testzugänge zur Verfügung gestellt<br />

werden. In diesem Zusammenhang ist es sinnvoll für un-­‐<br />

geübte Teilnehmer oder Teilnehmerinnen kurze Anleitungen<br />

oder Checklisten anzuferQgen.<br />

Tipps für die didak>sche Organisa>on<br />

Lehrende sollten auf ihre Zielgruppe achten und überlegen<br />

in welcher Form Videokonferenzen opQmal eingesetzt<br />

werden können (als PräsentaQonstool, als diskursives<br />

Werkzeug etc.) Zahlreiche Videokonferenzlösungen bieten<br />

erweiterte (in das System integrierte) KommunikaQonswerk-­‐<br />

zeuge (Whiteboards, Chat, File-­‐Sharing) an – diese können<br />

für erweiterte didakQsche AkQvitäten genutzt werden. Leh-­‐<br />

rende sollten die Beteiligung fördern und belohnen, zum Bei-­‐<br />

spiel mit einem Preis für die akQvsten Teilnehmer/innen.<br />

Lehrende sollten auch den PerspekQvenwechsel einplanen,<br />

6. Technische Anforderungen und Umsetzungen<br />

Für erfolgreiche Videokonferenzen werden höchste<br />

Anforderungen an die Netzanbindung und die Datenübertragung<br />

gelegt. Die für Videokonferenzen benötigte<br />

Bandbreite beginnt bei 128 kbps für eine geringe<br />

Videoqualität und endet bei 4 Mbps. Üblicher-<br />

Lernen mit Videokonferenzen. Szenarien, Anwendungen und PraxisQpps — 5<br />

indem sie Lernende durch Vergabe von ModeraQonsrechten<br />

als Lehrende einsetzen! Es sind etwaige Hemmschwellen der<br />

Teilnehmer/innen zu beachten – erste Konferenzsitzungen<br />

sollten daher im universitären Rahmen (Campus) durchge-­‐<br />

führt werden, und es sollte erst im Anschluss eine Mit-­‐<br />

wirkung von unterschiedlichen Senngs aus ermöglicht<br />

werden (zu Hause, Büro).<br />

Kommunika>on<br />

Ganz besonders ist die Bedeutung von definierten Kommuni-­‐<br />

kaQonsregeln zu betonen. Ein rechtzeiQger Hinweis auf et-­‐<br />

waige NeQqueXe-­‐Regeln ist zu empfehlen. Bei der<br />

Bildübertragung sollte auf die Körpersprache geachtet<br />

werden – die Lehrenden sollen ihren Blick direkt in die<br />

Kamera richten und sich dem Zweck entsprechend kleiden!<br />

Untersuchungen zeigen zudem, dass die Begeisterung der<br />

Lehrenden wichQg ist, um Lernende zu moQvieren (Paechter<br />

et al., 2010). Auch dies wird über die Körpersprache ver-­‐<br />

miXelt! Wesentlich ist, dass gegen Ende einer Videokonfe-­‐<br />

renzsitzung die besprochenen Inhalte zusammengefasst<br />

werden und den Teilnehmerinnen und Teilnehmern<br />

Feedback gegeben wird. Bei Konferenzen auf dem Campus<br />

sind persönlich und unmiXelbar nach der Sitzung durchge-­‐<br />

führte Treffen mit den Lernenden überaus hilfreich. Essen-­‐<br />

ziell ist im Rahmen der KommunikaQon, dass fortlaufend auf<br />

Verständlichkeit geachtet wird – daher sollten wesentliche<br />

Aussagen der Konferenz wiederholt werden! Körperbewe-­‐<br />

gungen sollten stets langsam ausgeführt werden, da schnelle<br />

Bewegungen ruckarQge Artefakte im Videobild erzeugen<br />

können.<br />

Zeitmanagement<br />

Videokonferenzen sind anspruchsvoll und ermüdend – Mo-­‐<br />

derator/innen sollten daher regelmäßig Pausen einplanen!<br />

Gegebenenfalls ist zudem zu Beginn der Sitzungen Zeit für<br />

die Einrichtung der technischen Infrastruktur vorzusehen. In<br />

der Einleitung sollte stets eine kurze zeitliche Strukturierung<br />

bekanntgegeben werden und auf ihre Einhaltung geachtet<br />

werden. Abschließend sei darauf verwiesen, dass eine klare<br />

Adressierung der KommunikaQonsteilnehmer/innen Zeit<br />

spart!<br />

weise werden Bandbreiten zwischen 384 und 1920<br />

kbps benutzt, welche für eine gute bis sehr gute Videoqualität<br />

ausreichen. Die zur Übertragung eingesetzten<br />

Videokomprimierungen (H.263, H.264) sind<br />

sehr effektiv und werden sowohl für ruhende Teile<br />

als auch für den Bewegtanteil im Video genutzt.


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Nicht nur um sicher zu stellen, dass ausreichend<br />

Bandbereite gewährleistet ist, ist unbedingt die IT-<br />

Abteilung bei der Auswahl und Installation der VC-<br />

Anlage einzubinden. Mit dieser ist auch zu klären, wie<br />

Sicherheitsfragen und Integration in die Firewall<br />

gelöst werden können, da das H.323-Protokoll nicht<br />

von allen Firewalls unterstützt wird.<br />

Optimal ist es, wenn alle Konferenzteilnehmer das<br />

gleiche System verwenden. Bei der Auswahl ist jedenfalls<br />

darauf zu achten, welche Kompatibilitäten die<br />

Hersteller für das jeweilige Produkt garantieren.<br />

Die Auswahl einer Video- oder Webkonferenz-Anwendung<br />

für den Einsatz in einem Lehr-<br />

Lernkontext muss mit den spezifischen didaktischen<br />

Zielsetzungen abgestimmt werden und ist zusätzlich<br />

von technischen und organisatorischen Rahmenbedingungen<br />

abhängig. Insbesondere ist bei der<br />

Auswahl von Videokonferenz-Equipment (Hard- und<br />

Soft-ware) neben der Abklärung, wie viel Budget zur<br />

Verfügung steht, zu klären, ob und in welcher Qualität<br />

die Rahmenbedingungen für eine erfolgreiche<br />

Videokonferenz vorhanden sind oder geschaffen<br />

werden müssen.<br />

!<br />

Video- und Webkonferenz-Software erfordert in<br />

der Regel die Installation eines Programms auf dem<br />

Computer. Es gibt auch Online-Applikationen, bei<br />

denen lediglich die Anmeldung und Einrichtung eines<br />

Accounts erforderlich ist. Die Ausstattung des Computers<br />

mit einer Webcam und Lautsprecher/Mikrofon<br />

(Headset) ist in jedem Fall erforderlich; Breitbandinternetverbindung<br />

wird empfohlen.<br />

7. Fazit<br />

Tools in der Praxis Beispiele für Werkzeuge, mit<br />

denen sich Videokonferenzen abhalten lassen, sind<br />

unter anderem:<br />

Kommerzielle webbasierte Konferenzsysteme:<br />

▸ Adobe Connect Spreed,<br />

▸ Netviewer,<br />

▸ NetMeeQng (oder Windows-­‐Besprechungsraum<br />

ab Windows Vista) oder<br />

▸ Vitero.<br />

Kostenlose webbasierte Konferenzsysteme:<br />

▸ fast alle Messaging-­‐Systeme wie Skype, DimDim<br />

oder Windows Live Messenger sowie<br />

▸ Open Source Web Conferencing: openmeeQngs,<br />

vmukQ<br />

Videokonferenzen sind eine vielversprechende Möglichkeit,<br />

kooperativ und hoch interaktiv über Entfernungen<br />

hinweg zu lernen. Allerdings, auch wenn Videokonferenzen<br />

der Face-to-Face Kommunikation<br />

sehr ähnlich sind, gibt es Unterschiede in den Kom-<br />

?<br />

munikations- und Kooperationsprozessen. Deswegen,<br />

und auch weil den Lernenden oft wichtige<br />

Fertigkeiten zur Kooperation fehlen, kann didaktische<br />

Unterstützung in Videokonferenzen hilfreich<br />

sein, zum Beispiel durch Skripts und Wissensschemata.<br />

Für den Einsatz von Videokonferenzen<br />

beim Lernen gilt es, neben den pädagogischen<br />

Aspekten, technische, organisatorische und finanzielle<br />

Rahmenbedingungen zu beachten, um die Videokonferenz<br />

für alle Beteiligten erfolgreich zu gestalten.<br />

!<br />

Literatur<br />

Wir haben Ihnen eine umfangreiche Übungsaufgabe<br />

(für zwei Personen) vorbereitet, die Ihnen die Mög-­‐<br />

lichkeit gibt, Ihre Kompetenz im Umgang mit Web-­‐<br />

und Videokonferenzen prakQsch zu entwickeln und zu<br />

reflekQeren. Die Übungsaufgabe ist als ZIP-­‐Datei unter<br />

hXp//:l3t.eu bei diesem Kapitel zugänglich (#video-­‐<br />

konferenz). Sollten Sie keine KooperaQonspartnerin<br />

oder keinen KooperaQonspartner finden oder sollten<br />

technische Probleme die Einrichtung der Videokon-­‐<br />

ferenz verhindern, können Sie die Aufgabenstellung<br />

auch eigenständig bearbeiten.<br />

▸ Bevor Sie mit der Bearbeitung der Übungsaufgabe<br />

beginnen, lesen Sie biXe alle InformaQonen genau<br />

durch, um einen Überblick über den gesamten<br />

Lernprozess und die erforderlichen SchriXe zu be-­‐<br />

kommen.<br />

▸ Im AbschniX zur Unterstützung des Lernens in Vi-­‐<br />

deokonferenzen wurden Ihnen zwei Möglichkeiten<br />

zur Unterstützung des Lernens in Videokonfe-­‐<br />

renzen vorgestellt: Strukturierungen mit Fokus auf<br />

die KooperaQon oder auf den Inhalt. Sie ver-­‐<br />

wenden selbst ein KooperaQonsskript und eine in-­‐<br />

haltspezifische Strukturierung für die Kommuni-­‐<br />

kaQon mit Ihrer Partnerin oder Ihrem Partner.<br />

Folgen Sie dem KooperaQonsskript!<br />

Die häufigsten Fehler, die bei Videokonferenzen auf-­‐<br />

treten können, werden im Video der University of<br />

Washington „The Videoconferencing Zone“ auf hu-­‐<br />

morvolle Weise dargestellt. Verfügbar auf: hXp://you-­‐<br />

tu.be/ccMZ_NWhkf4.<br />

▸ Clark, H. H. & Brennan, S. E. (1996). Grounding in communication.<br />

In: L. B. Resnick; J. M. Levine & S. D. Teasley (Hrsg.),<br />

Perspectives on socially shared cognition. Washington DC:<br />

American Psychological Association, 127-149.<br />

▸ Ertl, B. (2007). Kooperatives Lernen in Videokonferenzen.<br />

Einflussmöglichkeiten didaktischer Strukturierungen. Saarbrücken:<br />

VDM Verlag Dr. Müller.


▸ Ertl, B.; Fischer, F. & Mandl, H. (2006). Conceptual and sociocognitive<br />

support for collaborative learning in videoconferencing<br />

environments. Computers & Education, 47(3), 298-<br />

315.<br />

▸ e-teaching.org. URL: http://www.e-teaching.org/glossar/videokonferenz<br />

[2010-10-09].<br />

▸ Flessner, B. (2000). Fernsprechen als Fernsehen. Die Entwicklung<br />

der Bildtelefonie und die Bildtelefonprojekte der<br />

Deutschen Reichspost. In: J. Bräunlein & B. Flessner (Hrsg.),<br />

Der sprechende Knochen. Perspektiven von Telefonkulturen.<br />

Wiesbaden: Königshausen und Neumann, 29-46.<br />

▸ Gyorke, A. (2006). Faculty guide to teaching through videoconferencing.<br />

URL: http://clc.its.psu.edu/Classrooms/Help/Videoconferencing.pdf<br />

[2010-07-20].<br />

▸ Keller, R. (2009). Live e-learning im virtuellen Klassenzimmer.<br />

Eine qualitative Studie zu den Besonderheiten beim Lehren<br />

und Lernen. Hamburg: Verlag Dr. Kovac.<br />

▸ König, P. (2007). Blickkontakt. c’t, 07(1), URL: http://www.heise.de/ct/artikel/Blickkontakt-290814.html<br />

[2010-09-16].<br />

▸ Paechter, M.; Kreisler, M. & Maier, B. (2010). Supporting collaboration<br />

and communication in videoconferences. In: B. Ertl<br />

(Hrsg.), E-collaborative knowledge construction: Learning<br />

from computer-supported and virtual environments, Hershey,<br />

PA: IGI Global, 195-212.<br />

Lernen mit Videokonferenzen. Szenarien, Anwendungen und PraxisQpps — 7<br />

▸ Paechter, M.; Maier, B. & Macher, D. (2010). Students’ expectations<br />

of, and experiences in e-learning: Their relation to<br />

learning achievements and course satisfaction. Computers and<br />

Education, 54(1), 222-229.<br />

▸ Pepper, C. (2003). Digital handbook - a videoconferencing<br />

guide for teachers and students. URL:<br />

http://www.d261.k12.id.us/VCing/intro.htm [2010-07-20].<br />

▸ publicare. Weltweit einzigartig: Herstellerunabhängiger Vergleich<br />

von Software für Webkonferenzen. URL: http://www.webconferencing-test.com/de/webkonferenz_home.html<br />

[2010-07-06].<br />

▸ Rakoczi, G.; Herbst, I. & Reichl, F. (2010). Nine recommendations<br />

for enhancing e-moderation skills by utilisation of videoconferencing<br />

within an e-tutoring curriculum. In: Proceedings<br />

of ED-Media World Conference on Educational Multimedia,<br />

Hypermedia & Telecommunication, Chesapeake, VA: AACE,<br />

2258-2266.<br />

▸ Salmon, G. (2000). E-moderating: The key to teaching and<br />

learning online. London: Kogan Page Limited.<br />

▸ VCC: Kompetenzzentrum für Videokonferenzen. URL:<br />

http://vcc.zih.tu-dresden.de [2010-09-10].<br />

▸ Virtuelle Hochschule Oberrhein. URL: http://www.viror.de<br />

[2010-09-10].


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Einführung<br />

Virtuelle Welten sind eine spezielle Art sozialer Netzwerke,<br />

in denen die Benutzer als sogenannte Avatare<br />

(eine Art Spielfigur) in einer virtuellen, dreidimensionalen<br />

Umgebung dargestellt werden. Mittels Chat<br />

oder Voice Chat kommunizieren diese Avatare in<br />

Echtzeit miteinander. Sie können mit der virtuellen<br />

Umgebung interagieren (zum Beispiel einen Raum<br />

betreten oder sich auf einen Stuhl setzen) und in<br />

manchen Systemen auch die Umgebung modifizieren<br />

(zum Beispiel Geräte bedienen).<br />

Im Gegensatz zu den meisten anderen sozialen<br />

Netzwerken bleiben die Benutzer hinter den Avataren<br />

üblicherweise anonym. Von den sogenannten<br />

MMOG (Massively Multiplayer Online Games), die<br />

eine ähnliche Technologie verwenden, unterscheiden<br />

sich virtuelle Welten darin, dass sie offener im Verwendungszweck<br />

sind, mit einem gewissen Fokus auf<br />

Interaktion und Kreativität. Sie sind also kein Spiel<br />

mit vordefinierten Zielen, Gewinnern und Verlierern.<br />

Dadurch wird es möglich, sie als Lernumgebung zu<br />

verwenden.<br />

Kommerziell betriebene virtuelle Welten erfreuen<br />

sich vor allem bei jungen Menschen großer Beliebtheit.<br />

Die Marktforschungs-Firma KZero zählte<br />

Ende 2009 etwa 800 Millionen Benutzer/innen in<br />

etwa 300 verschiedenen virtuellen Welten. Die<br />

meisten davon haben Kinder und Jugendliche als<br />

Zielgruppe, aber es gibt auch virtuelle Welten mit<br />

einem Zielpublikum über 30 Jahren (zum Beispiel<br />

Second Life).<br />

Es existieren Open-Source-Software-Projekte, mit<br />

denen man selbst eine virtuelle Welt erstellen kann.<br />

Für den Fall einer virtuellen Lernumgebung ist dies<br />

natürlich von Vorteil, weil man die volle Kontrolle<br />

über das System hat und die Kosten geringer sind.<br />

Das bekannteste dieser Projekte ist das OpenSimulator-Projekt,<br />

welches im Wesentlichen die Funktionalität<br />

von Second Life nachbildet.<br />

!<br />

?<br />

Weiterführende Links finden Sie in der L3T Gruppe bei<br />

Mister Wong unter Verwendung der Hashtags #l3t<br />

#virtuellewelt #einfuehrung<br />

Reflek


hungsweise Edu-Worlds und ab circa 2005 in Second<br />

Life, erforscht. Begründen lässt sich das Interesse am<br />

Lernen in dreidimensionalen Umgebungen sicherlich<br />

dadurch, dass Lernplattformen beziehungsweise<br />

Lernmanagementsysteme (LMS) nicht in dem Maße<br />

attraktive und interaktive Lernumgebungen sind, wie<br />

sie versprechen.<br />

Eine These bei der Verwendung dreidimensionaler<br />

virtueller Welten ist die mögliche unterstützende<br />

Wirkung sogenannter Immersion auf Lernprozesse.<br />

Immersionseffekte hängen mit Flow-Erleben (Csikszentmihalyi,<br />

1993) zusammen, werden aber auch im<br />

Zusammenhang mit Computerspielsucht genannt<br />

(Grunewald, 2009).<br />

Immersion bezeichnet den Grad, in dem Individuen<br />

wahrnehmen, dass sie mehr mit ihrer virtuellen<br />

als mit ihrer realen Umgebung interagieren<br />

(Guadagno et al., 2007) und beschreibt somit das individuelle<br />

Gefühl des „sense of being there“. Bezüglich<br />

einer virtuellen Realität scheint Immersion<br />

durch den Grad der Repräsentation der Lernenden<br />

und ihrer Präsenz (Presence) bestimmt zu sein (Davis<br />

et al., 2009; Bredl & Herz, 2010). Ihre Repräsentation<br />

ist dabei geprägt von den Zuständen und dem Erscheinungsbild<br />

ihrer virtuellen Repräsentanten sowie<br />

ihrer Interaktionsmöglichkeiten (Bouras et al., 2001).<br />

?<br />

▸ Disku


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

on, die Tiefe der Informationsverarbeitung und den<br />

Lernerfolg (weitere Techniken und Verweise auf<br />

Studien zum Beispiel bei De Jong & van Joolingen,<br />

1998).<br />

?<br />

▸ Was sind die Prinzipien des Lernens mit Simula-­‐<br />


In der Praxis: Virtuelles Teamtraining<br />

Fahrzeuge und Maschinen sind ohmals von mehreren Per-­‐<br />

sonen zu bedienen. Doch auch Teamarbeit kann in simu-­‐<br />

lierten Welten gelernt und geübt werden. Vorgestellt wird<br />

hier eine Methode zum virtuellen Teamtraining (Virtual-­‐<br />

Reality-­‐Team-­‐Training-­‐System, VTTS, www.vr-­‐team-­‐trai-­‐<br />

ner.com), welche die Bremer szenaris GmbH entwickelt hat<br />

und mit der eine Gruppe von Lernenden in einer simulierten<br />

Welt vorkonfigurierte Übungen ausführen kann. Im virtuellen<br />

Teamtrainingssystem sind dazu mehrere Arbeitsplätze in<br />

einem Netzwerk miteinander verbunden, was den Ler-­‐<br />

nenden das gleichzei


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

▸ praxisnahe, realistische Ausbildungssituation und<br />

▸ Modifikation von Umgebungsvariablen (Wetter,<br />

Lichtverhältnisse, Fehlermeldungen von Geräten).<br />

Die möglichen Nachteile beim Einsatz von Simulationen<br />

sollen nicht unerwähnt bleiben. So können<br />

beispielsweise Schwindelgefühle auftreten, wenn<br />

sichtbare Bewegungen nicht den wahrgenommenen<br />

entsprechen (die so genannte „Simulatorkrankheit“).<br />

Da die Technik aber inzwischen so weit fortgeschritten<br />

ist, dass neben Sehen und Hören auch die<br />

haptische Wahrnehmung angesprochen wird, findet<br />

man sich noch realer in das virtuelle Geschehen<br />

hinein. So wird dieses „spürbar“ und das Risiko physischer<br />

Einschränkungen noch weiter minimiert.<br />

!<br />

?<br />

Durch Simula


▸ Heeter, C. (1992). Being There: The Subjective Experience of<br />

Presence. URL:<br />

http://commtechlab.msu.edu/randd/research/beingthere.html<br />

[2010-07-10].<br />

▸ Hofmann, J. (2002). Raumwahrnehmung in virtuellen Umgebungen:<br />

Der Einfluss des Präsenzempfindens in Virtual<br />

Simula


Andréa Belliger, David Krieger, Erich Herber und Stephan Waba<br />

Die Akteur-Netzwerk-Theorie<br />

Eine Techniktheorie für das Lernen und Lehren mit Technologien<br />

Zwischen den entgegen gesetzten Entwürfen von Technik-­‐ und Sozialdeterminismus stellt die Akteur-­‐<br />

Netzwerk-­‐Theorie (ANT) einen MiEelweg des Verständnisses der Beziehung von Mensch und Technik dar.<br />

Technik ist für die ANT weder bloßes Instrument, noch eine Determinante, die das soziale Leben und<br />

damit auch die didakCsche KommunikaCon von Lehren und Lernen besCmmt. Vielmehr bilden Mensch<br />

und Technik hybride Akteur-­‐Netzwerke. Diese Akteur-­‐Netzwerke sind Formen des Zusammenschlusses von<br />

Menschen, Technologien, OrganisaConen, Regeln, Infrastrukturen und vielem mehr, mit dem Ziel, relaCv<br />

stabile Gefüge von Wissen, KommunikaCon und Handeln ins Leben zu rufen. Alle Akteure – Menschen,<br />

Medien, Maschinen oder sonsCge Artefakte – sind gleichermassen in der Lage, Beziehungen und Ver-­‐<br />

halten der Akteure in einem Netzwerk zu beeinflussen. Im Bildungskontext bietet die ANT Erklärungen und<br />

mögliche Herangehensweisen bei der Analyse und Beschreibung komplexer Bildungsprozesse und Innova-­‐<br />

Conen im technologiegestützten Unterricht. Wenn Menschen, Technologien aber auch Artefakte aus dem<br />

Bildungsumfeld als handlungstragende Akteure im technologiebasierten Unterricht verstanden und in<br />

ihrem Zusammenspiel betrachtet werden, gelingt es uns, die Realitäten des Unterrichts-­‐ und Lernver-­‐<br />

haltens zu verstehen und in didakCschen Einsatzszenarien zu berücksichCgen. ModellhaHe Akteur-­‐Netz-­‐<br />

werke könnten dazu beitragen, ein besseres Verständnis für die sozialen Wirklichkeiten des Zusammen-­‐<br />

spiels von Akteur-­‐Netzwerken in der Bildungspraxis zu erzielen.<br />

Jetzt Pate werden!<br />

Quelle: dospaz, hEp://www.flickr.com/photos/59195512@N00/4964496706 [2011-­‐01-­‐10]<br />

#ant<br />

#spezial<br />

#theorieforschung<br />

Version vom 1. Februar 2011<br />

Für dieses Kapitel wird noch ein Pate gesucht,<br />

mehr InformaConen unter: hEp://l3t.eu/patenschaH


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

!<br />

1. Eine Einführung in die Akteur-­‐Netzwerk-­‐Theorie<br />

(von Andréa Belliger und David Krieger)<br />

Einleitung<br />

Anmerkung zur gewünschten ZitaCon dieses Beitrags:<br />

Auf ausdrücklichen Wunsch der Autorin und Autoren<br />

wird darum gebeten, diesen Beitrag abschniEsweise<br />

zu ziCeren und die entsprechenden Urheber/innen<br />

aufzuführen (vgl. AbschniE 1 und AbschniE 2).<br />

Seit sich das Internet als bestimmendes Medium für<br />

die meisten Formen von Kommunikation durchgesetzt<br />

hat, gilt der Netzwerkbegriff als Schlüssel zum<br />

Verständnis vieler verschiedener Phänomene. So<br />

spricht man etwa von einer „Netzwerkgesellschaft“<br />

und Sozialen Netzwerken. Im Kontext eines in vielen<br />

Disziplinen entstehenden Netzwerkparadigmas bietet<br />

die in den 1980er Jahren entwickelte Akteur-<br />

Netzwerk-Theorie (ANT) eine vielversprechende<br />

Grundlagentheorie für ein zukunftsweisendes Verständnis<br />

von Lehren und Lernen, da sie als eine der<br />

wenigen Theorien die Technik als gleichberechtigten<br />

Akteur in sozialer Kommunikation beschreibt. Im<br />

ersten Teil dieses Kapitels wird die Akteur-Netzwerk-<br />

Theorie in groben Zügen skizziert. Im zweiten Teil<br />

wird das Prinzip der ANT am Beispiel des Schulunterrichts<br />

näher erläutert. Als konkretes Szenario<br />

ziehen wir den Unterricht mit Netbooks heran. Es<br />

wird der Frage nachgegangen, welche Rolle menschliche<br />

und nicht-menschliche Akteure beim Unterricht<br />

mit Netbooks spielen, wie das Zusammenspiel dieser<br />

Akteure die Gestaltung von Lehr-Lern-Aktivitäten<br />

beeinflusst, und wie die Entwicklungen von Akteur-<br />

Netzwerk-Konstellationen beobachtet werden<br />

können.<br />

Techniktheorien in Bildungsprozessen<br />

Trotz der enormen Fülle an Literatur zu Themen wie<br />

Mediendidaktik, E-Learning und Computer im Unterricht,<br />

sucht man fast vergebens nach tiefer greifenden<br />

theoretischen Überlegungen zur Rolle der<br />

Technik im Bildungssystem. Wirft man einen Blick<br />

auf andere Bereiche und Disziplinen, wie etwa die<br />

Wissenschafts- und Technikforschung, fällt hingegen<br />

unweigerlich die rege Tätigkeit und differenzierte<br />

Fülle an anspruchsvollen Modellen auf. Schon allein<br />

aus diesem Grund lohnt es sich für Forscherinnen<br />

und Forscher, aber auch Anwenderinnen und Anwender<br />

von E-Learning, in diesen Bereichen nach<br />

neuen, innovativen Ideen Ausschau zu halten.<br />

Viele Diskussionen über den Einsatz und die Anwendung<br />

digitaler Medien in Lernprozessen sind<br />

Grundlagendiskussionen über die Art und Weise wie<br />

Menschen mit Technik umgehen und wie Technik soziale<br />

Prozesse bestimmt beziehungsweise bestimmen<br />

sollte. Aus diesem Grund ist die Frage nach adäquaten<br />

Techniktheorien für alle Entscheidungsträger<br />

im Bildungssystem von Bedeutung. Grundlagentheorien<br />

sind für Transformationen sozialer Prozesse<br />

wichtig und die Diskussion über sie ist Bestandteil<br />

jeder verantwortungsvollen Auseinandersetzung<br />

mit der Praxis und der Zukunft von Bildung.<br />

Wie die Rolle der Technik in Bildung konzeptualisiert<br />

wird, ist entscheidend, da je nach Verständnis dieser<br />

Rolle unterschiedliche Handlungsprogramme und<br />

Strategien auf Seite der sozialen Akteure resultieren:<br />

Ziele werden anders gesetzt; menschliche, technische<br />

und finanzielle Ressourcen zugesprochen oder nicht;<br />

künftige Entwicklungen durch strategische Entscheidungen<br />

initiiert; Rahmenbedingungen für gesellschaftliche<br />

Änderungen gesetzt und entsprechende<br />

Forderungen an alle Beteiligten im Bildungssystem<br />

gestellt.<br />

Ein theoretisches Modell, das uns zur Beschreibung<br />

der Rolle von Technik in Bildungsprozessen<br />

zur Verfügung steht, ist die Akteur-Netzwerk-<br />

Theorie. Die Akteur-Netzwerk-Theorie, oder kurz<br />

ANT, wurde vor allem von Bruno Latour und Michel<br />

Callon während der 1970er und 80er Jahre in Frankreich<br />

entwickelt. Die beiden Soziologen untersuchten<br />

in einer Reihe wegweisender Studien, wie Wissenschaftler<br />

im Labor arbeiten und nach welchen Bedingungen<br />

wissenschaftliche Erkenntnisse entstehen und<br />

in Technologien angewendet werden. Die ANT ist<br />

somit in der soziologischen Wissenschafts- und Technikforschung<br />

verwurzelt, hat sich aber durch weitreichende<br />

theoretische Arbeiten (Latour, 1998, 2000) in<br />

den 1990er Jahren zu einer umfassenden Theorie von<br />

Kultur, Gesellschaft und Kommunikation weiterentwickelt.<br />

!<br />

Die Hauptaussage der Akteur-­‐Netzwerk-­‐Theorie, auf<br />

die wir gleich differenzierter eingehen, ist, dass Men-­‐<br />

schen, Technik und GesellschaH sich gegenseiCg be-­‐<br />

dingen und zusammen hybride, heterogene Netz-­‐<br />

werke bilden.<br />

Die Tatsache, dass die ANT, welche das Zusammengehen<br />

von Menschen und Technologien, so genannte<br />

sozio-technische Netzwerke, ins Zentrum ihres Interesses<br />

rückt, in den letzten Jahren zunehmend Beachtung<br />

findet, lässt sich auf verschiedene Gründe<br />

zurückführen. Einer der Gründe liegt in der Verwis-


Die Akteur-­‐Netzwerk-­‐Theorie. Eine Techniktheorie für das Lernen und Lehren mit Technologien— 3<br />

senschaftlichung und Technisierung der Gesellschaft.<br />

Die globale Wissensgesellschaft ist bis in die meisten<br />

Lebensbereiche hinein von Wissenschaft und<br />

Technik geprägt. Die neuen Informations- und Kommunikationstechnologien<br />

haben alle gesellschaftlichen<br />

Subsysteme, das Bildungssystem eingeschlossen,<br />

verändert. Theoretische Überlegungen zur<br />

Rolle von Mensch und Technik in diesem neuen<br />

Kontext greifen - das zeigt auch ein Blick in die E-<br />

Learning-Literatur – noch häufig auf gängige technikdeterministische<br />

oder sozialdeterministische Annahmen<br />

zurück.<br />

Der Technikdeterminismus geht davon aus,<br />

dass die Gesellschaft durch technologische Entwicklungen<br />

bestimmt ist. Die Technik beeinflusst<br />

menschliches Verhalten und soziale Kommunikation.<br />

So behauptet der Technikdeterminismus beispielsweise,<br />

dass Steinwerkzeuge, die Schrift, die Dreifelderwirtschaft,<br />

Massenmedien und vergleichbare<br />

Schlüsseltechnologien soziale und kulturelle Anpassungen<br />

hervorgerufen und ganze Epochen geprägt<br />

haben (White, 1962; Innis, 1972). Aus technikdeterministischer<br />

Sicht wird Technik oft als „Sachzwang“<br />

oder als sich verselbständigte Entäußerung beziehungsweise<br />

Erweiterung des Menschen betrachtet<br />

(Schelsky, 1965; Gehlen, 1986). Modelle technischer<br />

Rationalität wie zum Beispiel die Kybernetik und<br />

Künstliche Intelligenz-Forschung (du Boulay & Mizoguchi,<br />

1997), welche etwa die Entwicklung von<br />

Lernmaschinen maßgeblich beeinflussten (Pask,<br />

1975; Pask, 1976), verstehen kognitive Prozesse und<br />

Lernen als etwas, das technisch nachgebaut und optimiert<br />

werden kann. Aus der Perspektive des Technikdeterminismus<br />

gibt es keinen Grund, Technik als<br />

etwas Fremdartiges oder den Bildungszielen der<br />

Schule Entgegengesetztes zu betrachten.<br />

!<br />

Der Technikdeterminismus erachtet es als sinnvoll, die<br />

InterakCon mit Systemen wie etwa Lernprogrammen,<br />

Tutoring-­‐Systemen oder Lernumgebungen zu fördern<br />

und diese in Bildungsprozesse einzubinden.<br />

Im Gegensatz dazu setzt der Sozialdeterminismus<br />

den Menschen in den Mittelpunkt. Der Mensch bestimmt,<br />

wie Technik entwickelt und eingesetzt wird.<br />

Wissenschaft und Technik haben kein Eigenleben, sie<br />

sind bloße Werkzeuge, deren Gebrauch von gesellschaftlichen<br />

Entscheidungen abhängt. Neuere soziologische<br />

und erziehungswissenschaftliche Studien<br />

über Technik in Bildung (Luhmann & Schorr, 1986,<br />

1990, 1992; Luhmann, 2002) warnen davor, eine<br />

technologische Rationalität und Instrumentalisierung<br />

des Menschen durch Technik im Bildungssystem zu<br />

institutionalisieren. Aus der sozialdeterministischen<br />

Perspektive gibt es gute Gründe, dem Einfluss der<br />

Technik auf Bildung zu misstrauen. Obwohl das Bildungssystem<br />

die Aufgabe hat, aus Nicht-Wissenden<br />

Wissende, aus Nicht-Kompetenten Kompetente zu<br />

„machen“, sollte im Sinne des kategorischen Imperativs<br />

der Mensch immer als Selbstzweck behandelt<br />

werden. Dies verlangt, dass didaktische Instrumente<br />

oder erzieherische „Techniken“ in Frage gestellt<br />

werden und deren Wirkung und Einfluss auf Bildungsprozesse<br />

Grenzen gesetzt werden.<br />

!<br />

Dem Sozialdeterminismus zufolge ist Bildung grund-­‐<br />

sätzlich nicht mit technischem Denken vereinbar, da<br />

Menschen nicht instrumentalisiert werden dürfen.<br />

Technik ist kein Partner im System Bildung, sondern<br />

ein Instrument, das nur dann eingesetzt werden<br />

sollte, wenn es die zwischenmenschliche Kommunikation<br />

nicht hindert oder gar ersetzt.<br />

Die Akteur-­‐Netzwerk-­‐Theorie<br />

Zwischen diesen entgegen gesetzten Alternativen<br />

stellt die Akteur-Netzwerk-Theorie einen Mittelweg<br />

des Verständnisses der Beziehung zwischen Mensch<br />

und Technik dar. Die Technik ist weder ein bloßes<br />

Instrument, noch eine Determinante, die das soziale<br />

Leben bestimmt. Vielmehr bilden Mensch und<br />

Technik zusammen Akteur-Netzwerke. Personen,<br />

Gruppen, Organisation, Institutionen, aber auch Artefakte,<br />

Bücher, Infrastrukturen, Gebäude, Maschinen<br />

und vieles mehr gelten als „Akteure“, die sich<br />

zu Netzwerken zusammenschliessen. Eine wichtige<br />

theoretische Innovation der ANT liegt in der Akzeptanz<br />

nicht-menschlicher Akteure. Als Akteur gilt<br />

grundsätzlich alles, was in der Lage ist, das Verhalten<br />

und die Ziele eines Netzwerkes zu beeinflussen. Jeder<br />

Akteur hat eigene Ziele, ein eigenes „Handlungsprogramm“.<br />

Er versucht, die Handlungsprogramme<br />

anderer Akteure in sein Programm zu „übersetzen“,<br />

um diese Akteure in ein Netzwerk einzubinden, das<br />

seinen Zielen entspricht. Ein Akteur, welcher erfolgreich<br />

in ein Netzwerk eingebunden wird, übernimmt<br />

eine bestimmte Rolle im Netzwerk und wird zu dem,<br />

was die ANT eine „Black Box“ nennt, das heißt er<br />

übernimmt eine fixierte Funktion im Ganzen. Je<br />

mehr Akteure in ein Netzwerk eingebunden werden<br />

können, desto stärker wird das Netzwerk.<br />

Im Kontext von Bildung bedeutet dies: Lernende<br />

können nicht als Individuen betrachtet werden, die<br />

entweder mittels Lerntechnologien oder bewusst


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

ohne solche in institutionalisierte und formalisierte<br />

Lernprozesse integriert werden müssen, Lernende<br />

sind vielmehr immer schon in größeren oder kleineren<br />

Netzwerken eingebunden, die bereits aus<br />

vielen verschiedenen Akteuren wie Büchern, Schulhäusern,<br />

Lehrpersonen, Eltern, Mitschülern, Smartphones,<br />

Lehrplänen, Bibliotheken, Medien, bildungspolitischen<br />

Instanzen, Reglementen, Wandtafeln,<br />

Computern und Budgets bestehen. Es gäbe keine<br />

Schülerinnen und Schüler und kein Bildungssystem,<br />

wäre da nicht bereits ein Netzwerk aus verschiedenen<br />

heterogenen Akteuren.<br />

!<br />

Akteur-­‐Netzwerke werden als hybrid bezeichnet, da<br />

sie immer aus menschlichen und nicht-­‐menschlichen<br />

Akteuren bestehen. Sie sind skalierbar, da sie so klein<br />

wie ein einzelner Lernender oder so groß wie das<br />

ganze Bildungssystem sein können.<br />

Aus der Perspektive der Akteur-Netzwerk-Theorie<br />

besteht die Aufgabe von Bildung also nicht darin,<br />

einzelnen Personen Wissen und Kompetenzen zu<br />

vermitteln und diese zu zertifizieren, sondern vor<br />

allem darin, diese kleinen und großen Netzwerke optimal<br />

miteinander zu verbinden. Lehren und Lernen<br />

sind Formen von Akteur-Netzwerken und Bildung ist<br />

Netzwerkarbeit.<br />

Kommunikationsprozesse, die entweder zum<br />

Erfolg oder Scheitern dieser Netzwerkarbeit führen,<br />

werden von der ANT detailliert analysiert und beschrieben.<br />

Die ANT geht dabei empirisch vor und<br />

legt großes Gewicht auf die vorurteilslose Beschreibung<br />

reeller Kommunikationsabläufe der verschiedenen<br />

Akteure. Kommunikation wird dabei als<br />

Handlung betrachtet, die etwas bewirkt. Akteure<br />

handeln durch Beeinflussung, Suggestion, Disposition<br />

und Forderungen, die von ihnen ausgehen. Ein<br />

Beispiel: Printmedien erfordern helle Umgebungen,<br />

digitale Medien hingegen zwingen Schulen dazu,<br />

Dimmer, Vorhänge oder Sonnenstoren in den Schulzimmern<br />

einzubauen. Die ANT folgt dem Prinzip<br />

der „methodischen Symmetrie“ in der Beschreibung<br />

von menschlichen und nicht-menschlichen<br />

Akteuren. Es spielt also keine Rolle, ob Menschen,<br />

Medien, Maschinen oder sonstige Artefakte<br />

die Beziehungen und das Verhalten der Akteure in<br />

einem Netzwerk zu beeinflussen versuchen. Technische<br />

Artefakte sind Akteure, die durchaus auch in<br />

der Lage sind, die Handlungsprogramme von Menschen<br />

zu beeinflussen und zu bestimmen.<br />

Akteur-Netzwerke sind also Formen des Zusammenschlusses<br />

von Menschen, Technologien, Organisationen,<br />

Regeln, Infrastrukturen und vielem mehr,<br />

mit dem Ziel, relativ stabile Gefüge von Wissen,<br />

Kommunikation und Handeln ins Leben zu rufen.<br />

Ein Beispiel, wie die Interaktion von Menschen mit<br />

digitalen Medien das Verhalten und die Einstellungen<br />

von Menschen bestimmen kann, zeigt sich am Phänomen<br />

Web 2.0. Während traditionelle Methoden<br />

und organisationale Strukturen in Wirtschaft, Wissenschaft<br />

und Bildung oft nicht in der Lage sind, eine<br />

Kultur des Vertrauens, der Offenheit und der Zuverlässigkeit<br />

im Austausch und der Nutzung von Wissen<br />

zu schaffen, wirken Web-2.0-Technologien ganz<br />

anders. Auf Basis dieser Technologien entstehen, jenseits<br />

formeller Informationssysteme, Communitys<br />

und Wissensnetzwerke, in denen Freiheit im Umgang<br />

mit Information, Individualisierung in der Gestaltung<br />

von Wissen, Überprüfbarkeit und Integrität als anerkannte<br />

Verpflichtungen, Flexibilität bei Problemlösungen,<br />

multiple Identitäten und gleichzeitiges Verfolgen<br />

diverser Zielsetzungen sowie Geschwindigkeit<br />

bei Entscheidungen und Innovationsoffenheit prägende<br />

Merkmale sind. Diese Eigenschaften sind<br />

weder ausschließlich den darin involvierten menschlichen,<br />

noch den technischen Akteuren zuzuschreiben.<br />

Sie sind vielmehr Netzwerkeigenschaften,<br />

die nur aus dem Zusammenschluss heterogener Akteure<br />

entstehen können. Die Akteur-Netzwerk-<br />

Theorie beschreibt heutige Entwicklungen wie das<br />

Web 2.0 als das Entstehen von hybriden, heterogenen<br />

Konstellationen menschlicher und nicht-menschlicher<br />

Akteure und erklärt damit die heutigen gesellschaftlichen<br />

Entwicklungen, ohne dabei einem Technikenthusiasmus<br />

oder einem Misstrauen aller Technik<br />

gegenüber zu verfallen.<br />

Seit sich das Internet als bestimmendes Medium<br />

aller Formen von Kommunikation durchgesetzt hat,<br />

gilt der Netzwerkbegriff als Schlüssel zum Verständnis<br />

vieler verschiedener Phänomene. So spricht<br />

man etwa von einer „Netzwerkgesellschaft“ (Castells,<br />

1996) und Sozialen Netzwerken. Im Kontext eines in<br />

vielen Disziplinen entstehenden Netzwerkparadigmas<br />

ist die Akteur-Netzwerk-Theorie aufgrund ihrer Anerkennung<br />

von Technik als Akteur in sozialer Kommunikation<br />

eine vielversprechende Grundlagentheorie<br />

für ein zukunftsweisendes Verständnis von<br />

Lehren und Lernen.<br />

?<br />

Überlegen Sie, welche Akteure-­‐Netzwerke im Sinne<br />

der ANT Sie aus Ihrem Unterrichtsalltag kennen, und<br />

versuchen Sie zu beschreiben, welche Akteure das<br />

Verhalten des Netzwerkes besCmmen und wie sie dies<br />

tun. Achten Sie dabei insbesondere auf die Rolle der<br />

Technologie (technologische Akteure).


Die Akteur-­‐Netzwerk-­‐Theorie. Eine Techniktheorie für das Lernen und Lehren mit Technologien— 5<br />

2. Die Akteur-­‐Netzwerk-­‐Theorie am Beispiel von Net-­‐<br />

books im Unterricht<br />

(von Erich Herber und Stephan Waba)<br />

Einen Praxisbezug im Bildungskontext bekommt die<br />

Akteur-Netzwerk-Theorie beim Einsatz mobiler<br />

Lerntechnologien im Schulunterricht. Als konkretes<br />

Szenario kann man den Unterricht mit Netbooks<br />

heranziehen.<br />

Akteur-­‐Netzwerke beim Unterricht mit Netbooks<br />

Die Vernetzung der Lehrenden und Lernenden über<br />

die digitalen Medien, Web-2.0-Anwendungen und sozialen<br />

Netzwerke, die durch den Einsatz von Netbooks<br />

erzielt wird, erweitert die didaktischen Möglichkeiten<br />

im Unterricht, beispielsweise indem Lehrende<br />

und Lernende Inhalte mit Blogs, Wikis oder<br />

Online-Werkzeugen gemeinsam entwickeln (Herzig<br />

et al., 2010). Die dabei neu entstehenden kollektiven<br />

Wissensbasen im Web 2.0 sind wichtige Handlungsträgern<br />

(Akteure) im Sinne der ANT, die maßgeblich<br />

beeinflussen, wann, wo und wie Wissen erworben,<br />

verfügbar gestellt und verarbeitet wird. Dabei betrachtet<br />

die ANT als Akteure nicht mehr nur die einzelnen<br />

Lernenden oder Lehrenden selbst, sondern<br />

das komplexe Umfeld, in dem der Unterricht mit<br />

Netbooks stattfindet. Indem Lernende die didaktischen<br />

Möglichkeiten nutzen, die ihnen diese Wissensbasen<br />

zur Verfügung stellen, nehmen sie sie als<br />

Akteur in ihr Akteur-Netzwerk auf. Diese neu entstandenen<br />

Wissensbasen stellen ein Beispiel für Akteure<br />

dar, die den Zusammenschluss von Mensch<br />

und Technologie im Akteur-Netzwerk eines<br />

Netbook-Unterrichts bilden.<br />

Betrachtet man Mensch und Technologie, aber<br />

auch andere Artefakte aus dem Umfeld, im Sinne der<br />

ANT als handlungstragende Akteure im Netzwerk<br />

der Lehrenden und Lernenden, so bedeutet das am<br />

Beispiel des Netbook-Unterrichts, folgende wichtige<br />

Akteure zu erkennen und in den Unterricht zu integrieren:<br />

▸ Technologien (wie Netbooks, Beamer, Schulnetzwerke,<br />

Content-Filter, private IT-Infrastrukturen),<br />

▸ Wissensbasen (wie Web-2.0-Tools, freie Bildungsressourcen,<br />

persönliche Lernumgebungen),<br />

▸ Menschen (wie Lehrende, Lernende, Schulleitung,<br />

Eltern, Technologieanbieter, Serviceprovider),<br />

▸ Lehr- und Lernorte (wie Raum- und Schulorganisation,<br />

Bibliothek, Labor, private Lernumgebung)<br />

und<br />

▸ institutionelle Artefakte (wie organisatorische,<br />

rechtliche Rahmenbedingungen).<br />

Die didaktischen Möglichkeiten im Unterricht erweitern<br />

sich, wenn institutionelle Rahmenbedingungen<br />

existieren, die ein offenes Zusammenwirken<br />

der Akteure zulassen (zum Beispiel flexible Raumund<br />

Unterrichtsgestaltung, Möglichkeiten zur Computernutzung<br />

außerhalb des Unterrichts, Zieldefinitionen<br />

mit der Schulleitung, Nutzungsvereinbarungen<br />

mit Schülerinnen und Schülern) (Schaumburg et al.,<br />

2007).<br />

Indem Technologie selbst als Akteur agiert und<br />

den Lehrenden und Lernenden gewisse Handlungsprogramme<br />

aufgrund ihrer Eigenschaften anbietet,<br />

übernimmt sie bei der Stabilisierung der Akteur-<br />

Netzwerke eine wichtige Funktion. Beispielsweise<br />

nimmt auch die Prozessor- und Akkuleistung eines<br />

Netbooks Einfluss darauf, wie gerne, wie intensiv,<br />

oder für welche Lern- und Unterrichtszwecke das<br />

Netbook verwendet wird. Die Verfügbarkeit eines<br />

Beamers und die Abdunkelungsmöglichkeit im Klassenraum<br />

bestimmen, ob und in welchem Ausmaß Arbeitsaufträge<br />

elektronisch bearbeitet und präsentiert<br />

werden können. Schließlich beeinflusst auch die<br />

Netzwerkgestaltung in- und außerhalb der Schule, in<br />

welchen Formen kollaborative oder webbasierte Arbeitsaufträge<br />

im Unterricht sinnvoll bearbeitet<br />

werden können. Technische Artefakte wie Netbook,<br />

Beamer oder Schulnetzwerke werden somit zu entscheidenden<br />

Akteuren im technologiebasierten Unterricht,<br />

die die didaktischen Einsatzszenarien der<br />

Lehrenden und Lernenden beeinflussen beziehungsweise<br />

mitbestimmen.<br />

Handlungsspielräume nutzen<br />

Die ANT geht davon aus, dass sich Lehrende und<br />

Lernende laufend in ihren Akteur-Netzwerken bewegen<br />

und die Handlungsprogramme anderer Akteure<br />

nutzen, um ihr Lehr- und Lerninteresse zu verfolgen.<br />

Auf den Unterricht mit Netbooks umgelegt bedeutet<br />

das, dass beispielsweise Lehrende, Lernende<br />

oder Mitschülerinnen und Mitschüler kontinuierlich<br />

Akteure in ihr Netzwerk einbringen (zum Beispiel<br />

neue Web-2.0-Anwendungen, Communitys) und die<br />

Handlungsprogramme im Unterricht dadurch neu gestalten.<br />

Es entstehen neue didaktische Szenarien im<br />

Unterricht (zum Beispiel Internetrecherchen, Bildungsexkursionen),<br />

neue schulische und außerschulische<br />

Lernorte (zum Beispiel Bibliothek, Pausenräume,<br />

schulexterne Orte) können für das Unterrichten<br />

und Lernen mit Netbooks nutzbar gemacht<br />

werden, und kollaboratives Lernen kann über das<br />

Klassenzimmer hinaus mittels Web 2.0 (zum Beispiel<br />

Wiks, Blogs, Microblogs) verwirklicht werden. Es


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

kommt zu Synergien und Phänomen, die zu neuen<br />

sozialen und mediendidaktischen Auseinandersetzungen<br />

im Unterricht führen und neue Chancen<br />

sowie Herausforderungen im Unterricht mit mobilen<br />

Lerntechnologien bedingen können.<br />

Der Unterricht mit Netbooks bedeutet somit kontinuierliche<br />

Netzwerkarbeit. Es ist wichtige Aufgabe<br />

der Lehrenden und Lernenden, Akteure und ihre potenziellen<br />

Möglichkeiten im Unterricht zu erkennen<br />

und diese in ihr Akteur-Netzwerk aufzunehmen, das<br />

heißt sie in den Unterricht zu integrieren. In der<br />

Komplexität von Akteur-Netzwerken besteht zugleich<br />

aber auch eine Unsicherheit in Form der Unkontrollierbarkeit<br />

von Entwicklungen und Innovationen<br />

im Unterricht, da nicht mehr der einzelne<br />

Akteur (zum Beispiel die/der Lehrende, die/der Lernende)<br />

entscheidet, wie der Unterricht gestaltet wird,<br />

sondern die Summe an Eigenschaften und Handlungen<br />

aller Akteure Einfluss nimmt (zum Beispiel<br />

der Netbooks, der Lehrenden, der Lernenden, der jeweiligen<br />

Raum- oder Technologieausstattung, der<br />

Service Provider, Internetverfügbarkeit).<br />

Wichtig ist es daher, zu verstehen, wie diese Handlungsprogramme<br />

tatsächlich genutzt werden. Es stellt<br />

sich unter anderem die Frage, welche Qualitäten im<br />

Sinne von Handlungsmöglichkeiten der Akteur<br />

Netbook (auf Grund seiner technischen Gegebenheiten<br />

wie der geringen Größe, des geringen Gewichts<br />

und der eingebauten UMTS-Karte für mobilen<br />

Internetzugang) für das inner- und außerschulische<br />

Lernen tatsächlich bietet. Für den Unterricht in<br />

der Schule ist auch von Bedeutung, in welcher Form<br />

Lernende Netbooks als dafür geeignet empfinden,<br />

ihre Lerninteressen in der unterrichtsfreien Zeit<br />

weiter zu verfolgen. Mit diesem Wissen können Unterrichtsszenarien<br />

und Lernprozesse entwickelt<br />

werden, die in der Schule begonnen und mit dem<br />

Gerät in der unterrichtsfreien Zeit zu Hause oder unterwegs<br />

sinnvoll fortgesetzt werden. Lernende<br />

könnten im Netbook ein neues Kommunikationsmittel<br />

entdecken, das es ihnen erlaubt, sich mit Mitschülerinnen<br />

und Mitschülern auszutauschen und<br />

etwa gemeinsam an Projekten zu arbeiten. Das mit<br />

mobilem Internet ausgestattete Netbook könnte auch<br />

im Alltag (während Wartezeiten, in öffentlichen Verkehrs-<br />

mitteln etc.) neue Zugänge zu Wissen schaffen<br />

und einen neuen Lifestyle beim Lernen ermöglichen<br />

Soziale Wirklichkeiten erforschen<br />

Indem wir den Akteuren und ihrer Netzwerkarbeit<br />

möglichst unvoreingenommen folgen und ihr Zusammenspiel<br />

beobachten, gelingt es uns, die Realitäten<br />

dieses Lernverhaltens abzubilden. Ziel dabei ist<br />

es, festzustellen, was im bestehenden Akteur-<br />

Netzwerk der Lernenden real und relevant beziehungsweise<br />

was unwirklich und zu vernachlässigen<br />

ist. Die ANT hilft uns bei der Erörterung dieser Fragestellung.<br />

!<br />

Die ANT stellt eine mögliche Herangehensweise an<br />

Forschungsfragen dar, die beabsichCgen, die sozialen<br />

Wirklichkeiten und Entwicklungen innerhalb eines<br />

Akteur-­‐Netzwerkes zu analysieren und zu be-­‐<br />

schreiben.<br />

Ein Beispiel für diese Herangehensweise bietet eine<br />

im Rahmen eines Netbook-Pilotprojekts an österreichischen<br />

Schulen der Sekundarstufe 2 durchgeführte<br />

Untersuchung durch die Autoren. Ziel dieser Untersuchung<br />

war es, die Realitäten beim Einsatz der Netbooks<br />

während des Unterrichts, aber auch in der unterrichtsfreien<br />

Zeit abzubilden. Um ein reales Bild<br />

der Akteur-Netzwerk-Beziehungen zu zeichnen,<br />

wurde eine webbasierte Microblogging-Seite eingerichtet,<br />

über die die Lernenden ihr tatsächliches Nutzungsverhalten<br />

mit den Netbooks mittels Kurznachrichten<br />

von max. 140 Zeichen laufend dokumentieren<br />

sollten. Wichtig war es, die Beobachtung der Akteure<br />

in ihrem persönlichen Umfeld – ihrem persönlichen<br />

Akteur-Netzwerk – zu gewährleisten und ein möglichst<br />

umfassendes Bild darüber zu erlangen, wann,<br />

wo und wofür das Netbook Anwendung findet.<br />

Basierend auf der durchgeführten Untersuchung<br />

konnte festgestellt werden, dass Schülerinnen und<br />

Schüler ihre Netbooks außerhalb des Unterrichts<br />

sehr unterschiedlich für Lernzwecke einsetzen und<br />

ihre Akteur-Netzwerke daher sehr differenziert<br />

nutzen beziehungsweise ändern. Beispielsweise<br />

konnte festgestellt werden, dass Schülerinnen und<br />

Schüler<br />

▸ durch die Mobilität, die ihnen das Netbook bietet,<br />

diese gerne an unterschiedlichsten Orten nutzen<br />

(im Schulgebäude, aber auch in der Wohnumgebung<br />

oder öffentlichen Verkehrsmitteln) und<br />

der Ort Einfluss auf die Art der Nutzung nimmt<br />

(zum Beispiel zeitlich begrenzte Tätigkeiten wie<br />

das kurze Abrufen von E-Mails im Bus; zeitlich<br />

offene Tätigkeiten wie das Durchführen einer Internetrecherche<br />

zuhause, etc.),<br />

▸ mit ihren Netbooks sehr unterschiedlich auf internetbasierte<br />

Informations- und Serviceangebote<br />

zugreifen beziehungsweise Internetrecherchen<br />

verschiedenartig durchführen (selten nutzen Schülerinnen<br />

und Schüler lokal installierte Software),


Die Akteur-­‐Netzwerk-­‐Theorie. Eine Techniktheorie für das Lernen und Lehren mit Technologien— 7<br />

▸ mit ihren Netbooks regelmäßig an sozialen Netzwerken<br />

wie Facebook, Twitter oder MySpace teilnehmen<br />

und dass<br />

▸ gerne mehrere Tätigkeiten auf dem Netbook parallel<br />

ausführen („Multi Tasking“).<br />

Die Untersuchung zeigte ebenfalls, dass sich Schülerinnen<br />

und Schüler mit ihren Netbooks laufend in<br />

sozialen Online-Netzwerken bewegen und dadurch<br />

ihre Akteur-Netzwerke gewissen Veränderungen aussetzen,<br />

die ihre Handlungsspielräume bei der Gestaltung<br />

der persönlichen Lehr-Lern-Aktivitäten sehr<br />

unterschiedlich beeinflussen können.<br />

Mit Hilfe dieser Microblogging-Untersuchung<br />

folgten wir der Zielsetzung, ein möglichst vorurteilsloses<br />

Bild des Verhaltens von Lernenden mit Netbooks<br />

zu zeichnen. Das Netbook verstanden wir<br />

dabei als Akteur, der in der Lage ist, auf das Handeln<br />

der lernenden Person (beispielsweise situations-, ortsoder<br />

kontextbezogen) sehr unterschiedlich Einfluss<br />

zu nehmen. Aufgrund der Möglichkeiten, die den<br />

Lernenden jeweils von ihrem Netbook geboten<br />

wurden, nutzten sie diese sehr unterschiedlich. Indem<br />

wir den Akteuren möglichst unvoreingenommen<br />

folgten, wurde es möglich, ein reales Bild der Akteur-<br />

Netzwerk-Beziehungen zu erkennen und im Sinne<br />

der Akteur-Netzwerk-Theorie zu untersuchen.<br />

?<br />

Literatur<br />

Betrachten Sie eine konkrete Technologie, die Sie in<br />

Ihrem Unterrichtsalltag verwenden. Überlegen Sie, in<br />

welcher Form diese Technologie die Lehr-­‐/Lern-­‐Arran-­‐<br />

gements Ihres Unterrichts beeinflusst. Welche Mög-­‐<br />

lichkeiten bieten sich an, die Technologie noch besser<br />

oder effizienter zu nutzen beziehungsweise den Ein-­‐<br />

fluss dieser Technologie zu ändern?<br />

▸ Belliger, A. & Krieger, D. (2006). ANThology Ein einführendes<br />

Handbuch zur Akteur-Netzwerk-Theorie. Bielefeld:<br />

Transcript Verlag.<br />

▸ Castells, M. (1996). The Information Age: Economy, Society,<br />

and Culture, Volume 1: The Rise of the Network Society.<br />

Oxford: Blackwell.<br />

▸ Du Boulay, B. & Mizoguchi, R. (1997). Artificial Intelligence in<br />

Education.<br />

▸ Gehlen, A. (1986). Anthropologische und sozialpsychologische<br />

Untersuchungen. Reinbeck: Rowohlt.<br />

▸ Herzig, B.; Meister, D.; Moser, H. & Niesyto, H. (2010).<br />

Jahrbuch Medienpädagogik 8: Medienkompetenz und Web 2.0.<br />

Wiesbaden: VS Verlag für Sozialwissenschaften.<br />

▸ Innis, H.A. (1972). Empire and Communication. Toronto: University<br />

of Toronto Press.<br />

▸ Latour, B. (1998). Wir sind nie modern gewesen. Versuch einer<br />

symmetrischen Anthropologie. Frankfurt am Main: Fischer<br />

Verlag.<br />

▸ Kerres, M. (2006). Potenziale von Web 2.0 nutzen. In: A. Hohenstein<br />

& K. Wilbers (Hrsg.), Handbuch E-Learning, Köln:<br />

Deutscher Wirtschaftsdienst, 4.26, 1-16.<br />

▸ Kerres, M.; Kalz, M.; Stratmann, J. & De Witt, C . (2004). Didaktik<br />

der Notebook-Universität. Münster: Waxmann.<br />

▸ Latour, B. (2000). Die Hoffnung der Pandora. Frankfurt am<br />

Main: Suhrkamp.<br />

▸ Luhmann, N. & Schorr, K. E. (1986). Zwischen Intransparenz<br />

und Verstehen. Fragen an die Pädagogik. Frankfurt am Main:<br />

Suhrkamp.<br />

▸ Luhmann, N. & Schorr, K. E. (1990). Zwischen Anfang und<br />

Ende. Fragen an die Pädagogik. Frankfurt am Main: Suhrkamp.<br />

▸ Luhmann, N. & Schorr, K. E. (1992). Zwischen Absicht und<br />

Person. Fragen an die Pädagogik. Frankfurt am Main:<br />

Suhrkamp.<br />

▸ Luhmann. N. (2002). Das Erziehungssystem der Gesellschaft.<br />

Frankfurt am Main: Suhrkamp.<br />

▸ Pask, G. (1975). Conversation Cognition and Learning. Amsterdam:<br />

Elsevier.<br />

▸ Pask, G. (1976). Conversation Theory: Applications in Education<br />

and Epistemology. Amsterdam: Elsevier.<br />

▸ Schaumburg, H.; Prasse, D.; Tschackert, K. & Blömeke, S.<br />

(2007). Lernen in Notebook-Klassen. Endbericht zur Evaluation<br />

des Projekts „100mal1000: Notebooks im<br />

Schulranzen“. Bonn.<br />

▸ Schelsky, H. (1965). Auf der Suche nach der Wirklichkeit. Gesammelte<br />

Aufsätze. Düsseldorf: Diederichs.<br />

▸ White, L. (1962). Medieval Technology and Social Change.<br />

Oxford: University Press.


Klaus Reich und Klaus Miesenberger<br />

Barrierefreiheit<br />

Grundlage gerechter webbasierter Lernchancen<br />

E-­‐Learning-­‐Technologien verfügen über ein großes PotenCal um pädagogische Konzepte zu realisieren,<br />

welche individuelle Anforderungen und Interessen unterstützen. Leider behindert mangelndes Be-­‐<br />

wusstsein und fehlendes Know-­‐How auf Seiten von Lehrenden, Entwickler/innen und Administrator/innen<br />

die Möglichkeiten auszuschöpfen, um Barrieren in Lernmaterialien und Lernumgebungen abzubauen.<br />

Dieses Kapitel stellt grundlegende InformaConen und Hinweise zur Barrierefreiheit von webbasierten In-­‐<br />

formaCons-­‐ und KommunikaConstechnologien zusammen und gibt konkrete Hinweise für die Ver-­‐<br />

wendung assisCver Technologien in Lehr-­‐ und Lernkontexten.<br />

Quelle: Ell Brown,<br />

URL: hEp://www.flickr.com/photos/ell-­‐r-­‐brown/4365581799/ [2011-­‐01-­‐01]<br />

Jetzt Pate werden!<br />

#barrierfrei<br />

#spezial<br />

#theorieforschung<br />

Version vom 1. Februar 2011<br />

Für dieses Kapitel wird noch ein Pate gesucht,<br />

mehr InformaConen unter: hEp://l3t.eu/patenschaH


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Grundsätzliches Verständnis von Barrierefreiheit:<br />

„equality = e-­‐quality“<br />

Informations- und Kommunikationstechnologien<br />

(IKT) zeichnen sich durch die Multimedialität der<br />

Darstellung und die Multimodalität der Bedienungsschnittstellen<br />

aus: Bei einem digitalen Dokument<br />

werden erst in dem Moment, in dem auf das Dokument<br />

zugegriffen wird, die medialen Qualitäten<br />

(Darstellung) und die Modalitäten der Steuerung<br />

(Handhabung) des Dokuments entschieden. Durch<br />

diese Trennung von Inhalt und Layout entsteht die<br />

Möglichkeit, auf ein und dasselbe Dokument auf unterschiedliche<br />

Art und Weise zuzugreifen, es in individueller<br />

Form zu medialisieren und die Handhabung<br />

an persönlichen Bedürfnissen auszurichten.<br />

Zu allen Bereichen, in denen IKT zum Einsatz<br />

kommt, können Menschen mit Behinderung mittels<br />

assistierender Technologien selbständig(er)en und<br />

selbstgesteuert(er)en Zugang finden. Das gilt aber<br />

nur unter der Voraussetzung, dass die IKT-basierten<br />

Systeme Grundsätze und Standards des barrierefreien<br />

Zugangs befolgen (Miesenberger, 2004).<br />

Assistierende Technologien bezeichnen Ausstattungen<br />

oder Software-Produkte, die verwendet<br />

werden, um die funktionalen Fähigkeiten von Menschen<br />

mit Behinderungen zu erhöhen, zu erhalten<br />

oder zu fördern. Darunter fallen Computertechnologien<br />

wie Screenreader, Spracheingaben, Vergrößerungssoftware<br />

oder Bildschirmtastatur. Sie helfen<br />

Menschen, selbständig und unabhängig ihre Ziele in<br />

der Gesellschaft zu erreichen. Es existieren beinahe<br />

für jede Art einer Behinderung Ansatzpunkte, um<br />

über assistierende Technologien die Nutzung von<br />

IKT und über diese die Teilnahme an lebensweltlichen<br />

Prozessen zu ermöglichen.<br />

In der Praxis : Benutzung einer Braillezeile<br />

Auch SehbeeinträchCge und Blinde können Beiträge aus dem<br />

Internet lesen. Dazu wird der Text in einem Online-­‐Foren-­‐<br />

beitrag miEels einer Braillezeile, also einem Computer-­‐Aus-­‐<br />

gabegerät für Blinde, in BrailleschriH umgewandelt. Die auf<br />

der Braillezeile erzeugten Erhöhungen in BlindenschriH<br />

können dann mit den Fingerspitzen abgegriffen werden. Der<br />

gleiche Text könnte durch ein „Screenreader-­‐Programm“ al-­‐<br />

ternaCv laut vorgelesen oder miEels VergrößerungssoHware<br />

größer dargestellt werden.<br />

Für den Zugang zu Informationen auf Websites<br />

und Lernumgebungen stehen sowohl für die Ein- als<br />

auch die Ausgabe zahlreiche Geräte zur Verfügung,<br />

die über Bildschirm, Tastatur, Maus und Drucker<br />

hinausgehen. Assistierende Technologien benutzen<br />

die Kodierung sowie den Inhalt einer Website und<br />

machen sie zugänglich.<br />

In der weitreichenden Um- und Neugestaltung<br />

nahezu aller Bereiche der Lebenswelt durch IKT<br />

liegen vielfältige Anknüpfungspunkte für die Teilhabe<br />

behinderter Menschen an der Lebenswelt mittels assistierende<br />

Technologien. Die Realisierung von Chancengleichheit<br />

(engl. „equality“) in der Gesellschaft für<br />

Menschen mit Behinderungen ist in immer größerem<br />

Maße von der Qualität der IKT, also von „E-Quality“<br />

abhängig – daraus erwächst für die Gestaltung besonders<br />

im Bildungsbereich eine besondere Verantwortung<br />

(Miesenberger, 2008).<br />

?<br />

Verschaffen Sie sich auf hEp://www.barrierekom-­‐<br />

pass.de/tools einen Überblick über die breite PaleEe<br />

von assisCerenden Technologien.<br />

Bereits in der Gestaltung von webbasierten Lernumgebungen<br />

und -materialien müssen die Anpassung<br />

an und die Optimierung für die Nutzbarkeit für die<br />

Einzelnen in ihrer jeweiligen Situation und mit seinen<br />

jeweiligen Voraussetzungen beziehungsweise. Schnittstellengeräten<br />

beachtet werden. Anstatt der Gestaltung<br />

einer starren, an „durchschnittlichen“<br />

Nutzer/innen orientierten Benutzerschnittstelle („Interface“)<br />

treten Individualisierbarkeit und Adaptivität<br />

in den Vordergrund, welche letztendlich die Akzeptanz<br />

und die Nutzbarkeit der Systeme für alle unterstützen.<br />

Abbildung 1: Benutzung einer Braillezeile<br />

Quelle: Andreas Markt-­‐Huter, via hEp://bilder.Cbs.at<br />

(Abdruckerlaubnis eingeholt)


Jede/r, der/die über eine Sinneswahrnehmung (zum<br />

Beispiel visuell, auditiv, taktil) verfügt, kann mit dieser<br />

die Informationsausgabe eines Computers wahrnehmen,<br />

beziehungsweise die Informationseingabe<br />

steuern - unabhängig von seiner/ihrer Behinderung<br />

(Miesenberger, 2005).<br />

!<br />

Barrierefreiheit bedeutet letztlich, dass Menschen<br />

unabhängig von Behinderung, Alter und technischer<br />

Infrastruktur auf Inhalte zugreifen können.<br />

Da dies aufgrund der unzähligen, auch individuell<br />

geprägten Barrieren nicht vollständig erreicht werden<br />

kann, spricht man auch von barrierearm oder zugänglich<br />

(engl. „accessible“).<br />

2. Zahl der Menschen mit Behinderung<br />

Im Behindertenbericht 2008 werden behinderte Menschen<br />

als sehr heterogene Gruppe charakterisiert,<br />

die sich hinsichtlich zahlreicher Dimensionen differenziert<br />

(Bundesministerium für Arbeit, Soziales und<br />

Konsumentenschutz, 2009). Laut einer im Auftrag<br />

des Sozialministeriums von der Statistik Austria<br />

durchgeführten Mikrozensus-Erhebung (Oktober<br />

2007 bis Februar 2008) gaben 20,5 Prozent aller Befragten<br />

an, eine dauerhafte Beeinträchtigung zu<br />

haben; das sind hochgerechnet 1,7 Millionen Personen<br />

der österreichischen Wohnbevölkerung. Darin<br />

sind sowohl Menschen mit psychischen Problemen<br />

oder vollständig immobile Menschen als auch Menschen<br />

mit leichten Sehbeeinträchtigungen enthalten.<br />

Die im Behindertenbericht 2008 zitierten Ergebnisse<br />

der von der EU vorgeschriebenen jährlichen „Erhebung<br />

zu den Einkommen und Lebensbedingungen“<br />

(EU-Statistics on Income and Living Conditions<br />

- EU-SILC) fokussieren auf subjektiv wahrgenommene<br />

starke Beeinträchtigung bei der Verrichtung<br />

alltäglicher Arbeiten, die mindestens schon<br />

sechs Monate andauert. Hochgerechnet wären das<br />

auf dieser Basis circa 630.000 Personen Menschen<br />

mit Behinderungen. Die Anzahl der Personen die<br />

eine Behinderung im Sinne des Gesetzes in Österreich<br />

haben, liegt bei circa 330 000. EU-Schätzungen<br />

gehen von einem 10-Prozent-Anteil der Menschen<br />

mit Behinderungen an der Bevölkerung im EU-Raum<br />

aus. Sie stellen also auch 10 Prozent der<br />

Wähler/innen, der Konsument/innen, der Arbeitskräfte<br />

und auch der potenziellen Bildungsteilnehmer/innen<br />

dar (Grill, 2005).<br />

Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 3<br />

3. Arten der Behinderung und spezielle Bedürfnisse hin-­‐<br />

sichtlich Barrierefreiheit<br />

Jeder Mensch kann in der Nutzung von webbasierten<br />

Lehr- und Lerntechnologien auf eine oder mehrere<br />

Barrieren stoßen. Wird bei Inhaltserstellung und Administration<br />

auf die speziellen Bedürfnisse behinderter<br />

Benutzer/innen geachtet, lassen sich diese Barrieren<br />

beseitigen oder zumindest minimieren. Dazu<br />

sind Kenntnisse unterschiedlicher Formen von Behinderungen<br />

und deren Effekte auf die Nutzung von<br />

IKT und insbesondere des World Wide Web nötig.<br />

Im Folgenden lernen Sie die vier Hauptkategorien<br />

von Behinderungen kennen: Sehbehinderungen,<br />

Hörbehinderungen, Mobilitätsbehinderungen sowie<br />

Wahrnehmungs- und Lernbehinderungen.<br />

Sehbehinderung<br />

Menschen mit Sehbehinderungen verfügen entweder<br />

über eine eingeschränkte Sehleistung, Farbenblindheit<br />

oder Blindheit. Die Anforderungen an die Gestaltung<br />

von webbasierten Lernumgebungen können abhängig<br />

von der Form der Sehbehinderung sehr unterschiedlich<br />

sein.<br />

Sehbehinderte Menschen arbeiten mit einem in<br />

Größe, Farbe (Kontrast), Schriftart (serifenlose<br />

Schriften), Linienart (durchgezogenen, strichliiert,<br />

punktiert, strichpunktiert), Schraffierung, Abstand<br />

und Anordnung angepassten Bildschirminhalt. Bei<br />

leichten Sehbehinderungen entsteht kein großer<br />

Bedarf einer Spezialisierung. Anpassungen der Einstellungen<br />

für die Darstellung im Betriebssystem<br />

führen zu der gewünschten Verbesserung der Nutzbarkeit.<br />

Erst bei schwerer Beeinträchtigung der Sehleistung,<br />

die eine Vergrößerung um das mehr als 3bis<br />

5fache erfordert, werden die Navigation und die<br />

Orientierung am Bildschirm stark eingeschränkt.<br />

Zusätzlich wird bei stärkeren Sehbehinderungen<br />

das Verwenden der Maus schwierig (zum<br />

Beispiel Hand- und Augenkoordination, Verfolgen<br />

des Mauscursors). Daher ist ein direktes Erreichen<br />

der Interface Elemente mittels Short-Cuts (bestimmte<br />

Tastaturbefehle um schneller zu navigieren<br />

beziehungsweise Befehle auszuführen) effizienter.<br />

Dementsprechend müssen sowohl Unterlagen zum<br />

Arbeiten am Computer, als auch Informationssysteme<br />

adaptiert und diese sonst oft ausgelassenen<br />

Steuerungsmechanismen berücksichtigt werden.<br />

F ü r Farbblinde und sehschwache Menschen<br />

ist die Verwendung von stark kontrastierenden<br />

Farben hilfreich und wichtig. Informationen sollten<br />

nicht durch eine Eigenschaft alleine (zum Beispiel<br />

Kontrast, Farbtiefe, Größe, Lage oder Schriftart) dargestellt<br />

werden.


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Blinde Computernutzer/innen können die Maus<br />

nicht verwenden. Sie verwenden die Pfeiltasten oder<br />

spezielle Maus-Emulationen (Funktionen einer Maus<br />

werden mittels anderer Möglichkeiten nachgestellt)<br />

auf dem Braille-Display, um den Cursor oder Systemfokus<br />

zu navigieren. Für blinde Menschen sind daher<br />

Short-Cuts und Tastaturbefehle sehr wichtig.<br />

Informationen, die nur visuell wahrnehmbar sind<br />

(zum Beispiel Bilder, Videos, Flash-Animationen),<br />

benötigen Alternativtexte, damit die Inhalte erst dadurch<br />

von Screenreaders ausgelesen und für die<br />

blinden Nutzer/innen aufbereitet werden können.<br />

Als Alternative zur Ausgabe auf dem Bildschirm<br />

verwenden blinde Menschen:<br />

▸ Braille: Braille ist eine Notation, mittels derer Zeichensätze<br />

als Punktmuster dargestellt und über<br />

den Tastsinn ertastet werden können. Braille-Displays<br />

sind Geräte, die den Text und textliche Beschreibungen<br />

der Inhalte des Bildschirms in Blindenschrift<br />

darstellen. Zusätzlich kann Braille mit<br />

speziellen Druckern auch auf Papier gestanzt<br />

werden.<br />

▸ Sprachausgabe: Die Texte bzw. textlichen Beschreibungen<br />

des Bildschirminhaltes werden über<br />

Lautsprecher ausgegeben. Die auditiven Inhalte<br />

können dabei aufgenommen sein oder mittels<br />

Sprach-Syntheziser erzeugt werden.<br />

Hörbehinderung<br />

Menschen mit Hörbehinderung und gehörlose Menschen<br />

können weitestgehend ungehindert am Computer<br />

arbeiten, da sie Informationen visuell vom Bildschirm<br />

ablesen und gegebenenfalls Lautstärke und<br />

Töne an ihre Bedürfnisse anpassen können. Das Verstehen<br />

und Verarbeiten von komplexen sprachlichen<br />

Zusammenhängen stellt ein größeres<br />

Problem dar und sollte durch ikonische Darstellung,<br />

das heißt mit Bildern, Videos oder Animationen und<br />

guter Lesbarkeit und Strukturierung von Texten, unterstützt<br />

werden. Gebärdensprache ist eine eigenständige<br />

Sprache, die von gehörlosen Menschen verwendet<br />

wird. Übersetzungen in Gebärdensprache<br />

sind teilweise notwendig, aber ressourcenintensiv,<br />

zum Beispiel die Übersetzung und die Aufbereitung<br />

von Lernunterlagen als Gebärdensprachvideos.<br />

?<br />

Für gehörlose Menschen ist es nicht immer einfach,<br />

Texte zu verstehen, die sich an die Sprachkonven-­‐<br />

Conen der Hörenden anlehnen. Versuchen Sie umge-­‐<br />

kehrt, einige Begriffe der deutschen Gebärdensprache<br />

zu erlernen und einen einfachen Satz zu bilden.<br />

Mobilitätsbehinderungen<br />

Bei Menschen mit Mobilitätsbehinderungen können<br />

Bewegung und Feinmotorik beeinträchtigt sein. Spezielle,<br />

leicht handzuhabende Eingabegeräte (zum Beispiel<br />

Tastaturen, Schalter, Bedienelemente) ermöglichen<br />

die Bedienung eines Computers. Für eine barrierefreie<br />

Gestaltung ist darauf zu achten, dass die<br />

Steuerung über Spracheingabe erfolgen kann, die Geschwindigkeit<br />

(zum Beispiel bei erforderlichen Tastatureingaben)<br />

individuell einstellbar ist und Tastenkombinationen<br />

auch hintereinander eingegeben<br />

werden können.<br />

Wahrnehmungs-­‐ und Lernbehinderungen<br />

Menschen mit Wahrnehmungs- und Lernbehinderungen<br />

(zum Beispiel Dyslexie, Störungen des Kurzzeitgedächtnisses)<br />

können durch eine einheitliche<br />

Strukturierung der (Lern-)Inhalte und der Navigation,<br />

gleichem Layout und Design sowie vor allem<br />

eine den Nutzern und den Nutzerinnen angepasste<br />

Textwahl – „leichte Sprache“ - unterstützt werden.<br />

Einfachere Sprache wird für Menschen mit geringen<br />

sprachlichen Fähigkeiten verwendet, ist jedoch auch<br />

eine Forderung für die verständliche Darstellung wissenschaftlicher<br />

Inhalte (Freyhoff et al., 1998). Das<br />

Angebot von gleichen, aber unterschiedlich aufbereiteten<br />

Informationen, zum Beispiel als Text und als<br />

Sprachaufzeichnung, kann für Menschen mit Wahrnehmungs-<br />

und Lernbehinderungen hilfreich sein,<br />

um das Material besser zu verstehen.<br />

?<br />

Für ein verCeHes Verständnis der Internetnutzung<br />

durch Menschen mit Behinderung lesen Sie biEe<br />

„How People with DisabiliCes Use the Web“:<br />

hEp://www.w3.org/WAI/intro/people-­‐use-­‐web<br />

[2011-­‐01-­‐21]<br />

4. Gesetzliche Rahmenbedingungen und Richtlinien<br />

oder Standards zur Umsetzung<br />

Von wesentlicher Bedeutung für die Regelungen zur<br />

Barrierefreiheit in den europäischen Mitgliedsstaaten<br />

ist das Gemeinschaftsrecht der Europäischen Union.<br />

Besondere Bedeutung kommt dabei den Antidiskrim<br />

i n i e r u n g s r i ch t l i n i e n 2 0 0 0 / 4 3 / E G u n d<br />

2000/78/EG zu. Diese wirken prägend auf die nationale<br />

Gesetzgebung ein. In den DACH-Staaten<br />

(also Deutschland, Österreich, Schweiz) wird die<br />

gleichberechtigte Teilhabe von Menschen mit Behinderung<br />

in der Gesellschaft, darunter fällt auch die<br />

Anteilnahme an Bildungsangeboten, durch verschiedene<br />

Gesetzgebungen geregelt: In Deutschland<br />

durch das Behindertengleichstellungsgesetz (zum Bei-


spiel § 11 BGG) und in der Schweiz durch das Bundesgesetz<br />

über die Beseitigung von Benachteiligungen<br />

von Menschen mit Behinderungen (BehiG).<br />

In Österreich fällt „barrierefreies E-Learning“ unter<br />

zwei Gesetzestexte: das Bundes-Behindertengleichstellungsgesetz<br />

(BGStG) sowie das E-Government-<br />

Gesetz (E-GovG). Das BGStG definiert in § 6 Abs. 5<br />

BGStG unter anderem, wann von Diskriminierung<br />

gesprochen wird, und welche Bereiche in Österreich<br />

auch vom Gesetz wegen barrierefrei zugänglich sein<br />

müssen. In §5 BGStG wird noch speziell auf die<br />

kommunikationstechnischen Barrieren eingegangen.<br />

Für Gröblinger (2007) hat die gesetzliche Verankerung<br />

eines Diskriminierungsverbots, das explizit<br />

sich an die Öffentlichkeit richtende Angebote behandelt,<br />

die Konsequenz, dass insbesondere Vorlesungen<br />

(gegebenenfalls mit E-Learning-Anteilen) an<br />

Hochschulen berücksichtigt werden müssen, da diese<br />

ebenfalls für die Öffentlichkeit zugänglich sind. Im<br />

Jahr 2002 unternahm Deutschland einen weitaus<br />

massiveren Schritt in der Gesetzgebung als Österreich,<br />

indem die Barrierefreie Informationstechnik-<br />

Verordnung (kurz BITV) als Ergänzung des bestehenden<br />

Behindertengleichstellungsgesetzes herausgegeben<br />

wurde. In Österreich gibt es Empfehlungen<br />

für die Anwendung der WCAG (2.0) auf Stufe AA<br />

(das heißt alle für die Konformitätsstufe AA notwendigen<br />

Erfolgskriterien müssen erfüllt sein). Tesar et<br />

al. (2009) übertragen die Anforderungen auf webbasierte<br />

Lernumgebungen im Bildungsbereich und<br />

fordern auf der Basis der gesetzlichen Regelungen<br />

die barrierefreie Gestaltung von interaktiven und<br />

webbasierten Lernangeboten.<br />

Abbildung 2: Zugangsrichtlinien und technische Spezifikationen (mit Änderungen von<br />

http://www.w3.org/WAI/intro/components.php)<br />

Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 5<br />

5. Grundlegende Anforderungen – Zugangsrichtlinien<br />

Die Barrierefreiheit von Lehr- und Lerntechnologien<br />

wird von vier Aspekten wesentlich beeinflusst (Abbildung<br />

2):<br />

▸ Die Inhalte, einerseits zum Beispiel in Form von<br />

Webseiten, Textdokumenten, PDF-Dateien, Audio<br />

und Videodateien, andererseits in Form der richtig<br />

verwendeten Auszeichnungssprachen und validen<br />

Codes, zum Beispiel für Struktur und Darstellung,<br />

müssen zugänglich sein.<br />

▸ Die verwendeten Technologien müssen zugänglich<br />

sein, zum Beispiel barrierefreie Webbrowser,<br />

synchrone Kommunikationswerkzeuge<br />

und anderen Benutzeragenten.<br />

▸ Gerade im Bereich E-Learning spielen Autorenwerkzeuge<br />

zur Erstellung von Lernmaterialien<br />

(zum Beispiel auch die Administrationsoberflächen<br />

von Lernmanagementsystemen) eine<br />

wichtige Rolle bei der Barrierefreiheit. Auch sie<br />

müssen für die Benutzer/innen zugänglich sein<br />

bzw. die Erstellung von barrierefreien Inhalten unterstützen.<br />

▸ Die korrekte Verwendung der vom World Wide<br />

Web Consortium (W3C) entwickelten technischen<br />

Spezifikationen wie zum Beispiel HTML,<br />

XHTML, XML, SMIL, SVG, CSS und RDF. Die<br />

Vermeidung proprietärer Technologien wird in der<br />

Tendenz die Zugänglichkeit von Seiten verbessern.


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

!<br />

Für eine verCefende Übersicht über die einzelnen<br />

Komponenten und wie diese in der Webentwicklung<br />

und -­‐interakCon zusammen arbeiten, lesen Sie:<br />

▸ EssenCal Components of Web Accessibility (Eng-­‐<br />

lisch):<br />

URL: hEp://www.w3.org/WAI/intro/components<br />

[2011-­‐01-­‐21]<br />

▸ User Agent Accessibility Guidelines (UAAG)<br />

Overview (Englisch):<br />

URL: hEp://www.w3.org/WAI/intro/uaag.php<br />

[2011-­‐01-­‐21]<br />

▸ Authoring Tool Accessibility Guidelines (ATAG)<br />

Overview (Englisch):<br />

URL: hEp://www.w3.org/WAI/intro/atag.php<br />

[2011-­‐01-­‐21]<br />

Die grundlegenden Anforderungen an Barrierefreiheit<br />

von webbasierten Dokumenten werden in der<br />

Web Content Accessibility Guidelines (WCAG) 2.0<br />

festgelegt. Die WCAG werden von der Web Accessibility<br />

Initative (WAI) des World Wide Web Consortiums<br />

(W3C) herausgegeben und stellen eine der<br />

wichtigsten Richtlinien zur barrierefreien Gestaltung<br />

von webbasierten Umgebungen dar. Sie definieren,<br />

wie Webinhalte für alle Menschen – nicht nur für<br />

Menschen mit Behinderungen (einschließlich visueller,<br />

auditiver, motorischer, sprachlicher, kognitiver,<br />

Sprach-, Lern- und neurologischer Behinderungen)<br />

und ältere Menschen – barrierefreier gestalten<br />

werden können. Die Zugangsrichtlinien der WCAG<br />

2.0 orientieren sich an vier grundlegenden Prinzipien,<br />

die im Verständnis der WAI die Grundlage<br />

der der Barrierefreiheit im Web darstellen: Wahrnehmbarkeit,<br />

Bedienbarkeit, Verständlichkeit und Robustheit.<br />

Mit der Formulierung der WCAG 2.0 unter<br />

diesen Gesichtspunkten wird angestrebt, die Prinzipien<br />

der Barrierefreiheit unabhängig von heutigen<br />

und zukünftigen Techniken zu formulieren (W3C,<br />

2008). Eine Übersetzung finden Sie auf der nächsten<br />

Seite in der Textbox „In der Praxis“.<br />

Wird eine oder mehrere der vier Prinzipien verletzt,<br />

wird die Zugänglichkeit der Inhalte für Menschen<br />

mit Behinderung ganz oder teilweise unmöglich<br />

gemacht. Unter jedem der Prinzipien werden<br />

Richtlinien und Erfolgsfaktoren für die Anwendung<br />

definiert. Es gibt eine große Zahl von allgemeinen<br />

Usability-Richtlinien (siehe auch Kapitel #usability),<br />

in den WCAG 2.0 werden nur jene angeführt, die<br />

sich speziell auf Problembereiche für Menschen mit<br />

Behinderung beziehen (W3C, 2008).<br />

6. Zentrale Problema/ken hinsichtlich webgestützten<br />

Lehren und Lernens<br />

Konzep/on<br />

Im konkreten Design von webbasiertem Lernen sind<br />

nach Arrigo (2005) technologische und methodologische<br />

Aspekte zur Sicherstellung der vollständigen<br />

Zugänglichkeit von Online-Lernumgebungen und<br />

-materialien zu berücksichtigen.<br />

I n methodischer Hinsicht steht an erster Stelle<br />

die Identifizierung der Ansprüche an Barrierefreiheit<br />

der Nutzergruppe und in einem zweiten Schritt die<br />

Identifizierung der Eigenschaften der Lernobjekte<br />

hinsichtlich Barrierefreiheit. Letztere sollten in standardisierten<br />

Beschreibungen formalisiert werden, um<br />

ein Matching der Lerninhalte mit den bevorzugten<br />

Einstellungen der Lernenden zu ermöglichen.<br />

Jeschke et al. (2008) empfehlen mittels semantischer<br />

Enkodierung die Auszeichnung nicht nur von Inhalten,<br />

sondern auch aller inhaltsverbundenen<br />

Aspekte, wie etwa der Navigation. Ziel ist es, präsentationsorientierte<br />

Informationen für die von den Benutzer/innen<br />

verwendeten Technologien zur Verfügung<br />

zu stellen, um die Inhalte passend darzustellen.<br />

Zur Umsetzung wird von ihnen die modellgetriebene<br />

Entwicklung von barrierefreien Lernangeboten,<br />

zum Beispiel auf der Basis der Unifying Modeling<br />

Language 2 (UML 2), vorgeschlagen.<br />

In technischer Hinsicht identifizieren Karampiperis<br />

und Sampson (2005) zwei grundsätzliche<br />

Aspekte, die es bei der Umsetzung von webbasiertem<br />

Lernen zu berücksichtigen gilt: Einerseits die Entwicklung<br />

von zugänglichen Lerninhalten und andererseits<br />

die Entwicklung von zugänglichen Schnittstellen<br />

und Interfaces, um die Inhalte aufrufen zu<br />

können. Letzteres beinhaltet auch das Design des<br />

Lernmanagementsystems und seine Zugänglichkeit.<br />

Technologisch gesehen sind Webseiten die am häufigsten<br />

genutzte Möglichkeit, Informationen und<br />

webbasierte Lernmaterialien im Internet zur Verfügung<br />

zu stellen. Trotz WAI-Richtlinien, Design-for-<br />

All, Universal-Design-Prinzipien, ISO-Standards und<br />

Verordnungen beziehungsweise Richtlinien sind viele<br />

Webseiten aber noch immer unzugänglich für Menschen<br />

mit Behinderung (Arrigo, 2005).<br />

!<br />

Das Projekt VIP-­‐Learn hat Leitlinien zur Begutachtung<br />

von Lernmanagement SoHware erstellt, die für eine<br />

erste Begutachtung von Lernplaqormen herange-­‐<br />

zogen werden können:<br />

URL: hEp://www.e-­‐learn-­‐<br />

vip.org/files/products/c4ea_gl_lms_de.zip [2011-­‐01-­‐<br />

21]


Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 7<br />

In der Praxis : Prinzipien und Leitlinien der Web Content Accessibility Guidelines 2.0<br />

Vorbemerkung: Übersetzung der folgenden Prinzipien und<br />

Leitlinien der Web Content Accessibility Guidelines 2.0 von:<br />

URL: hEp://www.barrierefreies-­‐webdesign.de/wcag2/in-­‐<br />

dex.html [2011-­‐01-­‐21]<br />

Prinzip 1: Wahrnehmbarkeit<br />

Mit dem Prinzip Wahrnehmbarkeit soll sichergestellt werden,<br />

dass alle FunkConen und InformaConen so präsenCert<br />

werden, dass sie von jeder Nutzerin und jedem Nutzer wahr-­‐<br />

genommen werden können.<br />

Konkret bedeutet das: Stellen Sie TextalternaCven für alle<br />

Nicht-­‐Text-­‐Inhalte zur Verfügung, so dass diese in andere<br />

vom Benutzer benöCgte Formen geändert werden können,<br />

wie zum Beispiel GroßschriH, Braille, Symbole oder einfa-­‐<br />

chere Sprache. Stellen Sie AlternaCven für zeitbasierte<br />

Medien zur Verfügung. Erstellen Sie Inhalte, die auf ver-­‐<br />

schiedene Arten dargestellt werden können (zum Beispiel<br />

anderes Layout), ohne dass InformaConen oder Struktur ver-­‐<br />

loren gehen.<br />

PrakCsche Anwendungsbeispiele: Keine rein graphischen Na-­‐<br />

vigaConselemente verwenden, schriHliche AlternaCve zu<br />

allen akusCschen Geräuschen anbieten, skalierbare SchriH-­‐<br />

größen, Möglichkeit der individuellen Farbeinstellungen, aus-­‐<br />

reichender Kontrast, zum Beispiel von Text und<br />

Hintergrundfarbe keine InformaCon alleine durch Farb-­‐<br />

wechsel transporCeren.<br />

Prinzip 2: Bedienbarkeit<br />

Zur Sicherstellung der Bedienbarkeit müssen die InterakC-­‐<br />

onselemente der Anwendung von jeder Nutzerin und jedem<br />

Nutzer bedienbar sein.<br />

Richtlinien: Sorgen Sie dafür, dass alle FunkConalitäten per<br />

Tastatur zugänglich sind. Geben Sie den Benutzern ausrei-­‐<br />

chend Zeit, Inhalte zu lesen und zu benutzen. Gestalten Sie<br />

Inhalte nicht auf Arten, von denen bekannt ist, dass sie zu<br />

Anfällen führen. Stellen Sie MiEel zur Verfügung, um Be-­‐<br />

nutzer dabei zu unterstützen zu navigieren, Inhalte zu finden<br />

und zu besCmmen, wo sie sich befinden.<br />

PrakCsche Anwendungsbeispiele: Für die Verwendung sollen<br />

keine speziellen Eingabegeräte benöCgt werden. Alle Funk-­‐<br />

Conen sind über die Tastatur (ohne Maus) steuerbar. Es gibt<br />

keine Zeitbeschränkungen. Die NavigaConsbereiche sind aus-­‐<br />

reichend groß bzw. weit genug auseinander posiConiert. Zur<br />

Bedienung sollten keine bewegten Elemente (zum Beispiel<br />

Flash-­‐AnimaConen) verwendet werden.<br />

Prinzip 3: Verständlichkeit<br />

Das Prinzip Verständlichkeit besagt, dass in einer Website die<br />

Inhalte so einfach wie möglich angeboten werden sollen. Zu-­‐<br />

sätzlich sollen diese in einer intuiCv erfassbaren Struktur, in<br />

der die OrienCerung leicht fällt, eingebunden werden.<br />

Richtlinien: Machen Sie Inhalte lesbar und verständlich.<br />

Sorgen Sie dafür, dass Webseiten vorhersehbar aussehen<br />

und funkConieren. Helfen Sie den Benutzern dabei, Fehler zu<br />

vermeiden und zu korrigieren.<br />

PrakCsche Anwendungsbeispiele: Komplexität der Inhalte an<br />

den Nutzer/innen ausrichten – möglichst „einfache“ Sprache<br />

verwenden. Visuelles Rauschen, zum Beispiel durch Farben,<br />

Ausrufezeichen, besCmmten SchriHtypen, vermeiden. Auf<br />

die wesentlichen FunkConen beschränken sowie auf umfang-­‐<br />

reiche Verwendung von HintergrundinformaConen und Zu-­‐<br />

satzfunkConen verzichten. Auf Fachausdrücke, Jargon,<br />

Anglizismen verzichten. Auf übersichtlichen Satzbau achten.<br />

IntuiCve, logische Strukturierung der Inhalte oder der<br />

(Lern-­‐)Umgebung vorsehen. SuchfunkCon und Verlinkungen<br />

sinnvoll einsetzen. Symbole und Grafiken unterstützend ein-­‐<br />

setzen. Gegebenenfalls Gebärdensprachvideos anbieten.<br />

Prinzip 4: Robustheit<br />

Inhalte müssen robust genug sein, damit sie zuverlässig von<br />

einer großen Auswahl an Benutzeragenten einschließlich as-­‐<br />

sisCerender Techniken interpreCert werden können.<br />

Richtlinie: Maximieren Sie die KompaCbilität mit aktuellen<br />

und zukünHigen Benutzeragenten, einschließlich assisCe-­‐<br />

render Techniken.<br />

PrakCsche Anwendungsbeispiele: Interoperabilität und Kom-­‐<br />

paCbilität zu gängigen Produkten (zum Beispiel Vorlese-­‐ oder<br />

VergrößerungssoHware berücksichCgen. In der Planungs-­‐<br />

phase, zum Beispiel von Lernszenarien, Online-­‐Seminaren<br />

auf möglichen Zugang für assisCve Technologien achten. Auf<br />

Weiterentwicklungen von Technologien achten, zum Beispiel<br />

hat sich die Zugänglichkeit von einigen Lernmanagementsys-­‐<br />

temen in den letzten Jahren stark verbessert .


8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

LernplaHormen und Lernumgebungen<br />

Entwickler/innen von Lernplattformen und Lernumgebungen<br />

haben in vielen Fällen in den letzten Jahren<br />

große Anstrengungen hinsichtlich der Barrierefreiheit<br />

der von ihnen betreuten Produkte unternommen.<br />

Spezialfälle bei bes/mmten Dateiformaten/Mul/media<br />

Um die Vorteile von multimedialen Lernelementen<br />

auch für Menschen mit Behinderung zugänglich<br />

zu machen, sind Zugänglichkeitsüberlegungen<br />

schon beim Design und der Implementierung<br />

von multimedialen Inhalten zu berücksichtigen.<br />

CANnect, ein kanadisches Konsortium von Schulen<br />

und Philanthropen, identifiziert vier Aspekte, welche<br />

die Zugänglichkeit von multimedialen Inhalten negativ<br />

beeinflussen: unzugängliche Formate, fehlende<br />

Transkription von Audioinhalten, fehlende synchronisierte<br />

Untertitelung für Videodateien und fehlende<br />

Audiobeschreibung von Videodateien (CANnect,<br />

2010). Darüber hinaus muss die Steuerung der<br />

Audio- und Videowiedergabe mittels Tastatur<br />

möglich und der Zugriff sowie die Verständlichkeit<br />

für Personen, die einen Screenreader verwenden, gegeben<br />

sein. Als Alternative zu kommerziellen Formaten<br />

bietet sich die Synchronized Multimedia Integration<br />

Language (SMIL) an. SMIL ist ein auf XML<br />

basierender, vom W3C entwickelter Standard für eine<br />

Auszeichnungssprache für zeitsynchronisierte, multimediale<br />

Inhalte und ermöglicht die Einbindung und<br />

Steuerung von Multimedia-Elementen wie Audio,<br />

Video, Text und Grafik in Webseiten.<br />

CANnect nimmt einen klaren Standpunkt zu den<br />

folgenden Technologien ein: Flash, Silverlight und<br />

JavaFX sind Plattformen für die Entwicklung von<br />

Rich Internet Applications (RIAs) und beim derzeitigen<br />

Stand keine geeigneten Instrumente, um Textinhalte<br />

webbasiert anzubieten. Keine dieser Plattformen<br />

verfügt über die Möglichkeiten von HTML,<br />

Inhalte zu strukturieren und barrierefrei darzustellen<br />

(URL: http://projectone.cannect.org/advice/nonhtml-dynamic.php<br />

[2011-01-21]).<br />

Die Konzeption des Portable Document<br />

Format (PDF), das Erscheinungsbild eines Dokuments<br />

auf allen Plattformen gleich aussehen zu<br />

lassen, widerspricht einem wichtigen Element von<br />

Barrierefreiheit: Die Darstellung von Inhalten sollte<br />

von Nutzer/innen an ihre individuellen Bedürfnisse<br />

angepasst werden können. Es empfiehlt sich vor der<br />

Erstellung eines PDF-Dokuments zu überlegen, ob<br />

nicht ein anderes Format, beziehungsweise bei Verwendung<br />

im Internet XML, die bessere Alternative<br />

ist. Falls das PDF-Format verwendet werden muss,<br />

sollte „tagged PDF“ verwendet werden (erst dadurch<br />

wird das Dokument besser zugänglich), beziehungsweise<br />

eine Nachbesserung mit dem Softwareprogramm<br />

Adobe Acrobat vorgenommen werden. Gute<br />

Ergebnisse hinsichtlich der Zugänglichkeit von PDF-<br />

Dokumenten lassen sich beispielsweise bei der Gestaltung<br />

des Dokuments in OpenOffice mit korrekter<br />

Strukturauszeichnung und dem PDF-Export erzielen.<br />

Die Verwendung von Lesezeichen fördert darüber<br />

hinaus die Navigation mit der Tastatur.<br />

!<br />

PraxisCpp: Mit dem PDF Accessibility Checker (PAC)<br />

können Sie PDF-­‐Dateien rasch bezüglich Barriere-­‐<br />

freiheit testen:<br />

URL: hEp://www.access-­‐for-­‐all.ch/ch/pdf-­‐<br />

werkstaE/pac-­‐pdf-­‐accessibility-­‐checker.html [2011-­‐01-­‐<br />

21]<br />

7. Werkzeuge und Methoden zur Überprüfung und Op-­‐<br />

/mierung<br />

Barrieren im Bereich Informationstechnik lassen sich<br />

durch vielfältige Maßnahmen aufspüren und beseitigen.<br />

Bitte beachten Sie, dass die barrierefreie Umsetzung<br />

von webbasiertem Lehren und Lernen Spezialwissen<br />

benötigt, was eventuell die Einbeziehung<br />

von Expertinnen und Experten, zum Beispiel in der<br />

Anpassung von Learning Management Systemen, benötigt.<br />

Ausprobieren<br />

Eine grundlegende Methode die Zugänglichkeit zu<br />

testen, ist das Ausprobieren der Website mit verschiedenen<br />

Browsern, Betriebssystemen, Aus- und Eingabegeräten<br />

sowie Übertragungsraten unter Einbeziehung<br />

möglichst unterschiedlicher Nutzer/innen, in<br />

unterschiedlichen Situationen und mit unterschiedlichen<br />

Voraussetzungen. Als sehr effektiv hat sich die<br />

Verwendung eines Text-Browsers (zum Beispiel Lynx<br />

URL: http://lynx.browser.org/[2011-01-21]) oder die<br />

Verwendung des WebFormators (URL: http://www.webformator.de<br />

[2011-01-21], stellt den Inhalt einer<br />

Internetseite in einem separaten Textfenster dar) erwiesen.<br />

Für Firefox gibt es die Erweiterung Fangs,<br />

die einen Screen Reader emuliert (via URL:<br />

http://addons.mozilla.org/ [2011-01-21]).<br />

Kriterienkataloge<br />

Die Biene-Kriterien (Barrierefreies Internet Eröffnet<br />

Neue Einsichten) stellen einen laufend aktualisierten<br />

und übersichtlich dargestellten Katalog von<br />

Zugänglichkeitskriterien dar, der auch für technisch<br />

weniger Versierte leicht nachvollziehbar formuliert ist<br />

(Biene Wettbewerb, 2009). Die WCAG 2.0 (W3C,<br />

2008) stehen im Zentrum zahlreicher Richtlinien und


Spezifikationen. Sie decken einen großen Bereich von<br />

Empfehlungen ab, um Webinhalte barrierefreier zu<br />

machen. Von Universitäten und anderen Einrichtungen<br />

wurden Checklisten zur barrierefreien Gestaltung<br />

von Webanwendungen und Webauftritten erstellt.<br />

?<br />

Hier zwei Beispiele:<br />

▸ Universität Erlangen<br />

URL: hEp://www.vorlagen.uni-­‐erlangen.de/regeln/<br />

checkliste.shtml [2011-­‐01-­‐21]<br />

▸ Universität Innsbruck<br />

URL:hEp://www.uibk.ac.at/elearning/barriere-­‐<br />

freiheit/ [2011-­‐01-­‐21].<br />

Automa/sierte Prüfverfahren<br />

Automatisierte Prüfverfahren sind eine nützliche<br />

Hilfe für die Evaluierung bestehender und die Erstellung<br />

neuer Websites. Mit ihnen lassen sich<br />

Schnelltests in kurzen Zeitabständen wiederholen,<br />

um auch die laufenden Aktualisierungen oder letzten<br />

Versionen auf formale Richtigkeit zu überprüfen.<br />

Automatische Prüfprogramme können nur unterstützende<br />

Werkzeuge sein, weil durch sie lediglich das<br />

Vorhandensein zum Beispiel von Alternativtexten,<br />

Struktur- und Metadaten im Quelltext geprüft wird,<br />

nicht aber deren (Un-) Sinn oder Qualität überprüft<br />

wird (Zapp, 2004).<br />

Hier einige Beispiele für Browser-Erweiterungen<br />

und Online-Werkzeuge, welche die Einhaltung von<br />

Webstandards und Accessibility-Kriterien überprüfen<br />

und das Verhalten einer Webseite unter verschiedenen<br />

Anzeige- und Rezeptionsbedingungen simulieren:<br />

▸ W3C-MarkUp-Validator:<br />

URL: http://validator.w3.org/ [2011-01-21] überprüft<br />

den Code von HTML, XHTML, SVG,<br />

MATHML, SMIL, etc. Dokumenten<br />

▸ W3C-CSS-Validator:<br />

URL: http://jigsaw.w3.org/css-validator/ [2011-<br />

01-21] überprüft den CSS-Code<br />

▸ HTML-Validator für Firefox:<br />

URL: https://addons.mozilla.org/de/firefox-<br />

/addon/249/ [2011-01-21]<br />

Das Firefox-Addon fügt der Quellcode-Anzeige<br />

des Browsers den Tidy-Validator von W3C hinzu.<br />

Sehr nützlich und informativ: In einem Icon in der<br />

Statuszeile des Browsers werden fehlerfreie Seiten<br />

mit einem grünen Haken gekennzeichnet, bzw. mit<br />

einem Warnhinweis oder einem roten Symbol bei<br />

Fehlern.<br />

Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 9<br />

▸ Total Validator – http://www.totalvalidator.com<br />

HTML, Zugänglichkeit (WCAG 1.0 und 2.0;<br />

Section 508), Link-Checker, Screenshots mit sehr<br />

vielen Browsern<br />

Good-­‐/Best-­‐Prac/ce-­‐Beispiele<br />

Vorbilder findet man zum Beispiel unter den Preisträgern<br />

des BIENE-Wettbewerbs der Aktion<br />

Mensch. Aufschlussreich ist auch ein Blick in den<br />

Quelltext der Webseiten von Blindenbibliotheken.<br />

Professionelle Exper/se und Beratung<br />

?<br />

Die Komplexität der Umsetzung barrierefreier Informationstechnik<br />

erfordert in vielen Fällen professionelle<br />

Beratung begleitend zur Projektplanung und zur<br />

Qualitätskontrolle. Universitäten, Verbände und Initiativen<br />

bieten darüber hinaus Lehrgänge und Workshops<br />

zu einzelnen Aspekten barrierefreier Informationstechnik<br />

an (siehe Kapitel #telweiterbildung).<br />

8. Ausblick<br />

Installieren Sie den Textbrowser Lynx (URL:<br />

hEp://lynx.browser.org/ [2011-­‐01-­‐21]) und versuchen<br />

Sie in einer beliebigen Online-­‐Zeitung oder einer Lern-­‐<br />

plaqorm zu navigieren.<br />

Jede Seite im Intra- oder Internet, jeder im Netz publizierte<br />

Text, jeder Beitrag oder Kommentar in einer<br />

Mailingliste, einem Weblog oder öffentlichen Chat,<br />

jedes auf einschlägige Plattformen hochgeladene<br />

Lernobjekt, Foto, Video oder Podcast, jeder Wiki-<br />

Eintrag und jeder Microlearning-Inhalt ist eine elektronische<br />

Publikation und sollte so barrierearm wie<br />

möglich gestaltet bzw. präsentiert werden.<br />

Durch die zunehmend interaktive Internetnutzung<br />

(Stichwort „Web 2.0“) verlagert sich die Verantwortung<br />

für die Zugänglichkeit der so erstellten<br />

(Lern-)Inhalte zunehmend von Webdesigner/innen<br />

und Content-Entwickler/innen auf breite, im Bereich<br />

Webstandards unkundige Nutzer/innenkreise und<br />

auf die Hersteller/innen von Autorenwerkzeugen<br />

und Anwendungsprogrammen.<br />

Der Umsetzung des W3C-Standards für Accessible<br />

Rich Internet Applications (WAI-ARIA) und<br />

der Anwendung der Authoring Tool Acessibility Guidelines<br />

(ATAG) kommt so noch stärkere Bedeutung<br />

zu. Ein barrierearmer Webauftritt unter Verwendung<br />

der W3C-Standards ist zeitgemäß und zukunftssicher<br />

bezüglich der eingesetzten Technologien, da die<br />

W3C-Empfehlungen auch zukünftig Kompatibilität<br />

mit neuen Technologien und Weiterentwicklungen<br />

gewährleisten. Der höhere Aufwand, der sich zunächst<br />

ergeben kann, wird durch die Verbesserung


10 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

der Nutzbarkeit ausgeglichen und ermöglicht einigen<br />

Menschen überhaupt erst die Nutzung der Anwendung<br />

(Krüger, 2007).<br />

!<br />

!<br />

Zur VerCefung – Literaturempfehlungen<br />

▸ Hellbusch, J.E. & Mayer (2006). Barrierefreies<br />

Webdesign. Webdesign für Menschen mit körper-­‐<br />

lichen Einschränkungen. Osnabrück: Know-­‐Ware.<br />

▸ Radtke, A. & Charlier, M. (2006). Barrierefreies<br />

Webdesign. AErakCve Websites zugänglich ge-­‐<br />

stalten. Addison-­‐Wesley, München.<br />

Webseitenempfehlungen<br />

▸ Einfach für Alle – AkCon Mensch IniCaCve für ein<br />

barrierefreies Web<br />

URL: hEp://www.einfach-­‐fuer-­‐alle.de [2011-­‐01-­‐21]<br />

▸ Web ohne Barrieren -­‐ gemäß Paragraph 11 des<br />

Bundesbehindertengleichstellungsgesetzes Infor-­‐<br />

maConsportal des "AkConsbündnisses für barrie-­‐<br />

refreie InformaConstechnik -­‐ AbI".<br />

URL: hEp://www.wob11.de [2011-­‐01-­‐21]<br />

▸ Barrierefrei informieren und kommunizieren – BIK<br />

online GemeinschaHsprojekt des Deutschen<br />

Blinden-­‐ und Sehbehindertenverbands e.V. (DBSV),<br />

des Deutschen Vereins für Blinde und Sehbehin-­‐<br />

derte in Studium und Beruf e.V. (DVBS) und der<br />

DIAS GmbH<br />

URL: hEp://www.bik-­‐online.info [2011-­‐01-­‐21]<br />

Literatur und Quellen<br />

▸ Antidiskriminierungsrichtlinie 2000/43/EG (2000). URL:<br />

http://eurlex.europa.eu/LexUriServ/LexUriServ.do?<br />

uri=CELEX:32000L0043:DE:NOT [2010-12-01].<br />

▸ Antidiskriminierungsrichtlinie 2000/78/EG (2000). URL:<br />

http://eurlex.europa.eu/LexUriServ/LexUriServ.do?<br />

uri=CELEX:32000L0078:DE:HTML [2010-12-01]<br />

▸ Arrigo, M. (2005). E-Learning Accessibility for blind students.<br />

In: Proceeding of the 3rd International Conference on ICT’s in<br />

Education- ICTE2005 Cáceres, Extremadura (Spanien). URL:<br />

http://www.formatex.org/micte2005/143.pdf [2010-07-05].<br />

▸ Biene Wettbewerb (2009). Kriterien der BIENE 2009. URL:<br />

http://www.einfach-fuer-alle.de/biene-2009/kriterien/ [2010-<br />

10-12].<br />

▸ Bundesministerium für Arbeit, Soziales Und Konsumentenschutz<br />

(2009). Behindertenbericht 2008. Bericht der Bundesregierung<br />

über die Lage von Menschen mit Behinderungen in<br />

Österreich 2008. URL: http://www.bmsk.gv.at/cms/site/attachments/9/5/7/CH0092/CMS1237382655079/behindertenbericht_09-03-17.pdf<br />

[2010-06-29].<br />

▸ CANnect (2010). Accessible Video and Audio. URL:<br />

http://projectone.cannect.org/advice/video-audio.php [2010-<br />

12-12].<br />

▸ European Commission (2009). Study on Web accessibility in<br />

European countries: level of compliance with latest international<br />

accessibility specifications, notably WCAG 2.0, and approaches<br />

or plans to implement those specifications. URL:<br />

http://ec.europa.eu/information_society/activities/einclusion<br />

/library/studies/docs/access_comply_main.pdf [2010-06-29].<br />

▸ Freyhoff, G.; Hess, G.; Kerr, L.; Menzel, E.; Tronback, B. &<br />

Van Der Veken, K. (1998). Make it Simple. European Guidelines<br />

for the Production of Easy-to-Read Information for<br />

People with Learning Disability for authors, editors, information<br />

providers, translators and other interested persons.<br />

URL: http://www.inclusion-europe.org/uploads/doc/99.pdf<br />

[2010-06-29].<br />

▸ Grill, I. (2005). Inklusive Bildung. Erste Schritte zu einer gemeinsamen<br />

Erwachsenenbildung für behinderte und nichtbehinderte<br />

Menschen. URL:<br />

http://bidok.uibk.ac.at/library/handbuch-inklusiv.html<br />

[27.6.2010].<br />

▸ Gröblinger, O. (2007). Barrierefreies E-Learning?!: Impulse zur<br />

Integration Web Accessibility Standards im Hochschul-E-<br />

Learning-Kontext. In: Forum Neue Medien in der Lehre<br />

Austria (Hrsg.), fnma-Austria Strategie 2010, 15. fnm-austria<br />

Tagung, URL: http://www.fnmaustria.at/tagung/FileStorage/view/tagungsbaende<br />

%5C/fnma-tagungband_final_print.pdf [2010-07-13].<br />

▸ Jeschke, S.; Pfeiffer, O. & Vieritz, H. (2008). Accessibility and<br />

Model-Based Web Application Development for eLearning-<br />

Environments. In: Proceedings of the International Conference<br />

on Technology Communication and Education, 218-222.<br />

▸ Karampiperis, P. & Sampson, D. (2005). Designing learning<br />

systems to provide accessible service. In: Proceedings of the<br />

2005 International Cross-Disciplinary Workshop on Web Accessibility<br />

(W4A), 72-80.<br />

▸ Krüger, M. (2007). Barrierefreie Gestaltung für Blinde im E-<br />

Lernen am Beispiel einer Flash-basierten Anwendung. Berlin:<br />

Fachhochschule für Technik und Wirtschaft Berlin, URL:<br />

http://www.f4.fhtw-berlin.de/~s0508091/diplom.pdf [2010-<br />

06-29].<br />

▸ Miesenberger, K. (2004). „equality = e-quality“ 'design for all'<br />

und 'accessibility' als Grundlage für eine demokratische, offene<br />

und inklusive Gesellschaft. In: E. Feyerer; W. Pammer (Hrsg.),<br />

Qual-I-tät und Integration, Beiträge zum 8. PraktikerInnenforum,<br />

Linz: Universitätsverlag Rudolf Trauner.<br />

▸ Miesenberger, K. (2005). Grundlagen der Assistierenden Technologien<br />

(AT). Handreichung zur Lehrveranstaltung „Assistierende<br />

Technologien“. Linz.<br />

▸ Miesenberger, K. (2008). „equality = e-quality“ - Wie Chancengleichheit<br />

(equality) in der Informationsgesellschaft von Barrierefreiheit<br />

als Qualitätsmerkmal neuer Technologien (e-Quality)<br />

abhängt. In: A. Bretterebner-Ziegerhofer (Hrsg.) Lebenswerte<br />

Lebenswelten, Graz.<br />

▸ Nevile, L.; Cooper, M.; Heath, A.; Rothberg, M. & Treviranus,<br />

J. (2005). Learner-centred Accessibility for Interoperable Web-


ased Educational Systems. Paper presented at the 14th International<br />

World Wide Web Conference in Chiba, Japan. URL:<br />

http://citeseerx.ist.psu.edu/viewdoc/download?<br />

doi=10.1.1.59.9932&rep=rep1&type=pdf [2010-06-29].<br />

▸ Tesar, M.; Feichtinger, R. & Kirchweger, A. (2009). Evaluierung<br />

von Open Source Lernmanagementsystemen in Bezug auf eine<br />

barrierefreie Benutzerschnittstelle. In: A. Schwill & N. Apostolopoulos<br />

(Hrsg.), Lernen im Digitalen Zeitalter. DeLFI 2009 -<br />

Die 7. E-Learning-Fachtagung Informatik. URL: http://www.waxmann.de/index.php?id=20&cHash=1&buchnr=2199<br />

[2010-07-13].)<br />

▸ W3C - World Wide Web Consortium (2008). Richtlinien für<br />

barrierefreie Webinhalte (WCAG) 2.0. URL:<br />

http://www.w3.org/Translations/WCAG20-de [2010-06-29].<br />

Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 11<br />

▸ W3C - World Wide Web Consortium (2008). Understanding<br />

WCAG 2.0. A guide to understanding and implementing Web<br />

Content Accessibility Guidelines 2.0. URL:<br />

http://www.w3.org/TR/UNDERSTANDING-<br />

WCAG20/Overview.html [2010-06-29].<br />

▸ Zapp, M. (2004). Automatische Tests auf Barrierefreiheit.<br />

URL: http://www.bitvtest.de/infothek/artikel/lesen/automatische-tests.html<br />

[2010-12-12].


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Mo%va%on<br />

Die Frage, woher in der Pädagogik und Didaktik<br />

konzeptionelle Innovation kommt und wie diese generiert<br />

wird, haben Akteurinnen und Akteure der E-<br />

Learning-Szene viel zu lange unbeantwortet gelassen.<br />

Wir haben in Bezug auf die Generierung konzeptioneller<br />

Innovation im Lernen und Lehren mit<br />

digitalen/vernetzten Medien lange keinen unserer<br />

Disziplin eigenen Zugang entwickelt und die Frage<br />

der Zugangsweisen anderen Disziplinen überlassen,<br />

obwohl die Didaktik, beziehungsweise das didaktische<br />

Design eine gestalterische Disziplin ist. Zum<br />

einen erscheint es als geeignete Strategie auf Innovationen<br />

aus anderen Disziplinen zu setzen (hier: der<br />

Entwicklung digitaler vernetzter Medien wie Wikis,<br />

Social Media) und zu hoffen, dass der Einsatz innovativer<br />

Technologien auch das Lernen und Lehren<br />

gewinnbringend verändert. Zum anderen haben wir<br />

uns in unserem Forschungszugang oft und gerne an<br />

deskriptive analytische Wissenschaften wie der Psychologie<br />

angepasst – dies zeigt sich sogar oftmals in<br />

der Lehre, wenn wir Vorlesungen zum Thema<br />

„Lernen und Lehren mit Technologien“ anhand der<br />

lerntheoretischen (siehe Kapitel #lerntheorie) und<br />

kognitionspsycholologischen Grundlagen aufbauen<br />

(siehe Kapitel #gedaechtnis).<br />

Ob elektronische, vernetzte und soziale Medien<br />

Einzug in Schule, Unterricht und Lehre halten<br />

sollten, ob die Risiken schwerer wiegen als die<br />

Chancen und wie man jeweils neu zur Verfügung stehende<br />

Technologien und Applikationen, vom<br />

Newsforum über Lernmanagementsysteme, Weblogs<br />

und Wikis zu mobilen Geräten in Lehr- und Lernprozessen<br />

einsetzen kann – solche Fragen bestimmen<br />

immer wieder Debatten um das Lernen und Lehren<br />

mit Technologien. Wortbildungen wie E-Learning,<br />

M-Learning und E-Learning-Szenarien deuten begrifflich<br />

darauf hin, dass der Einsatz elektronischer<br />

und mobiler Technologien oft als prägend, als treibende<br />

Kraft oder sogar als Ziel in sich wahrgenommen<br />

wird. Fast scheint es, dass bei der Suche<br />

nach pädagogisch-didaktischer Innovation die Übernahme<br />

von Innovationen anderer Disziplinen, wie<br />

zum Beispiel der Informatik, zum Mittel der Wahl geworden<br />

ist (siehe auch Kapitel #innovation). Dies<br />

mag in zahlreichen Fällen funktionieren - dennoch<br />

stellen sich aus pädagogischer Perspektive Fragen,<br />

deren Ausgangspunkt nicht allein in der bloßen Verfügbarkeit<br />

von Technologien liegt: Welche Prozesse<br />

führen zu konzeptioneller Innovation im Lehren und<br />

Lernen? Wie kann die Forschung der pädagogischen<br />

Disziplin zu Innovation in der Praxis beitragen? Wie<br />

werden Innovationsprozesse aus pädagogischer Perspektive<br />

initiiert und getrieben? Welche Rolle spielen<br />

Technologien darin? Und wie kann pädagogisch-didaktische<br />

Innovation in die Technologieentwicklung<br />

einfließen?<br />

Neben der Entwicklung pädagogisch-didaktischer<br />

Innovation sind Pädagoginnen und Pädagogen in besonderer<br />

Weise befähigt, sich unmittelbar und konzeptionell<br />

an Technologieentwicklung zu beteiligen<br />

und die Entwicklung innovativer Lösungen, Produkte,<br />

Strategien, Services und Interventionen als<br />

Wissensarbeit zu konzipieren. Zu diesem Verständnis<br />

der Pädagogik als Disziplin und Profession möchte<br />

das Kapitel beitragen. Dazu werden Fragen des Zusammenspiels<br />

von Untersuchung und Design sowie<br />

wissenschaftlicher Erkenntnis und Gestaltung erörtert,<br />

ein Designprozess der als Untersuchung angelegt<br />

ist beschrieben und anhand einer allgemeinen<br />

Designtheorie den Status des durch Designprozesse<br />

generierten Wissens klären (wie wird das im Design<br />

generierte Wissen artikuliert und formuliert und<br />

welche Form hat es). Der dargelegte Designprozess<br />

zeichnet sich durch seine Orientierung an Tätigkeiten<br />

und Praktiken aus (engl.: practice-oriented design)<br />

und stellt eine Alternative zu Produkt-orientierten<br />

und Nutzer-orientierten Ansätzen dar, die grundsätzlich<br />

ebenfalls denkbar sind (Shove et al., 2007).<br />

2. Design und Forschung: Die Rolle des Wissens in De-­‐<br />

signprozessen<br />

Dieses Kapitel beschreibt einen Forschungszugang<br />

auf das Praxisfeld Lernen und Lehren mit Technologien<br />

aus pädagogischer Perspektive. Einen forschenden<br />

Zugang zur pädagogischen Praxis zu finden<br />

bedeutet, eine vermeintlich unmögliche Verbindung<br />

zwischen der Gestaltung innovativer Lehr-/Lern-Szenarien<br />

und wissenschaftlichem Erkenntnisgewinn<br />

herzustellen. Der Begriff „Didaktisches Design“<br />

bezeichnet die praktische Tätigkeit der Pädagoginnen<br />

und Pädagogen sehr gut: Sie entwerfen, gestalten, erproben<br />

Interventionen und Produkte und bewerten<br />

deren Nützlichkeit in einem konkreten Anwendungskontext.<br />

Demgegenüber zielt Forschung gemeinhin<br />

auf die Generierung von Wissen mit Hilfe eines wissenschaftlichen<br />

Methodenrepertoires, auf die Formulierung<br />

möglichst allgemeingültiger Regeln, auf ein<br />

tieferes Verständnis sowie auf die systematische Untersuchung,<br />

Beschreibung und Erklärung von Zusammenhängen.<br />

Designprozesse zur Generierung<br />

von innovativen Lösungen auf der einen Seite und<br />

wissenschaftliche Forschung zur Generierung von<br />

Wissen und tieferem Verständnis auf der anderen<br />

scheinen in ihrem Vorgehen und ihrem Ergebnis


grundsätzlich verschiedene Vorhaben zu sein. Sowohl<br />

die Pädagogik als Disziplin, als auch Arbeiten der<br />

Designtheorie und jüngeren Wissenschaftsforschung<br />

diskutieren deren Zusammenspiel: „Fragen zum<br />

Status von Wissen in gestalterischen Praktiken und<br />

Objekten sowie zur Genese von Design als ‚Wissenskultur’<br />

sind nicht bloß ein aktuelles Desiderat der Designwissenschaften,<br />

sondern korrespondieren mit<br />

Fragen und Modellen der jüngeren Wissenschaftsforschung<br />

bzw. der Science and Technology Studies.“<br />

(Mareis, 2010, 178).<br />

Für die Pädagogik lassen sich in der Frage des Zusammenspiels<br />

von Design und Forschung grob vier<br />

Ansätze differenzieren. Diese unterscheiden sich zumindest<br />

hinsichtlich der folgenden Aspekte: der Rolle<br />

des Wissens im Gestaltungsprozess; der Vorgehensweise<br />

beim Voranschreiten von Analyse und Synthese<br />

zur Untersuchung der Nutzungspraktiken bzw.<br />

Lehr-/Lern-Prozesse; der Frage der Form des generierten<br />

Wissens und seiner Generalisierbarkeit bzw.<br />

Übertragbarkeit in verschiedene Kontexte. Unter<br />

diesen Aspekten werden die Ansätze im Folgenden<br />

diskutiert.<br />

Wissen vor Design<br />

Eine oft auch in der Lehre reflektierte Position geht<br />

davon aus, dass Wissen bereits vor dem Designprozess<br />

zur Verfügung steht und in der Gestaltung<br />

angewandt wird. Dieses Wissen besteht zum<br />

Beispiel in lerntheoretischen Grundlagen, anthropologischen<br />

Grundorientierungen oder Medientheorien.<br />

Es wird in deskriptiv-analytisch orientierten Disziplinen<br />

wie Teilgebieten der Psychologie, Anthropologie<br />

und Medienwissenschaft generiert und in Pra-<br />

Designentwicklung. Anregungen aus Designtheorie und Designforschung— 3<br />

Abbildung 1: Designbasierte versus „klassische“ empirische Forschung (nach Reeves, 2006)<br />

xisfeldern angewandt. Schnotz (2009, 3) bezeichnet<br />

die Disziplin als Handlungslehre und als angewandte<br />

Wissenschaft. Dieser Kontext wirft unter anderem<br />

die Frage auf, wie Ergebnisse und Wissen aus der<br />

Forschung in die Praxis gelangen.<br />

Designbasierte Forschung<br />

Eine andere Position bei der Frage nach der Rolle des<br />

Wissens im Gestaltungsprozess nimmt hingegen die<br />

sogenannte designbasierte Forschung (Engl.<br />

„design-based research“) ein – auch unter den Begriffen<br />

Design Experiments (Brown, 1992, Collins,<br />

1992), Development Research (van den Akker, 1999),<br />

Design Research (Kelly et al., 2008) bekannt. Dieser<br />

Forschungsansatz in der Pädagogik und Lehr-/Lern-<br />

Forschung versucht die zielgerichtete Gestaltung von<br />

Lehr-/Lern-Umgebungen mit der systematischen<br />

Untersuchung der Lernprozesse in diesen Lernumgebungen<br />

zu integrieren. Kennzeichen designbasierter<br />

Forschung sind die Verschränkung praktischer und<br />

wissenschaftlicher Interessen, die Betonung des Designs<br />

einer Intervention, die theoretische Verankerung<br />

des Forschungsprozesses, die iterative Vorgehensweise<br />

und die Anwendungsorientierung. Abbildung<br />

1 zeigt nach Reeves (2006) den Status des<br />

Wissens und des Designs in den beiden bisher dargelegten<br />

Positionen. Der Ansatz designbasierter Forschung<br />

wird insbesondere im anglo-amerikanischen<br />

Raum in diversen Forschungs- und Entwicklungsprojekten<br />

verfolgt. Die Diskussion um seine forschungsmethodologischen<br />

Grundlagen hält jedoch an wobei<br />

die „klassische“ empirische Forschung als Maßstab<br />

angelegt, Forschung auf Basis vorangegangenen


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Designs betrieben wird und das zu generierende<br />

Wissen die Form kontextfreier Aussagen gewinnen<br />

soll.<br />

Designbasierte Forschung legt den Fokus auf ein<br />

forschungsbasiertes und ingenieursmäßiges Vorgehen,<br />

was darin begründet wird, dass die Ingenieurswissenschaften<br />

in ihren Forschungsprozessen<br />

Innovation entwickeln und diese Vorgehensweise auf<br />

die Pädagogik übertragen werden kann um pädagogisch<br />

didaktische Innovation zu befördern. Beispielhaft<br />

werden am Modell von Bannon-Ritland<br />

(2003) die impliziten Annahmen der designbasierten<br />

Forschung skizziert: Die empirische Analyse ist die<br />

treibende Kraft in einem Prozess der von Analyse<br />

(„informed exploration“) zur Synthese („enactment“)<br />

und dann zur Evaluation („local impact“, „broader<br />

impact“) voranschreitet. Die umfassende (und objektive)<br />

Bestimmung von Ist- und Sollzustand bildet<br />

den Ausgangspunkt des Designprozesses. Analyse<br />

und Synthese werden als zwei voneinander getrennte<br />

Phasen verstanden und die Lösung von Designproblemen<br />

basiert auf der Auswahl und Kombination<br />

bekannter Operationen. In der designbasierten Forschung<br />

ist der gestalterische Part selbst nicht als Wissensgenerierungsprozess<br />

konzeptioniert, die Vorgehensweise<br />

ist nicht designgetrieben.<br />

Wissensgenerierung durch Design<br />

Eine weitere Position bezieht den Designprozess in<br />

die Forschung mit ein, bzw. konzeptionalisiert Design<br />

selbst als epistemischen, also erkenntnisgenerierenden<br />

Prozess. Wissensgenerierung findet durch<br />

Design statt. Im Designprozess werden immer<br />

wieder gut informierte Entscheidungen getroffen, die<br />

in wissenschaftlichen Theorien fundiert werden<br />

können - entscheidend ist jedoch, dass der Designprozess<br />

selbst als objektorientierte Untersuchung<br />

angelegt wird, in dem sowohl innovative Produkte<br />

und Services als auch Wissen generiert wird. Die Position<br />

des Design als objektorientierter Untersuchung<br />

oder Design als Wissensgenerierung wird in diesem<br />

Kapitel genauer dargelegt. Sie nutzt Vorgehensweisen<br />

des sogenannten Design Thinking, Methoden der<br />

Designforschung und des Interaktionsdesigns und<br />

basiert auf designtheoretischen Überlegungen.<br />

Expansive Learning<br />

Der vierte Ansatz, hier nur kurz skizzierte Position,<br />

geht ebenfalls von der Generierung von Wissen im<br />

Design aus. Dieses Wissen bleibt auf den lokalen<br />

Kontext, wie zum Beispiel die Organisation in der die<br />

Lösung entwickelt wird, bezogen. Engeströms (2005)<br />

Ansatz des Expansive Learning der auf die Transfor-<br />

mation von Handlungssystemen im Sinne Lernender<br />

Organisationen abzielt, und Schöns Ansatz des Reflective<br />

Practitioner werden beispielhaft dieser Position<br />

zugeordnet (Schön, 1983).<br />

Designwissen<br />

Die Form des Wissens, das in Designprozessen generiert<br />

wird hat einen anderen Status als das kontextfreie<br />

und wertfreie Wissen „klassischer“ empirischer<br />

Wissenschaften. Es wird in lokalen Kontexten generiert,<br />

da Design spezifische Anwendungskontexte im<br />

Blick hat. Design und Artefakte bestimmen die Erkenntnis<br />

mit – dies wird im Forschungsprozess bereits<br />

in der (Design-) Hypothese formuliert. Design-<br />

Wissen ist Wissen über die Wirksamkeit von Handeln<br />

und das Wissen um die Bedingungen unter denen das<br />

Handeln wirksam wird. Es beantwortet die Frage:<br />

„Was funktioniert unter welchen Bedingungen?“ und<br />

sucht die Wirkung zu erklären. Die Wissensproduktion<br />

erfolgt durch die Beschreibung der Bedingungen<br />

und der Intervention (als Faktoren) und<br />

durch die Suche nach Erklärungen für die Wirksamkeit<br />

(Wirkmechanismen). Während die Bedingungen<br />

lokal sind, verweisen die Erklärungen über<br />

den einzelnen Kontext hinaus.<br />

Nicht nur in der Pädagogik, sondern auch im Interaktionsdesign<br />

und in den Designwissenschaften,<br />

die teilweise bestrebt sind Design als akademische<br />

Disziplin zu fundieren, existieren entsprechende designtheoretische<br />

Positionen, die Wissensgenerierung<br />

durch Design zu konzipieren, unter anderem.: research<br />

through design (Findeli et al., 2008),<br />

thoughtful interaction design (Löwgren & Stoltermann,<br />

2007), cognitive design und gestalterische<br />

Epistemologie (Stephan, 2006) und Design als Wissensgenerierung<br />

(Allert & Richter, 2009). Im Folgenden<br />

wird das Kapitel den Begriff „Design“ skizzieren,<br />

die epistemische Rolle von Artefakten im objektorientierten<br />

Untersuchungsprozess darlegen,<br />

einen Designprozess, der als Untersuchung angelegt<br />

ist, beschreiben und anhand einer allgemeinen Designtheorie<br />

den Status des durch Designprozesse generierten<br />

Wissens klären (wie wird das im Design generierte<br />

Wissen artikuliert und formuliert und welche<br />

Form hat es). Der dargelegte Designprozess zeichnet<br />

sich durch seine Orientierung an Tätigkeiten und<br />

Praktiken aus (Engl. „practice-oriented design“) und<br />

stellt eine Alternative zu Produkt-orientierten und<br />

Nutzer-orientierten Ansätzen dar, die grundsätzlich<br />

ebenfalls denkbar sind (Shove et al., 2007). So wie in<br />

der Mediennutzung häufig von Nutzungspraktiken


gesprochen wird, wird im Folgenden für Praktiken<br />

des Lernen und Lehrens auch der Begriff der Wissenspraktiken<br />

verwendet.<br />

3. Pädagogik als DesignwissenschaG<br />

Pädagogik als WissenschaG vom Künstlichen<br />

Um sich der pädagogischen Perspektive und der Pädagogik<br />

als Wissenschaft zu nähern, betrachten wir zunächst<br />

die Disziplin selbst. Herbert Simon (1969) unterscheidet<br />

die Naturwissenschaften von den Wissenschaften<br />

vom Künstlichen. Er bezieht sich zunächst<br />

auf das Ingenieurswesen, bevor er wissenschaftliche<br />

Disziplinen wie die Medizin, Wirtschaftswissenschaften<br />

und Pädagogik den Wissenschaften vom<br />

Künstlichen zuordnet und sie dann auch die Wissenschaften<br />

vom Entwerfen oder Designwissenschaften<br />

nennt. „Wir sprechen vom Ingenieurwesen als von<br />

etwas, das die ‘Synthese’ betrifft, während sich Naturwissenschaft<br />

mit der ‘Analyse’ befasst. (…) Der Ingenieur<br />

und allgemeiner der Entwerfer beschäftigen<br />

sich damit, wie die Dinge sein sollten – wie sie sein<br />

sollten um Zielen zu genügen und zu funktionieren.<br />

(…) Mit dem Streben und ‘Sollen’ bringen wir die Dichotomie<br />

‘normativ’ – ‘deskriptiv’ ins Bild. Die Naturwissenschaft<br />

hat einen Weg gefunden, das Normative<br />

auszuschließen und sich alleine damit zu befassen,<br />

wie die Dinge sind. Können oder sollen wir<br />

diese Ausschließlichkeit beibehalten, wenn wir von<br />

den natürlichen Erscheinungen zu den künstlichen<br />

übergehen, von der Analyse zur Synthese?“ (Simon,<br />

1969, 4). Designwissenschaften sind demnach Disziplinen,<br />

die entwerfen und synthetisieren, das heißt<br />

das Künstliche konzipieren und planen, Artefakte<br />

und Lösungen entwickeln.<br />

Bildungziele und -­‐normen<br />

Wenn Pädagoginnen und Pädagogen als Designwissenschaftlerinnen<br />

und Designwissenschaftler Lösungen<br />

in die Welt bringen, befassen sie sich mit dem<br />

normativen „Sollen“ und nicht mit dem Beschreiben<br />

der Welt wie sie ist. Designwissenschaften untersuchen<br />

nicht das Bestehende (zum Beispiel einen<br />

Lernprozess wie er ist), sondern entwickeln Lösungen<br />

in Form von Intervention und Produkten<br />

und führen so eine Veränderung herbei. Handeln und<br />

Erkennen konstituieren den Untersuchungsprozess.<br />

Wir können uns fragen ob eine Intervention in einem<br />

gegebenen Kontext wirksam wird, ob sie funktioniert<br />

und ein gesetztes Ziel erreicht. Wir können die<br />

Wirkung beschreiben und gegebenenfalls erklären<br />

wie sie zustande kommt. Die Frage, wie Welt sein<br />

Designentwicklung. Anregungen aus Designtheorie und Designforschung— 5<br />

sollte bezieht normative Aspekte ein. Design bedarf<br />

eines Ziels, einer Vision, wobei diese nicht wertfrei<br />

ist.<br />

Die Synthese in unserer Betrachtung bezieht sich<br />

auf die Förderung lernrelevanter und wissensintensiver<br />

Prozesse, in denen die Interaktion mit Technologien<br />

eine Rolle spielt. „Didaktisches Design ist eine<br />

Theorie die Leitlinien darüber bereitstellt, wie man<br />

Menschen unterstützen kann, besser zu lernen und<br />

sich zu entfalten“ (Reigeluth, 1999, 5, Übersetzung).<br />

Entwerfen und Synthetisieren sind nicht wertfrei<br />

oder wahr. Eine Lösung kann bewertet werden<br />

anhand ihrer Nützlichkeit und ihrem Funktionieren<br />

unter gegebenen Bedingungen in einem lokalen<br />

Kontext und in Bezug auf ein Ziel. Evaluation bedeutet<br />

dementsprechend die Bewertung der Lösung<br />

anhand der gesetzten Ziele. In diesem Zusammenhang<br />

kann in der Pädagogik die Kategorie<br />

Bildung als prägnantes Beispiel für eine nicht wertfreie<br />

normative Setzung im Sinne einer Designwissenschaft<br />

gesehen werden. Die Pädagogik hat sich in<br />

der Auseinandersetzung um die Modelle der allgemeinen<br />

Didaktik intensiv mit der Frage der Verantwortung<br />

bei der Definition von Zielen und normativen<br />

Setzungen befasst. Bildung gilt der bildungstheoretischen<br />

Didaktik als Ziel, auf das sie sich bei<br />

der Planung didaktischer Intervention verpflichtet.<br />

Auch weniger allgemein vereinbarte Ideale stellen Visionen<br />

und normative Setzungen dar, zum Beispiel<br />

individuelle Vorstellungen einer wünschenswerten<br />

Zukunft im eignen Lernumfeld, wobei der Designer<br />

die Verantwortung für die dem Design zugrundeliegenden<br />

Werte nicht abgeben kann. Auch gesellschaftliche<br />

Verantwortung wird von Designern diskutiert:<br />

„In den 60ern begannen Designer über die Implikationen<br />

ihres Designs für die Gesellschaft nachzudenken“<br />

(Wood, 2007, Übersetzung). Deskriptive<br />

(Natur-)Wissenschaft hingegen „hat einen Weg gefunden,<br />

das Normative auszuschließen“ (Simon,<br />

1969, 4), analysiert die Welt wie sie ist und zielt auf<br />

die Formulierung allgemeiner Gesetzmäßigkeiten und<br />

Regeln, die unabhängig von einzelnen Situationen<br />

und Kontexten universell gültig und wertfrei sind.<br />

Anzumerken ist, dass Simon eine klassische Wissenschaftsauffassung<br />

vertritt, die sich wie zuvor beschrieben,<br />

stetig verändert. Knorr-Cetina (2002, 151)<br />

und Latour (2010) anerkennen die Rolle materialer<br />

Artefakte bzw. die materialen Aspekte technischer Instrumente<br />

im Erkenntnisprozess und beschreiben<br />

Praktiken heutiger Wissensarbeit.


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

4. Veränderungen durch Design<br />

Ko-­‐Evolu%on von Problem und Lösung<br />

Auch Designwissenschaften betreiben Analyse wenn<br />

sie Probleme, für die Lösungen gesucht werden,<br />

identifizieren und beschreiben. Aus der Analyse lässt<br />

sich allerdings die Synthese bzw. aus dem Problem<br />

die Lösung nicht ableiten. Auch greift die Vorstellung<br />

zu kurz, dass eine geschaffene Realität beobachtet<br />

wird. Eher wird durch das Schaffen selbst die Realität<br />

beobachtbar. Cross (1995) spricht von der Ko-Evolution<br />

von Problem und Lösung und geht davon aus,<br />

dass die Generierung einer Vielzahl von Lösungsoptionen<br />

als Mittel verstanden werden kann das<br />

Problem zu analysieren, zu explorieren und zu verstehen.<br />

Gestaltung und Synthese ermöglichen das<br />

Problem zu erkennen und zu benennen: „Häufig<br />

zeigt sich, dass der gestalterische Ansatz überhaupt<br />

erst dazu führt, Problemlagen zu erkennen und zu<br />

beschreiben.“ (Stephan, 2009). Ein tieferes Verständnis<br />

des Problems gelingt durch den Entwurf, die<br />

Konzeption und das Testen möglicher Lösungen.<br />

Das Ergebnis (nicht der Start) eines Designprozesses<br />

ist demgemäß neben einer Lösung auch das<br />

Verständnis des Problems, also Wissen über den<br />

Problem- und Lösungsraum. Allerdings kann die Beschreibung<br />

und Lösung des Problems wie es ist nicht<br />

gelingen weil es sich stetig verändert. „Dies bezieht<br />

sich auf Design als projektive Disziplin, welche versucht,<br />

existierende Situationen in bevorzugte zu verwandeln.<br />

Wenn das Problem gelöst ist, wird die<br />

Lösung zumeist zum Keim eines neuen Problems.<br />

(...) Kontextualisierte wissenschaftliche Probleme<br />

sind, wie Designprobleme, niemals gelöst.“ (Jonas,<br />

2005).<br />

Problem und Lösung schreiten ko-evolutionär<br />

voran, sie entwickeln sich in und mit ihrem Umfeld<br />

gegenseitig weiter und werden nicht getrennt gefasst,<br />

sondern als Designraum beschrieben. Als Designraum<br />

wird der Realitätsraum gefasst, in dem sich<br />

Problem, Lösungen und äußere Randbedingungen<br />

gegenseitig bedingen (Burckhardt, 1995). Einen Einfluss<br />

auf die Konzeptualisierung des Designraum hat<br />

das Framing: In der Art der Beschreibung des<br />

Problem- und Lösungsraums liegt eine Perspektive.<br />

Bei der Beschreibung des Designraums definiert die<br />

Designerin oder der Designer den Realitätsraum und<br />

die Aspekte die sie oder er für relevant erachtet unter<br />

einer Perspektive, die sie oder er einnimmt und einer<br />

Rahmung, die sie oder er vornimmt. Im Design als<br />

Untersuchung wird der Frame, der in der Praxis<br />

immer gesetzt aber meist implizit bleibt, offengelegt,<br />

um implizite Annahmen aufzudecken und reflek-<br />

tieren zu können. Der Frame bestimmt Forschungsfrage<br />

und Designentscheidungen mit, da Annahmen<br />

in Form einer Frage zu einem Phänomen gestellt<br />

werden können. Das Framing bestimmt, welche<br />

Theorien aktualisiert werden um informierte Designentscheidungen<br />

zu treffen. Als Beispiel: Eine Bibliothek<br />

könnte als Buchabholstation oder als sozialer<br />

Treffpunkt gefasst werden.<br />

!<br />

Ein Framing und Re-­‐Framing des Problems, bzw. des<br />

Designraums kann im gesamten Designprozess neue<br />

Erkenntnisse bringen und erheblich zu einer innova-­‐<br />

Lven Lösung beitragen. Ein Framing fundiert die Desi-­‐<br />

gnhypothesen und die Forschungsfrage. Das Framing<br />

definiert die PerspekLve auf das Problem um die<br />

Theorie zur Fundierung der Fragestellung und zur Er-­‐<br />

klärung der Mechanismen zu finden und zu wählen<br />

Veränderung von Lehr-­‐ und Lernprozessen durch Design<br />

Obwohl Cross (1995) von der Ko-Evolution von<br />

Problem und Lösung spricht, bedeutet Design nicht<br />

Problemlösung, sondern die Entwicklung und Bereitstellung<br />

von Handlungsoptionen, die Einfluss auf die<br />

reale Welt nehmen und die, wenn sie genutzt werden,<br />

die Art und Weise wie wir Dinge tun, verändern<br />

können. Im Falle des Lernens und Lehrens mit Technologien<br />

kann die Bereitstellung interaktiver Medien<br />

zur Veränderung von Lehr-/Lern-Prozessen führen.<br />

Die Aneignung, Nutzung und Umnutzung einer innovativen<br />

Technologie ist Teil des Designprozesses<br />

und schließt diesen erst ab. Carroll (2004) betitelt<br />

dieses produktive Moment menschlicher Tätigkeit als<br />

„completing design in use“. Die Nutzung eines Mediums<br />

(oder Artefakts im weitesten Sinne) kann Praktiken<br />

transformieren ebenso wie die Nutzung das Artefakt<br />

wie es vom Designer intendiert war, verändern<br />

kann. Der Nutzer wird durch die Nutzung zum Mitdesigner.<br />

Das an Praktiken orientierte Design nimmt<br />

an, dass die Bedeutung eines Artefakts (eines Produktes,<br />

einer Technologie) nicht im Artefakt selbst<br />

liegt sondern durch die Tätigkeit und Nutzung konstituiert<br />

werden (Shove et al. 2007). Die Nutzung von<br />

Technologien transformiert Wissenspraktiken ebenso<br />

wie neu entstehende Wissenspraktiken die Technologien<br />

verändern. Medien können die Art und Weise,<br />

wie wir mit Wissen arbeiten verändern, Wissenspraktiken<br />

also transformieren. Technologien determinieren<br />

Nutzungspraktiken nicht – vielmehr gestalten<br />

die entstehenden Nutzungspraktiken die Technologien<br />

mit.


5. Design als WissenschaG<br />

Design umfasst neben logischem Denken Aspekte<br />

wie etwa Kreativität, Intuition, Inspiration, Zufall<br />

(Jonas, 2005). Frühere Sichtweisen verstehen Design<br />

deshalb als oft unbeschreibbare Kunst und den<br />

Designer als geniale Heldenfigur (Cross, 1995) – das<br />

Denken und die Prozesse im Design erscheinen als<br />

wenig systematisierbar. Darüber hinaus ist Design<br />

weder als Begriff noch konzeptionell eindeutig gefasst.<br />

Fallman (2003) unterscheidet eine als romantisch<br />

bezeichnete Position, die den Kern von Design<br />

als Intuition beschreibt, von einer als konservativ bezeichneten<br />

Position die Design als angewandte Wissenschaft<br />

ansieht. Beiden Positionen stehen aktuelle<br />

Ansätze, Denkweisen und Strömungen gegenüber,<br />

die designerisches Denken und Vorgehen methodologisch<br />

fundieren und systematisch fassen. Cross<br />

(1995) beschreibt designerische Fähigkeiten als artikulierbar,<br />

charakterisierbar, erlernbar und pflegbar.<br />

Ebenso können sie verloren gehen. Gedenryd (1998)<br />

und Lawson (2005) haben ebenfalls zur Entmystifizierung<br />

mit der Analyse designerischer Denk- und<br />

Arbeitsweisen beigetragen. Ein ähnliches Spannungsverhältnis<br />

um vermittelbare Fähigkeiten, sowie um<br />

die Frage des Status von Theorie und Praxis und die<br />

Frage ob Unterrichten Kunst oder Wissenschaft sei,<br />

wurde in der Pädagogik um die 70er Jahre diskutiert.<br />

Heute befassen sich wissenschaftliche Arbeiten<br />

um das Schlagwort Design Thinking entweder mit<br />

individuellen kognitiven Prozessen im Design oder<br />

aber mit kollaborativen Denk- und Handlungsweisen<br />

und einer designerischen Art voranzuschreiten:<br />

„Design steht im Ansatz des Design Thinking nicht<br />

erst am Ende eines Entwicklungsprozesses, sondern<br />

wirkt als zentrales Element bei der strategischen und<br />

operativen Ausrichtung. Gestaltung wird damit zum<br />

enabler der nachfolgende Maßnahmen anstößt.”<br />

(Stephan, 2009). Mit Fokus auf strategische Prozesse<br />

kann Design als Antrieb für eine Lernende Organisation<br />

begriffen werden, wobei Design alle Prozesse<br />

in einer Organisation antreiben und zu konzeptioneller<br />

Originalität führen soll (Shamiyeh, 2010). [gekürzt]<br />

U n t e r Designwissenschaften (engl. „design<br />

studies“) sind Beiträge und Arbeiten zusammengefasst,<br />

die sich mit der Rolle des Wissens und der Entstehung<br />

von Wissen im Design befassen und wissensgenerierende<br />

Momente fundieren. Wenn wir Design<br />

nicht nur als Anwendung bestehenden Wissens aus<br />

deskriptiven Wissenschaften ansehen sondern wissensgenerierend<br />

nutzen, so hat dies Konsequenzen<br />

Designentwicklung. Anregungen aus Designtheorie und Designforschung— 7<br />

für die Beziehung zwischen Theorie und Praxis, für<br />

Forschung und Design in der Pädagogik sowie für die<br />

wissenschaftstheoretische Fundierung von Design.<br />

Der Prozess der Ko-Evolution von Analyse und<br />

Synthese unter sich gleichzeitig verändernden Kontextbedingungen<br />

kann als Untersuchungsprozess angelegt<br />

werden. Dies setzt voraus, dass der Designprozess<br />

unbestimmte Momente enthält in welchen<br />

Wissen nicht angewandt, sondern generiert wird.<br />

Diese Momente ermöglichen eine kreative und reflektierte<br />

Auseinandersetzung mit Undeterminiertheit.<br />

Um dies zu klären und diese Momente systematisch<br />

zu identifizieren betrachten wir die Fundierung<br />

von Designentscheidungen, die Rolle des<br />

Wissens im Designprozess und die Artikulation von<br />

Designwissen aus der Sicht einer allgemeinen Designtheorie<br />

(Goldkuhl, 2004). Um die Technologien<br />

und Medien im Lernprozess ins Blickfeld zu rücken<br />

betrachten wir im nächsten Abschnitt zunächst das<br />

Artefakt, seine Rolle in der objektorientierten Untersuchung<br />

und seinen Status als Untersuchungsinstrument.<br />

6. Artefakt als Hypothese und Prototyping als Untersu-­‐<br />

chung<br />

Für den Forschungsansatz wie er nach und nach dargelegt<br />

wird, ist es notwendig, sich über Rolle und<br />

Status der Technologien und Medien (kurz: Artefakte)<br />

sowohl im Lehr-/Lern-Prozess als auch im Untersuchungsprozess<br />

klar zu werden. Ein Artefakt hat<br />

im Untersuchungsprozess die Rolle eines epistemischen<br />

Artefaktes. Ein Artefakt und sein Einsatz im<br />

Lehr-/Lern-Prozess kann weder induktiv aus den<br />

Anforderungen noch deduktiv aus seiner Theorie abgeleitet<br />

werden (zum Status von Artefakten in Designprozessen,<br />

siehe: Models of Design, Coyne, 1988).<br />

Als Beispiel: Die Erkenntnisse deskriptiver Wissenschaften<br />

aus der Analyse kollaborativer Prozesse im<br />

Lernen stellen keine Handlungsanleitung zur Konzeption<br />

oder zum Einsatz von Technologien zur Förderung<br />

kollaborativen Lernens in einem bestimmten<br />

Kontext dar.<br />

Das Artefakt, bzw. eine Aussage über seine Gestaltung<br />

und angenommene Wirkung in einem lokalen<br />

Kontext in Hinblick auf ein Ziel kann im Planungsprozess<br />

als Designhypothese begriffen und als<br />

präskriptive Aussage formuliert werden (siehe Abschnitt<br />

8). Umgangssprachlich ließe sich formulieren:<br />

Was ist das Spezifische der Technologie und wie wird<br />

sich Lernen dadurch verändern – welche Art von<br />

Lernen wird sie befördern? Ausgangspunkt der<br />

Nutzung und des Einsatzes der Technologie sind bestehende<br />

Nutzungspraktiken. Durch die Bereit-


8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

stellung des Artefakts können Wissenspraktiken<br />

transformiert werden und unerwartete Nutzungspraktiken<br />

entstehen. Erst durch den Einsatz des Artefakts<br />

in einem gegebenen Kontext kann die präskriptive<br />

Aussage empirisch fundiert werden. In der<br />

Evaluation wird also die tatsächlich entstandene Nutzungspraktik<br />

in einem lokalen Kontext untersucht<br />

und mit den Annahmen und der Hypothese in Beziehung<br />

gesetzt, das heißt designrelevante Phänomene<br />

können erklärt werden.<br />

Artefakte stellen Handlungsoptionen bereit, die<br />

eine Transformation eines Lehr-/Lern-Prozesses<br />

oder einer Wissenspraktik anregen können.<br />

Grundlage dieser Sichtweise ist ein Medienbegriff<br />

der Medien als Katalysatoren der Veränderung kultureller<br />

Strukturen konzeptioniert (Eisenstein, 1997).<br />

Medien sind Katalysatoren sofern sie in die latente<br />

oder manifeste soziale Vision einer Gruppe oder Gesellschaft<br />

passen (Giesecke, 1991). Die Nutzung von<br />

Medien kann Praktiken auf sozialer, epistemischer<br />

und pragmatischer Ebene transformieren (Boedker &<br />

Andresen, 2005).<br />

Eine präskriptive Aussage über das Artefakt und<br />

seine angenommene Nutzung in einem Lehr-/Lernprozess<br />

stellt zunächst eine Hypothese über den Designraum<br />

und eine Annahme über ein Problem und<br />

die Wirkung einer Lösung (eine didaktische Intervention,<br />

in der die Interaktion mit Technologien eine<br />

Rolle spielt) unter bestimmten Bedingungen (lokaler<br />

Kontext) dar. Die Formulierung einer Designhypothese<br />

in Form einer präskriptiven Aussage und die<br />

Evaluation der Nutzung des Artefakts bzw. der<br />

Transformation der Wissenspraktik kann als untersuchendes<br />

Voranschreiten („open-ended inquiry“) bezeichnet<br />

werden.<br />

Eine Erklärung des Funktionierens der Lösung<br />

kann in wissenschaftlichen Theorien (Lerntheorien,<br />

Theorien zur Kollaboration usw.), technologischen<br />

Theorien, Handlungswissen und Erfahrung fundiert<br />

werden. Dabei wird sie zum Beispiel auf ihre Konsistenz<br />

zu theoretischen Konzepten deskriptiver Wissenschaften<br />

überprüft. Wir schließen dabei in einem<br />

abduktiven Schluss auf die beste Erklärung, da die<br />

Lösung weder deduktiv aus der Theorie noch induktiv<br />

aus den erhobenen Anforderungen abgeleitet<br />

werden kann. Zum induktiven, deduktiven und abduktiven<br />

Schließen im wissenschaftlichen Arbeiten<br />

findet sich eine ausführliche Erläuterung bei Shamiyeh<br />

(2010).<br />

!<br />

Die prototypische Lösung wird eingesetzt und die<br />

Nutzung beobachtet um die tatsächliche Transfor-­‐<br />

maLon der WissensprakLk oder des Lernprozesses<br />

beschreiben zu können. Der englische Ausdruck open-­‐<br />

ended inquiry bezeichnet das untersuchende Voran-­‐<br />

schreiten gut. Im voranschreitenden Prozess werden<br />

verLeYe Designhypothesen formuliert.<br />

Der Design- und Untersuchungsprozess erlaubt<br />

die kontinuierlich tiefere Exploration des Designraums.<br />

Im Folgenden wird der Design- und Untersuchungsprozess<br />

genauer beschrieben.<br />

7. Der Designprozess<br />

Der Designprozess im Überblick<br />

Eine designgetriebene Untersuchung will neben<br />

einem Produkt oder Service (zum Beispiel eine Intervention,<br />

Technologie) Wissen und Erkenntnisse über<br />

den Designraum generieren. Die Exploration bestehender<br />

Praktiken, die Betrachtung von Phänomenen<br />

und Formulierung von Fragen unter einer gewählten<br />

Perspektive (Framing und Re-Framing), das Design<br />

eines Prototypen um zugrundeliegende Annahmen<br />

zu erproben und zu untersuchen (designing a prototype<br />

to probe some of the underlying design assumptions),<br />

sowie die Erklärung der Wirkungsweise<br />

der Lösung und der Bedingungen unter denen ein generativer<br />

Mechanismus wirksam wird, sind Teil des<br />

Untersuchungsprozesses im Design.<br />

Design als Untersuchungsprozess anzulegen bedeutet<br />

nicht in der Analyse zu verbleiben, sondern<br />

fragend voranzuschreiten. Die erste Frage entsteht<br />

aus dem Framing. Der gesamte Designprozess stellt<br />

eine wissensgenerierende Exploration des Designraums<br />

dar. Eine frühe Designfixierung hieße, bestehende<br />

Annahmen nicht zu hinterfragen, bekannte<br />

Lösungen zu replizieren und sich nicht mehr durch<br />

überraschende Antworten, das Hinterfragen zu<br />

Grunde liegender Annahmen oder ein Re-Framing<br />

auf neue Fragen einzulassen. Der Designraum selbst<br />

kann im Prozess neu definiert werden, zuvor als Rahmenbedingungen<br />

angesehene Faktoren können in die<br />

Intervention integriert und verändert werden.<br />

Framing und Re-­‐Framing<br />

Das Framing bildet den Einstiegspunkt in den untersuchenden<br />

Designprozess und dient der Abgrenzung<br />

des Designgegenstandes sowie der Bestimmung allgemeiner<br />

Rahmenbedingungen. Jeder Designprozess<br />

basiert auf den expliziten oder impliziten Annahmen<br />

des Designers oder der Designerin über den Gegenstand<br />

des Designs. Diese Annahmen betreffen einerseits<br />

die Frage was zu gestalten ist, welche Perspek-


tiven eingenommen werden können, schließen andererseits<br />

aber auch grundlegende Annahmen darüber<br />

ein, was es beispielsweise bedeutet Mensch zu sein, in<br />

einer Gesellschaft zu leben, zu arbeiten oder zu<br />

lernen (Löwgren & Stolterman, 2007, 10). Entsprechende<br />

Annahmen bieten wichtige Orientierungsund<br />

Bezugspunkte im Designprozess da sie einen<br />

Rahmen (Frame) für die Interpretation des Designgegenstandes<br />

bilden. Bleiben entsprechende Annahmen<br />

aber unausgesprochen und somit implizit, kann es zu<br />

Missverständnissen und blinden Flecken bei der weiteren<br />

Exploration des Designraums kommen.<br />

Framing und Re-Framing generieren zum einen<br />

eine Perspektive auf den Designgegenstand, die zu<br />

Designentwicklung. Anregungen aus Designtheorie und Designforschung— 9<br />

originellen und innovativen Lösungen führen kann,<br />

zum anderen reduzieren sie die Komplexität der Untersuchung.<br />

Eine Untersuchung in einem situtierten,<br />

lokalen Kontext ist mit der vollen Komplexität der<br />

Realität konfrontiert. Das Framing bildet die Perspektive<br />

unter der die Frage gestellt und Theorien zur<br />

Formulierung informierter Entscheidung im Design<br />

aktualisiert werden.<br />

Explora%on bestehender Kontexte<br />

Im Mittelpunkt einer Exploration bestehender Kontexte<br />

steht die Untersuchung bestehender Praktiken<br />

und Prozesse und die Entdeckung möglicher Handlungsräume.<br />

Neben dem Aufdecken existierender<br />

Abbildung 2: Der Designprozess als kontinuierliche Exploration in der voranschreitend Fragen gestellt werden. Der Ablauf<br />

ist iterative und nicht streng linear.


10 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Probleme, kritischer Ereignisse, Spannungsverhältnisse,<br />

Rahmenbedingungen und Handlungsmuster,<br />

besteht das Ziel dieser Phase der Exploration im Aufspüren<br />

möglicher Alternativen. Ausgangspunkte<br />

hierfür bieten sowohl bestehende Praktiken wie auch<br />

die Ziele und Visionen der beteiligten Akteure. In<br />

dieser Phase lassen sich Methoden aus den Bereichen<br />

Designforschung und Interaktionsdesign nutzen<br />

(Buxton, 2007, Laurel, 2003, Löwgren & Stolterman,<br />

2007). Ethnographische und phänomenologische Ansätze<br />

eignen sich, Phänomene und Praktiken zu erkunden.<br />

Am Ende der Exploration steht die Bestimmung<br />

der Designaufgabe unter einer Fragestellung.<br />

Die Exploration zeigt kritische Ereignisse<br />

auf, die als Spannungsverhältnis beschrieben und<br />

zum Ausgangspunkt für die Entwurfsphase werden<br />

können. Eine ausbleibende Exploration birgt die<br />

Gefahr, bestehende Annahmen nicht in Frage zu<br />

stellen und wenig originelle Lösungen zu produzieren<br />

- die Synthese könnte bestehende Annahmen unreflektiert<br />

in das Artefakt, also das Untersuchungsinstrument,<br />

einzubauen („Designfixierung“). Ein Verbleiben<br />

in der Analyse wiederum würde die vertiefte<br />

Exploration durch Entwurf verhindern. Auch aus<br />

einer detaillierten Analyse kann kontingente Zukunft<br />

nicht abgeleitet werden. Im Entwurf und der Entwicklung<br />

von Produkten, Interventionen, Strategien<br />

und Konzepten (Synthese) werden Entscheidungen<br />

getroffen, die nicht vollständig aus der Analyse begründet<br />

werden können. Verständnis des Designraums<br />

erfordert weiteres Voranschreiten im Designprozess<br />

über die Bereitstellung von Handlungsoptionen<br />

bis hin zum Verständnis transformierter Nutzungspraktiken.<br />

Entwurf<br />

Der anschließende Entwurf mehrerer alternativer<br />

Lösungsoptionen stellt einen weiteren Schritt zur<br />

tieferen Exploration dar, da jeder Entwurf neue<br />

Fragen zum Verständnis des Problems erzeugt und<br />

erlaubt zugrundeliegende Annahmen der Lösungsoptionen<br />

zu erkennen, zu hinterfragen und dadurch die<br />

eigene Vision zu schärfen.<br />

Abbildung 3: Paralyse durch Analyse vs. Designfixierung<br />

!<br />

Prototypen<br />

Ein Beispiel aus der Praxis wird zur Veranschaulichung<br />

unter der folgenden Adresse in einem Wiki zur Ver-­‐<br />

fügung gestellt: h`p://ukzizm-­‐s04.izm.uni-­‐<br />

kiel.de/Lki5/Lki-­‐index.php?page=L3T-­‐Startseite<br />

[2011-­‐01-­‐08]<br />

Weiteres findet sich auch bei Mister Wong unter #l3t<br />

#designforschung!<br />

Dann wird eine vielversprechende Lösungsoption<br />

ausgewählt und prototypisch umgesetzt. Prototypen<br />

sind Repräsentationen bevor das finale Produkt existiert.<br />

Ein Prototyp wird gezielt auf die Beantwortung<br />

einer Fragestellung hin konzipiert, umgesetzt und<br />

eingesetzt, das heißt, die der Lösungsoption zugrundeliegende<br />

Annahme bzw. Designhypothese sollen<br />

untersucht werden können. Bei ihrer Herstellung<br />

zeigt sich, welche konkreten Designentscheidungen<br />

noch zu treffen sind. Prototypenarten die zur tieferen<br />

Exploration des Designraums geeignet sind wirken<br />

wie Erfahrungssubstitute und Sonden in einem<br />

sozio-kulturellen Kontext. Sie machen die Erfahrung<br />

allen vom Design Betroffenen erlebbar, erlauben die<br />

Beobachtung der Transformation von Praktiken<br />

sowie der Umnutzung des Prototypen durch die entstehende<br />

Praktik. Formen sind unter anderen:<br />

▸ Storyboards und visuelles Story Telling (Illustration<br />

zentraler Handlungsschritte in Form einer<br />

Bildergeschichte),<br />

▸ Wireframe-Modelle und Interface-Skizzen (Abbildung<br />

der strukturellen und funktionalen Elemente<br />

der Benutzeroberfläche, ohne Berücksichtigung<br />

der graphischen Ausgestaltung),<br />

▸ Video Prototypen (Videoaufzeichung von Personen<br />

die mit dem „System“ interagieren und typische<br />

Aufgaben lösen),<br />

▸ dynamische Papierprototypen (jedes Blatt Papier<br />

oder Post-It repräsentiert eine Bildschirmseite<br />

oder ein Bildschirmelement. Während die Anwender<br />

so tun, als ob sie mit dem Papierprototypen<br />

interagieren, wechselt oder ändert die Designerin<br />

oder der Designer das Papier entsprechend<br />

der „Eingaben“),<br />

▸ dynamische digitale Prototypen (das Erscheinungsbild<br />

und die Funktionalitäten des inten-


dierten Systems werden bis zu einem gewissen<br />

Grad in digitaler Form nachgebildet (zum Beispiel<br />

in MS PowerPoint),<br />

▸ Bricolage-Prototpen (Simulation intendierter<br />

Funktionalitäten mit Hilfe bereits existierender<br />

Systeme wie EtherPad, BSCW, YahooPipe, Positlog<br />

bzw. der Re-Kombination dieser Systeme).<br />

?<br />

Entwickeln Sie einen Prototypen in dem Sie folgender-­‐<br />

maßen vorgehen:<br />

▸ Schri` 1: Festlegung der Fragestellung, die mit<br />

dem Prototypen geklärt werden soll.<br />

▸ Schri` 2: Auswahl einer geeigneten Prototypenart<br />

▸ Schri` 3: Kurzes Design-­‐Review (Peer Review)<br />

bzgl. Fragestellung und Art des Prototypen<br />

▸ Schri` 4: Realisierung des Prototypen<br />

Um eine AußenperspekLve zu gewinnen (Schri` 3)<br />

soll ein Feedback von anderen eingeholt werden. Fol-­‐<br />

gende Fragen sind dabei zu stellen:<br />

▸ Ist die Art des Prototypen geeignet die Frage-­‐<br />

stellung zu klären?<br />

▸ Worauf sollte bei der Erstellung des Prototypen<br />

geachtet werden?<br />

▸ Welche Merkmale sind wichLg, welche nicht?<br />

▸ Ist die Erstellung eines entsprechenden Proto-­‐<br />

typen realisLsch (mit den gegebenen Mi`eln, Zeit-­‐<br />

rahmen)?<br />

Für die Kurzbeschreibung des Prototypen (Schri` 4)<br />

sind die Antworten auf folgende Fragen wichLg:<br />

▸ Welche Frage soll mi`els des Prototypen beant-­‐<br />

wortet werden?<br />

▸ Art des Prototypen?<br />

▸ Welche Produktmerkmale sollen mit dem Proto-­‐<br />

typen abgebildet werden?<br />

Ein Prototyp erlaubt den Beteiligten mit dem vorgestellten<br />

Artefakt zu interagieren, Erfahrung bei der<br />

Nutzung in einer realistischen Situation zu sammeln<br />

(Preece et al., 2002). Praxisbeispiele für „Erfahrungsprototypen“<br />

finden sich bei Buchenau & Suri (2000).<br />

Diesen Schritt des Designprozesses kann man Prototyping<br />

als Untersuchung nennen. Der Prototyp wird<br />

mit möglichst minimalem Einsatz umgesetzt, gerade<br />

tauglich um eine aus den Annahmen gewonnene Fragestellung<br />

zu beantworten. Annahmen und Fragestellung<br />

werden aus der präskriptiven Aussage generiert<br />

(präskriptive Aussagen sind Annahmen über den<br />

Designraum und die Wirkung der Intervention). Bis<br />

zu diesem Schritt im Designprozess existieren ausschließlich<br />

Hypothesen über die Wirkung der Intervention,<br />

die Nutzung des Prototypen im Lehr-/Lernprozess<br />

und die Transformation der Praktik. Im<br />

Sinne einer Untersuchung sind neben der Designhypothese<br />

(siehe letzter Abschnitt) vor und während<br />

Designentwicklung. Anregungen aus Designtheorie und Designforschung— 11<br />

der Intervention alternative Hypothesen formulierbar,<br />

für die in der Evaluation Belege gesammelt<br />

werden.<br />

Einsatz und Evalua%on<br />

Einsatz und Evaluation stellen den nächsten Schritt<br />

im Untersuchungsprozess dar. Ziel der Evaluation ist<br />

die Prüfung der Designhypothese in einem lokalen<br />

Kontext. Durch Einsatz und Evaluation wird die präskriptive<br />

Annahme empirisch fundiert. Je nach Fragestellung<br />

soll nicht nur die Interaktion mit dem technischen<br />

System (operative Ebene), bzw. das Interface<br />

getestet, sondern im weiteren Sinne die Nutzung des<br />

Artefakts und die Transformation der Wissenspraktik<br />

in Erfahrung gebracht werden. Das Funktionieren<br />

der Lösung wird in Bezug auf das gesetzte Ziel geprüft.<br />

Die Evaluation vertieft wiederum die Exploration<br />

des Designraums und kann das Ergebnis<br />

bringen, dass das Problem ganz andere Facetten hat<br />

oder anders gelagert ist als bisher angenommen. Der<br />

Designprozess kann zum vertieften Verständnis des<br />

Problems oder zu einem Re-Framing des Designraums<br />

führen. Das Verständnis der entstehenden<br />

Wissens- und Nutzungspraktiken kann außerdem zur<br />

konzeptionellen Innovation im Sinne einer Weiterentwicklung<br />

oder Neukonzeption von Technologien<br />

führen. Evaluationsmethoden finden sich u.a. bei<br />

Preece et al. (2002) und bei Löwgren und Stolterman<br />

(2007).<br />

!<br />

Während des gesamten Designprozesses wird Wissen<br />

generiert. Die systemaLsche ArLkulaLon und Doku-­‐<br />

mentaLon umfasst die Formulierung von Designhypo-­‐<br />

thesen, die Sammlung von Faktoren die den Desi-­‐<br />

gnraum beschreiben und die Erklärung designrele-­‐<br />

vanter Phänomene durch generaLve Wirkmecha-­‐<br />

nismen.<br />

8. Designtheorie und Designwissen<br />

Eine allgemeine Designtheorie stellt abstrahiertes<br />

praktisches Wissen über Designaktivitäten und ihre<br />

Fundierung dar. Im Prozess des didaktischen Designs<br />

wird Designwissen generiert und artikuliert. Designhypothesen<br />

werden in Theorie und Empirie fundiert.<br />

Abbildung 4 zeigt die allgemeinen Designtheorie<br />

nach Goldkuhl (2004, annotiert). Anhand<br />

dieser wird die Form von Wissen, die in Designprozessen<br />

gewonnen wird, einführend dargelegt:<br />

Bei der Planung wird die Designhypothese generiert,<br />

die die Form einer präskriptiven Aussage hat.<br />

Zur Formulierung einer Designhypothese lässt sich<br />

die folgende Form nutzen: Wenn, unter den Bedingungen<br />

K1, K2, ... Kn, das Artefakt mit seinen spezi-


12 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

fischen Qualitäten Q1, Q2, ... Qn eingebracht wird,<br />

dann sollte dies das Auftreten des Mechanismus M<br />

unterstützten/zur Folge haben und dadurch zu den<br />

Zuständen/Ereignissen Z1,Z2, ... Zn führen. Die Bedingungen,<br />

unter denen die Intervention (Einsatz des<br />

Artefakts und pädagogisch-didaktische Maßnahmen)<br />

wirksam werden soll und die Intervention selbst,<br />

können in Form von Faktoren beschrieben werden.<br />

In Erweiterung der allgemeinen Designtheorie von<br />

Goldkuhl (siehe Abb. 4) können auch Erklärungen<br />

für die angenommene Wirksamkeit formuliert<br />

werden: Welcher Mechanismus kann die Transformation<br />

erklären? Vor und auch während der Intervention<br />

werden neben der Designhypothese alternative<br />

Hypothesen gebildet, denn es könnte auch<br />

andere Gründe und Erklärungen für die Transformation<br />

geben: es ist denkbar, dass andere Faktoren<br />

als die Intervention selbst zum Ziel führen.<br />

▸ Die empirische Fundierung: Die pädagogische<br />

Planung bzw. der Prototyp kommt in einem lokalen<br />

Kontext zum Einsatz. Aktion x’ sowie<br />

Effekt y’ und Kontext z’ können beschrieben<br />

Abbildung 4: Allgemeine Designtheorie nach Goldkuhl (2004), annotiert und verändert<br />

werden. Die entstehenden Nutzungs- und Wissenspraktiken<br />

können beobachtet werden und die Designhypothese<br />

kann geprüft werden. Alternative<br />

Hypothesen und Erklärungen können ggf. in der<br />

empirischen Fundierung ausgeschlossen werden.<br />

Die alternativen Hypothesen können bestätigt<br />

werden falls der beobachtete Effekt y’ vom geplanten<br />

Ziel y abweicht oder falls andere generative<br />

Mechanismen als die angenommenen die<br />

Wirkung besser erklären.<br />

▸ Die theoretische Fundierung: Präskriptive und<br />

empirische Aussage werden auf Konsistenz zu externen<br />

wissenschaftlichen und technologischen<br />

Theorien geprüft. Durch abduktives Schließen<br />

kann ein Schluss auf die beste Erklärung gewonnen<br />

werden.<br />

▸ Ethische Entscheidungsmöglichkeiten: Der<br />

Designer hat Verantwortung bezüglich der Visionen<br />

und Werte, die seinem Design zugrunde<br />

liegen.


▸ Ontologien und Begriffe: In Bezug auf den Gegenstandbereich<br />

und das Design liegen weitere<br />

Rahmenkonzepte zugrunde, die die Konzeption<br />

beschreibbar machen.<br />

Ergebnis der Untersuchung ist eine Erklärung der<br />

Mechanismen und unter welchen Bedingungen sie<br />

wirksam werden. Die Generierung und Modellierung<br />

von Designwissen kann in allen Phasen des Designprozesses<br />

stattfinden. Die Artikulation des Designwissens,<br />

das in Lehr-Lernkontexten generiert wird,<br />

unter Nutzung einer Modellierungssprache, stellt<br />

letztendlich die Beschreibung eines didaktischen Modells<br />

dar.<br />

9. Zusammenfassung<br />

Pädagogische Situationen sind offen, komplex, zielorientiert,<br />

einem Ziel verpflichtet, situationsgebunden,<br />

einmalig, unvorhersehbar, inhomogen und<br />

finden unter gegebenen lokalen Bedingungen statt.<br />

Designer entwickeln Strategien und Vorgehensweisen,<br />

um in solchen Problemlagen Lösungen zu<br />

finden: Designerisches Denken erfordert Kreativität<br />

und produktives Denken um kontingente Lösungen<br />

zu entwickeln, die sich nicht direkt aus einer Analyse<br />

ableiten lassen. Design bedeutet jedoch auch Methoden<br />

und Vorgehensweisen, die beschreibbar, systematisierbar<br />

und erlernbar sind, zu nutzen. Dieses<br />

Kapitel entwickelte einen Designansatz zur Lösungsfindung,<br />

das heißt zur Planung eines Lehr-/Lern-Szenarien<br />

in dem die Interaktion mit Technologien eine<br />

Rolle spielt. Der Designprozess wurde als objektorientierte<br />

Untersuchung angelegt. Durch die Formulierung<br />

von Designhypothesen und Fragen, durch die<br />

Konzeption und Erprobung von Prototypen und die<br />

Erklärung der Veränderung von Wissenspraktiken,<br />

wird Wissensgenerierung durch Design angestrebt.<br />

Die materiale/zeichenhafte Qualität des Artefakts als<br />

Untersuchungsinstrument wird in die Hypothese<br />

(Designhypothese) einbezogen. Pädagoginnen und<br />

Pädagogen sind als Designerinnen und Designer befähigt,<br />

konzeptionelle Ideen in die Technologieentwicklung<br />

einzubringen und mittels Designrepräsentationen<br />

zu formulieren. Zu den Designwissenschaften<br />

kann die Pädagogik in mehrfacher Hinsicht beitragen:<br />

Zum einen kann sie in wissensintensiven Gegenstandsbereichen<br />

durch designgetriebene Prozesse<br />

konzeptionelle Innovation generieren zum anderen<br />

kann sie wissensgenerierende Prozesse im Design<br />

fördern und untersuchen. Sie kann die Entwicklung<br />

didaktischer Modelle als Design anlegen und den<br />

Status von Designwissen wissenschaftstheoretisch<br />

fundieren.<br />

Designentwicklung. Anregungen aus Designtheorie und Designforschung— 13<br />

Danksagung<br />

Wir danken unseren Studierenden an der FH Oberösterreich,<br />

Studiengang Kommunikation, Wissen, Medien und an der<br />

Christian-Albrechts-Universität zu Kiel, Institut für Pädagogik,<br />

Schwerpunkt Medienpädagogik/Bildungsinformatik für die Erprobung<br />

des Ansatzes Design als Wissensgenerierung als Forschungsansatz<br />

und für die Bereitstellung zahlreicher Designrepräsentationen<br />

und Designideen für unsere Untersuchung der<br />

Rolle und materialen/zeichenhaften Qualität von epistemischen<br />

Artefakten in Wissensgenerierungsprozessen. Ein Beispiel<br />

aus der Praxis von Florian Scheppelmann und Sven Meier<br />

(Sommersemester 2010) kann auf den eigens für dieses Kapitel<br />

bereitgestellten Wikiseiten unter der folgenden Adresse abgerufen<br />

werden: http://ukzizm-s04.izm.uni-kiel.de/tiki5/tiki-index.php?page=L3T-Startseite.<br />

Für Rückmeldungen auf frühere<br />

Versionen des Textes, die erheblich zur Verbesserung beigetragen<br />

haben, danke ich den MitarbeiterInnen am Institut für<br />

Pädagogik, Abteilung Medienpädagogik/Bildungsinformatik,<br />

insbesondere Dr. F.-W. Lehmhaus, Dr. W. v. Grone-Lübke und<br />

G. Tanski, StR i.H.<br />

Weiterführende Literatur<br />

▸ Buchenau, M. & Suri, J. F. (2000). Experience Prototyping. Designing<br />

Interactive Systems. In: Proceedings of the 3rd Conference<br />

on Designing Interactive Systems: Processes, Practices,<br />

Methods, and Techniques. New York: ACM, 424-433.<br />

▸ Buxton, B. (2007). Sketching User Experience: Getting the<br />

Design Right and the Right Design. Amsterdam: Morgan<br />

Kaufmann, Elsevier.<br />

▸ Cross, N. (2007). Designerly Ways of Knowing. Berlin: Birkhäuser<br />

Architektur.<br />

▸ Lawson, B. (2005). How Designers Think: The Design Process<br />

Demystified. Amsterdam: Architectural Press, Elsevier.<br />

▸ Löwgren, J.& Stolterman, E. (2007). Thoughtful Interaction<br />

Design: A Design Perspective on Information Technology.<br />

Cambridge: MIT Press.<br />

Literatur<br />

▸ Allert, H., Richter, C. (2009). Design as Open-Ended Inquiry.<br />

In: V. Hornung-Prähauser, M. Luckmann & D. Wieden-Bischof<br />

(Hrsg.), Creativitiy and Innovation Competencies on the Web -<br />

How does the "new" emerge with the support of Web Technologies.<br />

Salzburg: Salzburg Research, 206-221.<br />

▸ Boedker, S.; Andersen, P. B. (2005). Complex Mediation.<br />

Human-Computer Interaction, 20(1), 353-402.<br />

▸ Brown, A.L. (1992). Design Experiments: Theoretical and Methodological<br />

Challenges in Creating Complex Interventions in<br />

Classroom Settings. The Journal of the Learning Sciences, 2(2),<br />

141-178.<br />

▸ Carroll, J. (2004). Completing Design in Use: Closing the Appropriation<br />

Cycle. URL:<br />

http://citeseerx.ist.psu.edu/viewdoc/summary?<br />

doi=10.1.1.144.800 [2010-07-10].


14 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

▸ Collins, A. (1992). Toward a design science of education. In: E.<br />

Scanlon & T. O’Shea (Hrsg.), New Directions in Educational<br />

Technology, Berlin/Heidelberg: Springer.<br />

▸ Coyne, R. (1988). Logic Models of Design. New York: Routledge.<br />

▸ Cross, N. (1995). Discovering Design Ability. In: R. Buchanan<br />

& V. Margolin (Hrsg.), Discovering Design: Explorations in<br />

Design Studies. London: University of Chicago Press.<br />

▸ Eisenstein, E. (1997). Die Druckerpresse. Kulturrevolutionen<br />

im frühen modernen Europa. Wien: Springer.<br />

▸ Engeström, Y. (2005). Developmental Work Research: Expanding<br />

Activity Theory in Practice. Berlin: Lehmanns Media.<br />

▸ Fallman, D. (2003). Design-oriented Human-Computer Interaction.<br />

In: Proceedings of the Conference on Human Factors<br />

in Computing Systems, CHI 2003. ACM Press, 225–232.<br />

▸ Findeli, A.; Brouillet, D.; Martin, S.; Moineau, C. & Tarrago, R.<br />

(2008). Research Through Design and Transdisciplinarity: A<br />

Tentative Contribution to the Methodology of Design Research.<br />

Bern: Swiss Design Network Symposium, 67-98.<br />

▸ Gedenryd, H. (1998). How Designers Work. Lund: University<br />

of Lund.<br />

▸ Giesecke, M. (1991). Der Buchdruck in der frühen Neuzeit.<br />

Eine historische Fallstudie über die Durchsetzung neuer Informations-<br />

und Kommunikationstechnologien. Frankfurt am<br />

Main: Suhrkamp.<br />

▸ Goldkuhl, G. (2004). Design Theories in Information Systems<br />

- A Need for Multi-Grounding. Journal of Information Technology<br />

Theory and Application (JITTA), 6(2), 2004, 59-72.<br />

▸ Kelly, A.E.; Lesh, R.A. & Baek, J.Y. (2008). Handbook of<br />

Design Research Methods in Education - Innovations in<br />

Science, Technology, Engineering, and Mathematics Learning<br />

and Teaching. New York: Routledge.<br />

▸ Knorr-Cetina, K. (2002). Wissenskulturen: Ein Vergleich naturwissenschaftlicher<br />

Wissensformen. Frankfurt am Main:<br />

Suhrkamp.<br />

▸ Kuutti, K. (1996). Activity theory as a Potential Framework for<br />

Human-Computer Interaction Research. In: B. Nardi (Hrsg.),<br />

Context and Consciousness: Activity Theory and Human<br />

Computer Interaction. Cambridge: MIT Press, 17-44.<br />

▸ Latour, B. (2010). Eine neue Soziologie für eine neue Gesellschaft:<br />

Einführung in die Akteur- Netzwerk-Theorie. Frankfurt<br />

am Main: Suhrkamp.<br />

▸ Mareis, C. (2010). Interferenzen zwischen Designwissenschaft<br />

und Wissenschaftsforschung. In: F. Romero-Tejedor & W.<br />

Jonas (Hrsg.), Positionen der Designwissenschaft. Kassel:<br />

Kassel University Press.<br />

▸ Preece, J.; Rogers, Y. & Sharp, H. (2002). Interaction Design:<br />

Beyond Human-Computer Interaction. New York: Wiley.<br />

▸ Reeves, T. C. (2006). Design Research from a Technology Perspective.<br />

In: J. Van den Akker; K. Gravemeijer; S. McKenney &<br />

N. Nieveen (Hrsg.), Educational Design Research. Milton Park:<br />

Routledge.<br />

▸ Reigeluth, C. & Schank, R. C. (1999). Instructional Design<br />

Theories and Models: A New Paradigm of Instructional<br />

Theory. Hillsdale: Lawrence Erlbaum Ass..<br />

▸ Schnotz, W. (2009). Pädagogische Psychologie. Weinheim:<br />

Beltz.<br />

▸ Schön, D.A. (1983). The Reflective Practitioner: How Professionals<br />

think in Action. London: Maurice Temple Smith.<br />

▸ Shamiyeh, M. (2010). Creating Desired Futures: How Design<br />

Thinking Innovates Business. Berlin: Birkhäuser Architektur.<br />

▸ Simon, H. A. (1969). Science of the Artificial. Cambridge: MIT<br />

Press.<br />

▸ Stephan, P. F. (2006). Nicht-Wissen als Ressource sowie sieben<br />

Thesen zu künftiger Wissensarbeit. P. F. Stephan & U.<br />

Bleimann (Hrsg.), Zeitschrift für interaktive und kooperative<br />

Medien 2, 4-11.<br />

▸ Stephan, P. F. (2009). Design Thinking. URL: http://www.peterstephan.org/themen/designthinking<br />

[2010-10-20].<br />

▸ Van den Akker, J. (1999). Principles and methods of developmental<br />

research. In: J. van der Akker; R.M. Branch; K. Gustafson;<br />

N. Nieveen & T. Plomp (Hrsg.), Design Approaches<br />

and Tools in Education and Training, Boston: Kluwer Academic<br />

Publishers.<br />

▸ Wood, J. (2007). Design for Micro-Utopias: Making the Unthinkable<br />

Possible. Hampshire, UK: Gower.


Sabine Zauchner<br />

Geschlechterforschung<br />

Ihr Blick auf das Lernen und Lehren mit neuen Technologien<br />

Der Beitrag vermiEelt einen Überblick über die grundlegenden Konzepte der Geschlechterforschung und<br />

deren Bedeutung für das Lernen und Lehren mit neuen Technologien. Einleitend werden der Begriff<br />

„Gender“ sowie das Konzept des „Doing Gender“ erklärt und das Erkenntnisinteresse der Geschlechterfor-­‐<br />

schung dargelegt. Es lassen sich im Wesentlichen drei Ansätze – Gleichheitsansatz, Differenzansatz und<br />

(De-­‐) KonstrukCvismus – unterscheiden, deren zentrale Fragestellungen im Kontext des Lernens und<br />

Lehrens mit neuen Technologien vorgestellt werden. Dabei werden neben den Forschungsergebnissen der<br />

Bildungsforschung oder der MedienwissenschaHen vor allem die Theoriebildung und Forschungsergeb-­‐<br />

nisse der Geschlechterforschung in der Technik breit rezipiert. Insbesondere das Verständnis von Techno-­‐<br />

logie als soziale KonstrukCon war bedeutsam für die Entwicklung des Konzepts der „sozialen Co-­‐Kon-­‐<br />

strukCon von Gender und Technologie“, das in seiner Bedeutung für die Forschung zum Lernen und Lehren<br />

mit neuen Technologien beschrieben wird.<br />

Quelle: Lisa Norwood<br />

hEp://www.flickr.com/photos/lisanorwood/1348465462/ [2011-­‐01-­‐10]<br />

Jetzt Pate werden!<br />

#gender<br />

#spezial<br />

#theorieforschung<br />

Version vom 1. Februar 2011<br />

Für dieses Kapitel wird noch ein Pate gesucht,<br />

mehr InformaConen unter: hEp://l3t.eu/patenschaH


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Konzept von Gender und Genderforschung<br />

Der Begriff „Gender“ ist seit nunmehr einigen Jahrzehnten<br />

in wissenschaftlichen Diskursen verankert.<br />

Unter Gender werden gesellschaftliche Geschlechterrollen<br />

und Geschlechterverhältnisse v e rstanden.<br />

Dabei handelt es sich um allgemeine Vorstellungen<br />

und Erwartungen dahingehend, wie<br />

Frauen und Männer sind beziehungsweise sein<br />

sollten. Gender bezeichnet alles, was in einer Kultur<br />

als typisch für ein bestimmtes Geschlecht angesehen<br />

wird. Diese Sichtweise ist gekennzeichnet<br />

durch ein Verständnis von Geschlecht als sozial konstruiert.<br />

Geschlechtliches Positionieren und Verhalten<br />

ist ein zentraler Anspruch der Gesellschaft an Individuen.<br />

Geschlechtsbezogene Identifikationsprozesse<br />

beinhalten komplexe Aneignungsprozesse vorgegebener<br />

sozialer Identitätsangebote. Die Zuordnung zu<br />

einem Geschlecht wird – entlang der gesellschaftlich<br />

gegebenen Geschlechterordnung – ständig neu hergestellt<br />

und ist damit veränderbar. Das Konzept des<br />

„Doing Gender“ (West & Zimmermann, 1987) wird<br />

hierbei als Synonym für die Sichtweise der sozialen<br />

Konstruktion – für das aktive Herstellen – von Geschlecht<br />

verstanden.<br />

Gender ist eine fundamentale Analysekategorie,<br />

die Kultur und Gesellschaft nicht nur prägt, sondern<br />

auch deren kulturelle Bedeutungsgebung organisiert.<br />

Es gibt keine soziale Situation, in der es ohne Belang<br />

ist, ob wir als Frau oder Mann gesehen werden und<br />

welche Zuschreibungen in Abhängigkeit von zahlreichen<br />

Faktoren wie Alter, Ausbildung, beruflicher<br />

Stellung, kultureller und nationaler Herkunft damit<br />

einhergehen. Die Wechselwirkungen von Diskriminierungen<br />

vielfacher sozialer Ungleichheiten wie Geschlecht<br />

und Klassen- beziehungsweise Schichtzugehörigkeit,<br />

ethnische Zugehörigkeit, sexuelle Orientierung,<br />

Religion, Alter oder (körperliche) Behinderung<br />

stehen im Rahmen der Geschlechterforschung<br />

im Zentrum des Konzeptes der Intersektionalität.<br />

Damit trägt die Geschlechterforschung der an<br />

sie herangetragenen Kritik eines Reduktionismus<br />

Rechnung, sich auf die Strukturkategorie Geschlecht<br />

alleine zu beschränken, ohne die Wechselwirkungen<br />

mit anderen sozialen Ungleichheiten zu betrachten<br />

(Lenz, 2010).<br />

Geschlechtszugehörigkeit strukturiert unseren<br />

Alltag; sie ist „omnirelevant“ und sie wird von Individuen<br />

in Interaktion mit gesellschaftlichen Bedingungen<br />

in einem permanenten, alltäglichen interaktiven<br />

Prozess immer wieder hergestellt und gefestigt<br />

(Gildemeister, 2008).<br />

!<br />

Unter „Gender“ werden gesellschaHliche Geschlech-­‐<br />

terrollen und Geschlechterverhältnisse verstanden.<br />

Gender wird entlang gesellschaHlich gegebener Ge-­‐<br />

schlechterordnungen ständig neu hergestellt und ist<br />

damit veränderlich. Die Geschlechterforschung zielt<br />

darauf ab, Mechanismen offen zu legen, die zu Zu-­‐<br />

schreibungen besCmmter EigenschaHen, Erwartungen<br />

oder Verhaltensmuster an die Geschlechter be-­‐<br />

sCmmen.<br />

Ausgehend von dieser Begriffsdefinition zielt die Geschlechterforschung<br />

darauf ab, jene Mechanismen offenzulegen,<br />

in denen Gender – die Zuschreibung von<br />

Geschlecht und die damit einhergehende Hierarchisierung<br />

– wirksam wird. Die Genderforschung hat<br />

auf vielfältige Weise Eingang in unterschiedliche<br />

Fachdisziplinen gefunden und hat sich aber auch als<br />

eigenes – interdisziplinäres – Fachgebiet etabliert.<br />

2. Ansätze und Fragestellungen der Genderforschung im<br />

Kontext des Lernen und Lehrens mit Technologien<br />

Im Versuch einer Systematisierung der heterogenen<br />

Ansätze der Genderforschung lassen sich im Wesentlichen<br />

drei Perspektiven in ihrer historischen Entwicklung<br />

abgrenzen, die in der Folge kurz umrissen<br />

werden. Dieser Versuch der Systematisierung ist mit<br />

einer gewissen Unschärfe belegt, wie es wohl auch für<br />

jegliche Taxonomie gelten mag. Allerdings stellt er<br />

aus Sicht der Autorin eine praktikable Basis für die<br />

Einordnung der Ansätze der Genderforschung dar.<br />

Aktuell stehen zwar insbesondere (de-) konstruktivistische<br />

Ansätze im Zentrum der Diskussion, aber<br />

auch frühere Ansätze behalten in ihren gesellschaftspolitischen<br />

und inhaltlichen Anliegen bis heute ihre<br />

Gültigkeit. Die Ansätze gelten trotz zum Teil heftig<br />

geführter Debatten nicht als überholt, vielmehr kritisieren<br />

und/oder ergänzen sie sich gegenseitig.<br />

Der Ursprung der Frauenforschung in den 1960er<br />

Jahren wird im Gleichheitsansatz gesehen. Dieser<br />

Ansatz entsprang einer parteiischen Perspektive, in<br />

der davon ausgegangen wurde, dass sich sowohl die<br />

Wissenschaft als auch die Gesellschaft aus Frauensicht<br />

anders darstellte. Im Zentrum steht die Forderung<br />

nach der Gleichberechtigung der Geschlechter.<br />

Es wird von einer Gleichheit der Geschlechter<br />

ausgegangen und Geschlechterunterschiede werden<br />

als gesellschaftlich bedingt erklärt. Die Fragestellungen<br />

im Rahmen des Gleichheitsansatzes untersuchen,<br />

wie Frauen aufgrund gesellschaftlicher Mechanismen<br />

diskriminiert werden.<br />

Im Kontext des Lernens und Lehrens mit neuen<br />

Technologien steht hier beispielsweise die Frage im<br />

Zentrum, wie sich die gesellschaftliche Stellung der


Geschlechterforschung. Ihr Blick auf das Lernen und Lehren mit neuen Technologien — 3<br />

Geschlechter in der Technologieentwicklung abbildet.<br />

Aber auch der Zugang zu Technologien beziehungsweise<br />

aus einer bildungswissenschaftlichen Perspektive<br />

der Zugang zu Bildung im Allgemeinen oder<br />

stereotype mediale Repräsentationen von Männern<br />

und Frauen werden hier thematisiert.<br />

Unter Differenzansätzen sind all jene Theorien<br />

und Konzepte subsumiert, die von Geschlechtsunterschieden<br />

zwischen Männern und Frauen ausgehen.<br />

Der Ansatz basiert auf der Annahme unterschiedlicher<br />

Lebensäußerungen von Männern und Frauen<br />

durch die Einbindung in unterschiedliche Lebenswelten.<br />

Fragestellungen, die sich aus dieser Perspektive für<br />

das Lernen und Lehren mit neuen Technologien ergeben,<br />

sind beispielsweise das Internet-Nutzungsverhalten<br />

oder die Internetkompetenzen von Männern<br />

und Frauen, die Interessen für oder Einstellungen gegenüber<br />

neuen Technologien, Computern oder elektronischen<br />

Spielen. Aber auch geschlechtsspezifische<br />

Präferenzen für bestimmte didaktische Modelle<br />

stehen im Zentrum der Untersuchungen. Zu diesen<br />

Fragen liegt mittlerweile eine relativ breite Forschungsbasis<br />

vor (für einen Überblick vgl. Abbot et<br />

al., 2007). Kritisch wird an Differenzansätzen angemerkt,<br />

dass sie alleine durch die Benennung geschlechtsspezifischer<br />

Unterschiede – aber noch mehr<br />

durch die Einbeziehung dieser Forschungsergebnisse<br />

in die Gestaltung technologieunterstützter Lernszenarien<br />

– zu einer Festschreibung dieser Unterschiede<br />

beitragen und damit strukturell symbolische Hierarchisierungen<br />

reproduziert werden.<br />

So wird in Ansätzen des (De-) Konstruktivismus<br />

das Augenmerk auf die gesellschaftliche Konstruktion<br />

der Zweigeschlechtlichkeit gelegt. Es wird<br />

davon ausgegangen, dass wir nicht zweigeschlechtlich<br />

geboren werden (Hageman-White, 1988). Das Augenmerk<br />

wird hierbei auf die Herstellung des sozialen<br />

Geschlechts – auf das „Doing Gender“– in Interaktionen<br />

und sozialen Prozessen gelegt: Gender<br />

wird in permanenten Zuschreibungs-, Wahrnehmungs-<br />

und Darstellungsroutinen reproduziert, die<br />

sich lebensgeschichtlich verfestigen und identitätswirksam<br />

sind. Dem Doing Gender kommt damit eine<br />

weitreichende Bedeutung in der Konstruktion von<br />

Weiblichkeit und Männlichkeit zu (Abschnitt 1).<br />

Während sowohl Gleichheits- als auch Differenzansatz<br />

davon ausgehen, dass das biologische und<br />

das soziale Geschlecht analytisch voneinander getrennt<br />

werden können, wird diese zentrale Annahme<br />

der frühen Geschlechterforschung im Dekonstruktivismus<br />

verneint. Judith Butler (1990; 1991) als wohl<br />

prominenteste Vertreterin dieser Richtung versteht<br />

nicht nur Gender, sondern auch das biologische Geschlecht<br />

(Sex) als diskursive Konstruktion, die permanent<br />

performativ – das heißt im ständigen Zitieren<br />

von (Geschlechter-)normen – hergestellt wird. Im<br />

Dekonstruktivismus steht einerseits die Dekonstruktion<br />

von Dichotomien allgemein, aber auch des<br />

Systems der Zweigeschlechtlichkeit im Vordergrund.<br />

Zwar wird in diesem theoretischen Ansatz das gleiche<br />

„Material“ für die Analyse herangezogen, es ist aber<br />

nicht das Herausarbeiten von Unterschieden, welcher<br />

die Forschungsfragen hier bestimmt, vielmehr interessiert<br />

die Dekonstruktion von Geschlechterpolaritäten<br />

wie beispielsweise die Differenz von Entwicklern<br />

beziehungsweise Entwicklerinnen und Nutzenden<br />

von Technologien. Unterschiede zwischen<br />

den Geschlechtern interessieren somit in ihrer<br />

Funktion zur Herstellung und Aufrechterhaltung der<br />

Zweigeschlechtlichkeit.<br />

Im Kontext des Lernens und Lehrens mit neuen<br />

Technologien, werden neben den Forschungsergebnissen<br />

der Bildungsforschung oder der Medienwissenschaften<br />

insbesondere Theoriebildung und Forschungsergebnisse<br />

der Geschlechterforschung in der<br />

Technik rezipiert. Auf die Zusammenhänge von Geschlecht<br />

und Technologie wird daher auch schwerpunktmäßig<br />

in der Folge eingegangen.<br />

!<br />

?<br />

Es lassen sich im Wesentlichen drei Ansätze der Ge-­‐<br />

schlechterforschung in ihrer zeitlichen Abfolge unter-­‐<br />

scheiden: Gleichheitsansatz, Differenzansatz und (De-­‐)<br />

KonstrukCvismus. Deren inhaltliche und gesellschaHs-­‐<br />

poliCsche Schwerpunktsetzungen besCmmen die for-­‐<br />

schungsleitenden Fragestellungen im Kontext des<br />

Lehrens und Lernens mit neuen Technologien.<br />

Beschreiben Sie die wesentlichen Eckpunkte der An-­‐<br />

sätze in der Geschlechterforschung. Wo würden Sie<br />

Ihre eigene PosiCon am ehesten verorten? Welche<br />

Vor-­‐ beziehungsweise Nachteile entdecken Sie in-­‐<br />

nerhalb der Ansätze?<br />

3. Gender und (neue) Technologie<br />

Bis in die späten 80er Jahre des 20. Jahrhunderts war<br />

das Konzept des technologischen Determinismus das<br />

vorherrschende Modell in der Gender- und Technologie-Debatte.<br />

In dieser mittlerweile in den Sozialund<br />

Kommunikationswissenschaften als überholt angesehenen<br />

Theorieströmung wird davon ausgegangen,<br />

dass Technik soziale, politische und kulturelle<br />

Veränderungen beziehungsweise Anpassungen nach<br />

sich zieht und dass sozialer und kultureller Wandel<br />

eine Folge technologischer Entwicklungen seien. Die


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

feministische Forschung in der Tradition der Gleichheitsansätze<br />

konzentrierte sich dabei primär auf die<br />

Fragestellungen dahingehend, wie technologische<br />

Entwicklungen Gender-Hierarchien reproduzieren<br />

können. Der Tenor ging weitgehend in die Richtung<br />

pessimistischer Einschätzungen im Hinblick darauf,<br />

dass Frauen Raum im Bereich der männlich dominierten<br />

und patriarchal organisierten Technologie zugestanden<br />

werden könnte. Technologie wurde primär<br />

als eine negative Kraft betrachtet, die Geschlechterhierarchien<br />

vielmehr reproduziert und damit eine<br />

weitere Verfestigung der strukturellen Benachteiligung<br />

von Frauen fördert, als zu einer Transformation<br />

der Geschlechterverhältnisse beizutragen.<br />

Diese negative Sichtweise der Bedeutung von<br />

Technologien für die Geschlechterfrage wich in der<br />

weiteren Entwicklung feministischer Theorien positiveren<br />

Vorstellungen, die sich insbesondere der Betrachtung<br />

von Frauen als Opfer der gesellschaftlichtechnischen<br />

Gegebenheiten entgegenstellten. Die<br />

bahnbrechenden Arbeiten von Haraway (1991), die in<br />

ihrem „A Cyborg Manifesto“ dazu ermutigt und auffordert,<br />

das positive Potential von Technologien<br />

wahrzunehmen, sind kennzeichnend für diese Perspektivenänderung<br />

in der Gender- und Technologie-<br />

Debatte. Im Kontext neuer Technologien wird hier<br />

insbesondere auf Möglichkeiten hingewiesen, die das<br />

Internet für die Exploration von oder das Experimentieren<br />

mit neuen und anderen Aspekten des<br />

Selbst bieten kann (Turkle, 1995). Unterstützt wird<br />

diese Sichtweise dadurch, dass es gerade in der Altersklasse<br />

der Jugendlichen und jungen Erwachsenen<br />

in der westlichen Welt in Bezug auf den zeitlichen<br />

Umfang der Internet-Nutzung zu einer Annäherung<br />

der Geschlechter kommt, auch wenn Unterschiede<br />

im Nutzungsverhalten, beispielsweise bei Computerspielen,<br />

weiterhin bestehen bleiben (Dholakia et al.,<br />

2004).<br />

Die soziale KonstrukEon von Technologie<br />

Das Verständnis von Technologie als soziale Konstruktion<br />

(„Social construction of Technology“,<br />

Pinch & Bijker, 1985) kann hier als impulsgebend für<br />

die feministische Forschung angesehen werden. Es<br />

wird davon ausgegangen, dass nicht die Technologie<br />

das menschliche Handeln bestimmt, sondern dass das<br />

menschliche Handeln die Technologie bestimmt. Die<br />

Art und Weise wie Technologie verwendet wird, kann<br />

nicht ohne den sozialen Kontext, in den sie eingebettet<br />

ist, verstanden werden. Vertreter/innen dieser<br />

Theorie gehen davon aus, dass Technologie deshalb<br />

„funktioniert“ beziehungsweise „nicht funktioniert“,<br />

weil sie von bestimmten sozialen Gruppen akzeptiert<br />

beziehungsweise nicht akzeptiert wird. Zentral aus<br />

der Gender-Perspektive ist hier das Konzept der interpretativen<br />

Flexibilität; das bedeutet, dass Technologien<br />

bei unterschiedlichen sozialen Gruppen unterschiedliche<br />

Bedeutungen haben können. So kann<br />

Lerntechnologie für Lernende eine organisatorische<br />

Notwendigkeit bedeuten, die Partizipation an Lernprozessen<br />

überhaupt erst ermöglicht. Für Lehrende<br />

wiederum kann die Möglichkeit einer qualitativen<br />

Verbesserung von Lehr-/Lern-Prozessen im Vordergrund<br />

stehen, während auf strategischer Ebene die<br />

Notwendigkeit des Reüssierens am (Weiter-) Bildungsmarkt<br />

im Vordergrund stehen kann.<br />

Derartige „relevante soziale Gruppen“ zeichnen<br />

sich dadurch aus, dass sie ein gleiches (beziehungsweise<br />

zwischen den Gruppen divergierendes) Verständnis<br />

der Bedeutung der Technologie haben, und<br />

sind dafür bestimmend, wie die Technologie gestaltet<br />

wird. Designentscheidungen orientieren sich so an<br />

den jeweiligen Kriterien der spezifischen Gruppen.<br />

Beim oben genannten Beispiel könnten dies neben<br />

einer Vielzahl anderer Kriterien für die Lernenden<br />

die Eignung für mobile Applikationen, für Lehrende<br />

die Möglichkeit, didaktische Funktionalitäten abzubilden<br />

und Adaptierbarkeit sein. Auf Ebene der Organisation<br />

wiederum können Servererfordernisse<br />

oder auch die Anbindungsmöglichkeit an die hauseigenen<br />

Verwaltungssysteme die relevanten Kriterien<br />

sein. Wenn Technologien also in unterschiedlichen<br />

sozialen Gruppen jeweils unterschiedliche Bedeutungen<br />

haben, gibt es folglich auch entsprechend<br />

viele unterschiedliche Arten, Technologien zu gestalten.<br />

Diese Sichtweise impliziert eine Sichtweise<br />

des Prozesses der Technikgestaltung als grundsätzlich<br />

verhandelbar und offen. Sehr schön zu beobachten<br />

war dieser Aushandlungsprozess in der Entwicklungsgeschichte<br />

von Lernplattformen, die ursprünglich<br />

sehr stark an der Technik orientiert waren,<br />

und bei denen erst in einem zweiten Entwicklungsstadium<br />

didaktische Aspekte verstärkt in den Vordergrund<br />

gestellt wurden.<br />

Auch wenn davon ausgegangen werden kann, dass<br />

die „relevanten sozialen Gruppen“, die in Verhandlungen<br />

beziehungsweise Kontroversen im Hinblick<br />

auf eine neue Technologie treten, nur zu einem geringen<br />

Teil aus Frauen bestehen, und damit tendenziell<br />

eine genderspezifische Analyse nicht stattfindet,<br />

entsteht hier ein Verständnis von Technologie, das<br />

entscheidend durch die sozialen Umstände sowie Gegebenheiten<br />

und damit natürlich auch durch die Geschlechterverhältnisse<br />

geprägt wird, in denen die<br />

Technologie entsteht.


!<br />

Geschlechterforschung. Ihr Blick auf das Lernen und Lehren mit neuen Technologien — 5<br />

Der technologische Determinismus wurde in der<br />

Gender-­‐ und TechnologiedebaEe durch ein Ver-­‐<br />

ständnis von Technologie als sozial konstruiert ab-­‐<br />

gelöst. Das Konzept der interpretaCven Flexibilität<br />

geht davon aus, dass Technologien in unterschied-­‐<br />

lichen Gruppen unterschiedliche Bedeutungen haben<br />

und es folglich viele Gestaltungsmöglichkeiten gibt:<br />

Damit wird der Prozess der Technikgestaltung als<br />

offen und verhandelbar verstanden.<br />

Die soziale Co-­‐KonstrukEon von Geschlecht und Tech-­‐<br />

nologie<br />

In der aktuellen Gender und Technologie-Debatte<br />

trifft das Konzept der sozialen Co-Konstruktion von<br />

Gender und Technologie auf breite Zustimmung (für<br />

einen Überblick vgl. Grint & Gill, 1995). Dabei wird<br />

davon ausgegangen, dass Gender und Technologie in<br />

einem wechselseitigen, flexiblen und formbaren Verhältnis<br />

zueinander stehen. Technologie, wird wie<br />

oben bereits festgestellt, nicht als neutral beziehungsweise<br />

wertfrei angesehen. Vielmehr wird argumentiert,<br />

dass soziale Beziehungen in Techniken und<br />

Werkzeugen „eingeschrieben“ sind, dass sich die Geschlechterverhältnisse<br />

in der Technologie sozusagen<br />

materialisieren. Technologien spiegeln somit die Geschlechterteilung<br />

beziehungsweise Ungleichheiten<br />

wider. Sie sind sowohl Grund für die als auch Konsequenz<br />

der Geschlechterverhältnisse (Wajcman, 2010).<br />

In der Praxis: Das Sparkling Science Projekt<br />

Das Sparkling Science Projekt fe|male (hEp://www.fe-­‐ma-­‐<br />

le.net) untersucht Web-­‐2.0-­‐Technologien unter dem Gen-­‐<br />

deraspekt und erforscht deren Einsatzmöglichkeiten im<br />

Unterricht. Dabei wird, wie in diesem Kapitel dargestellt,<br />

davon ausgegangen, dass Web-­‐2.0-­‐Technologien, durch<br />

welche die Grundgedanken des Web, also Nutzungsfreund-­‐<br />

lichkeit und ParCzipaCon verstärkt an Bedeutung gewinnen,<br />

zum „Eingangstor“ des Technik-­‐Gender-­‐Diskurses erklärt<br />

werden können.<br />

Das Projekt setzt an der Lebenswelt der Jugendlichen an.<br />

Unter Mädchen und Buben beliebte soziale Netzwerke (wie<br />

Facebook, MySpace, TwiEer, SchülerVZ) dienten als Ansatz-­‐<br />

punkte für die Entwicklung zukünHiger technologieunter-­‐<br />

stützter Lernszenarien in der Schule. Diese ApplikaConen<br />

wurden im Rahmen von Projektarbeiten an Schulen imple-­‐<br />

menCert und von den beteiligten Schülerinnen und Schülern<br />

sowie Lehrerinnen und Lehrern nach didakCschen und gen-­‐<br />

derspezifischen Aspekten im Hinblick auf einen Einsatz im<br />

Unterricht formaCv evaluiert.<br />

!<br />

Das Konzept der sozialen Co-­‐KonstrukCon von Ge-­‐<br />

schlecht und Technologie geht davon aus, dass<br />

Gender und Technologie in einem wechselseiCgen<br />

Verhältnis zueinander stehen. Technologie, und damit<br />

auch Lerntechnologie, wird nicht als neutral bezie-­‐<br />

hungsweise werlrei angesehen, sondern es wird ar-­‐<br />

gumenCert, dass soziale Beziehungen in Techniken<br />

und Werkzeugen „eingeschrieben“ sind, dass sich die<br />

Geschlechterverhältnisse zusammen mit der Techno-­‐<br />

logie sozusagen materialisieren.<br />

Hier wird Bezug genommen auf die Actors-<br />

Network-Theorie (Callon, 1986; Latour, 2005; siehe<br />

Kapitel #ant), in der das Verhältnis von Technologie<br />

und Gesellschaft durch die Metapher eines heterogenen<br />

Netzwerks beschrieben werden kann, in dem<br />

sich Technologie und Gesellschaft gegenseitig konstituieren.<br />

Die Netzwerke verbinden Menschen und<br />

nicht-menschliche Entitäten, wobei – gerade dieser<br />

Aspekt wird kontrovers diskutiert – beide als Akteure<br />

beziehungsweise Akteurinnen auftreten können. Im<br />

Rahmen dieser Theorie werden Überlegungen angestellt,<br />

wie die Akteurinnen beziehungsweise Akteure<br />

die Nutzenden von Technologien im Lebenszyklus<br />

einer Technologie formen. Designer/innen von<br />

Technologien „schreiben“ ihre Vision der Welt, ihre<br />

Vorstellungen über die Nutzenden der Technologien,<br />

in die Technologie „ein“. Diese „Einschreibung“ ist<br />

allerdings offen für unterschiedliche Übersetzungen<br />

Die Projektergebnisse sprechen dafür, dass Mädchen durch<br />

Web-­‐2.0-­‐Projekte gut angesprochen werden können:<br />

Obwohl die Projekte sowohl für Buben wie für Mädchen at-­‐<br />

trakCv sind, bewerten die Mädchen die mit den Projekten<br />

verbundenen Aspekte der Gruppenarbeit, der InterakCvität<br />

und des selbstorganisierten Lernens deutlich posiCver und<br />

beteiligen sich dementsprechend akCver und erfolgreicher<br />

an den Projekten.<br />

Obgleich der Schluss nahe liegt, dass sich dieses Verhältnis<br />

wieder umkehrt, sobald die Entwicklung der Technologien im<br />

Vordergrund steht und nicht deren Ausgestaltung, wirH dies<br />

die derzeit mit Blick auf männliche Bildungsverlierer rege dis-­‐<br />

kuCerte Frage auf, wie Buben in stärkerem Maße in derarCge<br />

Projekte einbezogen und darin gefördert werden können<br />

(Zauchner & Wiesner, in Vorbereitung).


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

durch die Nutzenden, welche die Bedeutung oder die<br />

Nutzung des Artefakts neu verhandeln können. Das<br />

wiederum bedeutet, dass Technologie, ebenso wie<br />

Gender, de-konstruiert werden kann. Weiters wird in<br />

diesem Ansatz die Bedeutung der Nutzerinnen und<br />

Nutzer von Technologien in deren Rolle in der Technologieentwicklung<br />

betont.<br />

Seit den 1990er Jahren wird dabei in der Genderforschung<br />

in der Informatik auf Nutzungsfreundlichkeit<br />

und partizipatives Design gesetzt<br />

(Schelhowe, 2001). Diese Forderung, Technik partizipativ<br />

und nutzungsfreundlich zu gestalten, ist beim<br />

Web 2.0 in dieser Form nicht mehr zu stellen, denn<br />

sie ist, zwar nicht über die Gestaltung sondern durch<br />

die Technologie an sich, bereits weitgehend realisiert.<br />

Nicht zuletzt wird dem Web 2.0 wegen seines offenen,<br />

nutzungsfreundlichen und partizipativen Charakters<br />

somit das Potential zugesprochen, eine Art<br />

„Eingangstor“ für ein neues Geschlechter-Technologie-Verhältnis<br />

zu bilden. Die wenigen empirischen<br />

Untersuchungen über die Nutzung von Web-2.0-<br />

Technologien aus einer Genderperspektive lassen<br />

jedoch noch keine eindeutigen Schlussfolgerungen<br />

zu. Carstensen (2009) fasst ihren Überblick über den<br />

Stand der Forschung wie folgt zusammen: „Wenn wir<br />

uns die frühen Hoffnungen und Befürchtungen aus<br />

feministischer Sicht vergegenwärtigen, erscheint in<br />

Zeiten des Web 2.0 vorerst die männliche Dominanz<br />

nicht mehr gegeben. So werden viele Weblogs von<br />

Frauen geschrieben, speziell von jüngeren Frauen.<br />

Das Internet kann nicht mehr als eine männliche<br />

Technologie angesehen werden - ob es allerdings zu<br />

einem weiblichen Medium geworden ist (...), bleibt<br />

offen“ (S. 118, eigene Übersetzung). Damit bezieht<br />

sich die Autorin darauf, dass Blogs zwar vermehrt<br />

von Frauen geschrieben werden, dass allerdings von<br />

Männern verfasste Blogs, vermutlich auf Grund von<br />

stärker auf Öffentlichkeit hin ausgerichteten Inhalten,<br />

auf mehr Resonanz stoßen. Soziale Netzwerke<br />

oder Wikis wiederum haben einerseits ein<br />

hohes Potential für politische Diskussion und inhaltliche<br />

Vernetzung, gleichzeitig wird die Binarität der<br />

Geschlechter über die Profildarstellungen in sozialen<br />

Netzwerken jedoch weitgehend der „realen Welt entsprechend“<br />

reproduziert.<br />

Jedenfalls ist jedoch festzuhalten, dass in gleicher<br />

Weise, wie jene beim technologiegestützten Lernen<br />

und Lehren eingesetzten Technologien nicht didaktisch<br />

neutral sind, sondern bei der Entwicklung von<br />

Softwarewerkzeugen für Lehr-/Lern-Zwecke immer<br />

auch pädagogische Theorie implementiert wird<br />

(Baumgartner, 2003), Technologie nicht genderneutral<br />

ist. Abbildungen von Genderstrukturen sind<br />

in den (Lehr- und Lern-) Technologien auf den<br />

ersten Blick jedoch schwerer erkennbar, weil durch<br />

Abstraktion und Technisierung „Objektivität“ und<br />

somit vermeintliche Wertefreiheit vermittelt wird.<br />

Laut Schinzel (2005) sind die hierfür nötigen Kategorienbildungen<br />

immer generalisierend, womit sie wiederum<br />

die „Einfallstore“ für genderspezifische Festschreibungen<br />

und Normierungen darstellen.<br />

?<br />

?<br />

?<br />

Danksagung<br />

Ich bedanke mich bei den beiden Gutachterinnen Mag. Veronika<br />

Hornung-Prähauser und Dr. Corinna Barth für ihre<br />

wertvollen inhaltlichen Anregungen<br />

Weiterführende Literatur<br />

▸ Braun, C. v. & Stephan, I. (2005). Gender@Wissen. Ein<br />

Handbuch der Geschlechtertheorien. Köln: Böhlau UTB.<br />

▸ Butler, J. (2004). Undoing Gender. New York: Routledge.<br />

▸ Klein, S.; Richardson, B.; Grayson, D. A.; Fox, L. H.; Kramarae,<br />

C.; Pollard, D. S.; Dwywe, C. A. (2007). Handbook for<br />

Achieving Gender Equity through Education. London: Lawrence<br />

Erlbaum Ass..<br />

▸ Schulz-Schaeffer, I. (2000). Sozialtheorie der Technik.<br />

Frankfurt am Main: Campus.<br />

▸ Trauth, E. M. (2006). Encyclopedia of Gender and Information<br />

Technology. Hershey: Idea Group.<br />

Literatur<br />

DiskuCeren Sie in der Gruppe: Wie könnte ein Unter-­‐<br />

suchungsansatz aussehen, der sich zum Ziel setzt, ge-­‐<br />

schlechtlichen ‚Einschreibungen’ von Lernplazormen,<br />

Wikis, Blogs (wahlweise) zu analysieren. Was müsste<br />

dabei berücksichCgt werden?<br />

Was ist unter der sozialen Co-­‐KonstrukCon von Ge-­‐<br />

schlecht und Technologie zu verstehen? Versuchen<br />

Sie, diesen Ansatz einem Kollegen beziehungsweise<br />

einer Kollegin zu erklären.<br />

DiskuCeren Sie in der Gruppe: Eine differenztheore-­‐<br />

Csche Betrachtung des Lernens und Lehrens mit<br />

neuen Technologien verfesCgt Stereotypen vielmehr<br />

als zu einer DekonstrukCon der Geschlechterhierar-­‐<br />

chien beizutragen. Welche ImplikaConen lassen sich<br />

aus dieser Aussage für die Forschung ableiten?<br />

▸ Abbot, G.; Bievenue, L.; Damarin, S.; Kramarae, C.; Jepkemboi,<br />

G. & Strawn, C. (2007). Gender Equity in the Use of Educational<br />

Technology. In: S. S. Klein; B. Richardson; D A.<br />

Grayson, L. H. Fox; C. Kramarae, D. S. Pollard & C. A. Dwyer


Geschlechterforschung. Ihr Blick auf das Lernen und Lehren mit neuen Technologien — 7<br />

(Hrsg.), Handbook of Achieving Gender Equity through Education.,<br />

London: Lawrence Erlbaum Ass., 191-215.<br />

▸ Baumgartner, P. (2003). Didaktik, E-Learning-Strategien, Softwarewerkzeuge<br />

und Standards - Wie passt das zusammen?. In:<br />

M. Franzen (Hrsg.), Mensch und E-Learning. Beiträge zur eDidaktik<br />

und darüber hinaus., Aarau: Sauerländer, 9-25.<br />

▸ Butler, J. (1990). Gender Trouble: Feminism and the Subversion<br />

of Identity. New York Routledge.<br />

▸ Butler, J. (1991). Das Unbehagen der Geschlechter. Frankfurt<br />

am Main: Suhrkamp.<br />

▸ Carstensen, T. (2009). Gender Troubles in Web 2.0: Gender<br />

Relations in Social Network Sites, Wikis and Weblogs. In: International<br />

Journal of Gender, Science and Technology, 1 (1),<br />

105-127.<br />

▸ Callon, M. (1986). Some Elements of a Sociology of Translation:<br />

Domestication of the Scallops and the Fishermen of St<br />

Brieuc Bay. In: J. Law (Hrsg.), Power, Action and Belief: A New<br />

Sociology of Knowledge., London: Routledge, 196-229.<br />

▸ Dholakia, R. R.; Dholakia N. & Kshetri, N. (2004). Gender and<br />

Internet Usage. In: H. Bigdoli (Hrsg.), The Internet Encyclopedia,<br />

New York: Wiley, 12-22.<br />

▸ Gildemeister, R. (2008): Soziale Konstruktion von Geschlecht:<br />

Doing Gender. In: R. Becker & B. Kortendiek (Hrsg.),<br />

Handbuch Frauen- und Geschlechterforschung. Theorie, Methoden,<br />

Empirie., Wiesbaden: VS Verlag für Sozialwissenschaften,<br />

168-198.<br />

▸ Grunt, K. & G. Rosalind (1995). The Gender-Technology Relation:<br />

Contemporary Theory and Research. London: Taylor<br />

and Francis.<br />

▸ Hagemann-White, C. (1988). Wir werden nicht zweigeschlechtlich<br />

geboren ... .In: C. Hagemann-White & M. Rerrich<br />

(Hrsg.), FrauenMännerBilder. Männer und Männlichkeit in der<br />

feministischen Diskussion, Bielefeld: AJZ Verlag, 224-235.<br />

▸ Haraway, D. (1991). A Cyborg Manifesto: Science, Technology,<br />

and Socialist-Feminism in the Late Twentieth Century. In: D.<br />

Haraway (Hrsg.), Simians, Cyborgs and Women: The Reinvention<br />

of Nature, New York: Routledge, 149-181.<br />

▸ Kroll, R. (2002). Gender Studies. Geschlechterforschung.<br />

Stuttgart: Verlag J.B. Metzler.<br />

▸ Latour, B. (2005). Reassembling the Social: An Introduction to<br />

Actor-Network-Theory. Oxford: Oxford University Press.<br />

▸ Lenz, I. (2010). Intersektionalität: zum Wechselverhältnis von<br />

Geschlecht und sozialer Ungleichheit. In R. Becker & B. Kortendiek<br />

(Hrsg.), Handbuch Frauen- und Geschlechterforschung.<br />

Theorie, Methoden, Empirie, Wiesbaden: VS Verlag<br />

für Sozialwissenschaften, 158-165.<br />

▸ Pinch, T. J. & W. E. Bijker (1984). The Social Construction of<br />

Facts and Artefacts: Or How the Sociology of Science and the<br />

Sociology of Technology Might Benefit Each Other. In: Social<br />

Studies of Science, 14, 399-441.<br />

▸ Schelhowe, H. (2001). Offene Technologie - Offene Kulturen.<br />

Zur Genderfrage im Projekt Virtuelle Internationale Frauenuniversität<br />

vifu. In: FIFF Kommunikation, 14-18.<br />

▸ Schinzel, B. (2005): Das unsichtbare Geschlecht der Neuen<br />

Medien. In: M. Warnke; W. Coy & G. C. Tholen (Hrsg.), Hyperkult<br />

II. Zur Ortsbestimmung analoger und digitaler<br />

Medien., Bielefeld: Transcript Verlag.<br />

▸ Turkle, S. (1995). Life on the Screen: Identity in the Age of the<br />

Internet. New York: Simon & Schuster.<br />

▸ Wajcman, J. (2010). Gender and the Cultures of Technology,<br />

Work and Management. In: A.-S. Godfroy-Genin (Hrsg.),<br />

Women in Engineering and Technology Research, Berlin: Lit<br />

Verlag, 29-39.<br />

▸ West, C. & Zimmermann, D. H. (1987). Doing Gender. In:<br />

Gender and Society 1 (2), 125-151.<br />

▸ Zauchner, S. & Wiesner, H. (in Vorbereitung). Web 2.0, Gender<br />

und Schule: Wissenschaft trifft Praxis. Berlin: Lit Verlag.


Sandra Schön und Mark Markus<br />

Zukunftsforschung und Innovation<br />

… wissen was kommt<br />

Der Einsatz von Technologien beim Lernen und Lehren unterliegt einem schnellen Wandel. Aber nicht alles<br />

über das gerade noch begeistert berichtet wird, erfüllt die Erwartungen und findet tatsächlich Eingang in<br />

die Unterrichtspraxis. Aus den WirtschaHswissenschaHen liegen Modelle für die Aufnahme von Techno-­‐<br />

logien und Innova'onen am Markt vor, die bei der Beurteilung der aktuellen Situa'on helfen können.<br />

Ebenso gibt es aus dem Bereich der ZukunHsforschung Verfahren, die für technologiegestütztes Lernen<br />

und Lehren künHige Entwicklungen vorherzusagen versuchen. Dabei werden in der Regel Exper'nnen und<br />

Experten aus unterschiedlichen Disziplinen gebeten, Einschätzungen abzugeben. Abschließend werden in<br />

diesem Kapitel Verfahren und Ini'a'ven beschrieben, die ak'v bei der Entwicklung von Innova'onen un-­‐<br />

terstützen können.<br />

Quelle: quapan<br />

URL: hEp://www.flickr.com/photos/hinkelstone/2765597758/ [2011-­‐01-­‐01]<br />

Jetzt Pate werden!<br />

#innova'on<br />

#spezial<br />

#theorieforschung<br />

Version vom 1. Februar 2011<br />

Für dieses Kapitel wird noch ein Pate gesucht,<br />

mehr Informa'onen unter: hEp://l3t.eu/patenschaH


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Einleitung<br />

Moderne Medien und Technologien haben das<br />

Lernen und Lehren in den letzten Jahrzehnten<br />

deutlich verändert und neugestaltet. War die Schiefertafel<br />

etlichen Urgroßeltern heutiger Studierenden<br />

noch bekannt, gehören heute Lernende mit eigenen<br />

Laptops in das Bild eines Hörsaals an Universitäten<br />

oder in Weiterbildungsseminaren. Gerade die Erfindung<br />

und Verbreitung des World Wide Web intensivierte<br />

Diskussionen zu den Folgen von neuen Technologien<br />

für den Bildungsbereich. So ist es mit Hilfe<br />

des Internets nun sehr viel einfacher und nahezu<br />

überall möglich, an Informationen und Wissen zu gelangen.<br />

Mit den neuen Technologien verändern sich<br />

aber nicht nur konkrete Arbeitsweisen, sondern entwickeln<br />

sich vielfach auch neue Lehrkonzepte und<br />

-kulturen. Die Webtechnologien und die damit propagierten<br />

Werkzeuge für das Lernen stellen hohe Erwartungen<br />

an die Selbstlernkompetenz der Lernenden<br />

und Lehrenden und verändern die Rolle letzterer<br />

vom Experten weg hin zum Lernunterstützer.<br />

Eine Vielzahl von Initiativen und Projekten bemühen<br />

sich, zukünftige Entwicklungen für den<br />

Einsatz von Technologien vorherzusagen, mitzugestalten<br />

und auch Neues zu entwickeln. Dieser Beitrag<br />

bietet einen ersten Einstieg und Überblick über die<br />

Methoden und Ansätze, wie sich die aktuelle Bedeutung<br />

von technologischen Entwicklungen am<br />

Markt bewerten lässt, wie Zukunftsforschung durchgeführt<br />

wird und wie Innovationsentwicklung systematisch<br />

betrieben werden kann.<br />

2. Vom Buzzword und Innova8onen<br />

In der Informationstechnologie allgemein und auch<br />

in der (wissenschaftlichen) Diskussion zum technologiegestützten<br />

Lernen insbesondere ändert sich<br />

schnell, was gerade „en vogue“ beziehungsweise „in“<br />

ist. Vermeintlich potente Technologien und Lerntrends<br />

entwickeln sich rasch zu Buzzwords (englisch<br />

für „Modewort“). Häufig sind dies Wortneuschöpfungen<br />

oder neuartige Technologien: Sie dürfen in<br />

keinem Beitrag oder Antrag mehr fehlen und sorgen<br />

für Aufmerksamkeit. Ob sie dann wirklich nachhaltig<br />

die Lern- und Lehrpraxis innovieren, ist dabei in der<br />

Regel unklar.<br />

Für Praktiker/innen ist es nicht immer einfach,<br />

zwischen kurzfristigen Modeerscheinungen und tatsächlichen<br />

Innovationen und Trends im technologiegestützten<br />

Lernen zu unterscheiden beziehungsweise<br />

hier Einschätzungen zu treffen.<br />

!<br />

Eine Innova'on ist, aus dem Lateinischen abgeleitet,<br />

eine Neuerung, eine Erneuerung, eine Neueinführung<br />

oder eine Neuheit. Für WirtschaHswissenschaHler ist<br />

dabei auch der verbundene wirtschaHliche Markt-­‐<br />

erfolg bedeutsam, der Innova'onen von Erfindungen<br />

unterscheidet.<br />

Radikale Innovationen gibt es im pädagogischen<br />

Feld nur selten. Dies würde bedeuten, dass ein ganz<br />

neues Produkt, neue Dienstleistungen oder neue<br />

Konzepte entwickelt würden, die vorher nicht existierten.<br />

Ein Beispiel für eine radikale Innovation im<br />

Schulsystem ist die massive Aufwertung der schriftlichen<br />

Informationsmittel sowie die gleichzeitige Entwertung<br />

des gesprochenen Wortes in der Lehre im<br />

Zuge der Einführung der Buchdrucktechnologie im<br />

15. Jahrhundert (Giesecke, 1994, 29ff). Ein anderes<br />

Beispiel ist die Einführung der „schwarzen Tafel“:<br />

„Die Pädagogen, die die 'Große Schultafel' in ihren<br />

Unterricht einführten, wurden [zu Beginn] mit Berufsverbot<br />

belegt […] Die 'Große Schultafel' machte<br />

sozial-kommunikative Unterrichtsprozesse möglich,<br />

die im Vergleich zum herkömmlichen Unterricht […]<br />

als subversiv erlebt wurden“ (Wagner, 2004, 170; verweist<br />

auf Petrat, 1979).<br />

Erneuerungen im Bereich des technologiegestützten<br />

Lernens und Lehrens sind häufig Anpassungen,<br />

beispielsweise von vorhandenen Technologien<br />

für den Lernkontext, ohne dass sie eine radikale<br />

Innovation darstellen. So wurden Diskussionsforen,<br />

wie sie im Web schon bekannt waren, mit einer<br />

gewissen Verzögerung auch im webbasierten Unterricht<br />

eingesetzt.<br />

3. Theorien zur Einführung von Technologien<br />

Es gibt eine Reihe von Vorschlägen, die beschreiben,<br />

wie Innovationen und Technologien am Markt aufgenommen<br />

werden. Diese Konzepte stammen weitestgehend<br />

aus den Wirtschaftswissenschaften. Sie helfen<br />

dabei, den aktuellen Stand von Technologien und Innovationen<br />

am Markt einzuschätzen.<br />

Diffusionstheorie nach Roger und Moore<br />

Bekannt ist der Ansatz von Roger (2003), der die Adaption<br />

von Technologien bzw. die Verbreitung von<br />

Technologien anhand der erreichten Kundengruppen<br />

beschreibt: Die ersten 2,5 Prozent der potentiellen<br />

Nutzer/innen einer Technologie bezeichnet er als<br />

„Innovatoren“ und beschreibt diese als aggressive<br />

Verfolger/innen von neuen technologischen Trends.<br />

Danach folgen die „Early Adoptors“ („frühe Übernehmer“),<br />

sie sind seltener Technologen und kaufen<br />

diese Produkte, weil sie damit Visionen verbinden.


Selbst wenn diese beiden Gruppen erreicht wurden,<br />

ist noch nicht abgesichert, dass eine Technologie<br />

auch Markterfolg haben wird und die weiteren<br />

Gruppen der „frühen Mehrheit“ (engl. „early majority“)<br />

also eher konservative, aber für Neues offene<br />

Personen oder auch die „späte Mehrheit“ der älteren,<br />

schlechter ausgebildeten und konservativen Personen<br />

(engl. „late majority“ und schließlich die Nachzügler<br />

erreicht. Rogers beschreibt also mit seinem Modell<br />

die Art der Diffusion von technologischen Entwicklungen<br />

bei Kundengruppen.<br />

Moore (1999, 12ff) erweitert das Modell und<br />

nennt die Herausforderung „Chasm“, die Kluft, die<br />

überschritten werden muss, damit der Erfolg möglich<br />

ist und gibt dazu in seinem vielzitierten Buch<br />

„Crossing the Chasm“ Empfehlungen.<br />

?<br />

Ist dieses wirtschaHliche Konzept für Technologieein-­‐<br />

führungen ohne weiteres auf technologiegestütztes<br />

Lernen zu übertragen? Disku'eren Sie dazu, was<br />

genau der „Markt“ ist und in welcher Weise hier Inno-­‐<br />

va'onen „Produkte“ sind.<br />

Hype-­‐Zyklus nach Gartner<br />

Ein bekanntes Modell zur Beschreibung des Standes<br />

von Technologieeinführungen ist der Hype-Zyklus<br />

von Gartner. Gartner ist ein Beratungsunternehmen,<br />

das sich unter anderem auf die Bewertung und Prognose<br />

von technologischen Trends spezialisiert hat.<br />

Es hat dabei den Hype-Zyklus als typischen Prozess<br />

bei der Einführung neuer Technologien entwickelte<br />

(siehe Abbildung 1).<br />

Abbildung 1: Der Hype-­‐Zyklus nach Gartner<br />

Der Hype-Zyklus wird in fünf Phasen unterteilt,<br />

die mit (1) technologischer Auslöser, (2) Gipfel der<br />

überzogenen Erwartungen, (3) Tal der Enttäuschungen,<br />

(4) Pfad der Erleuchtung und (5) Plateau<br />

ZukunHsforschung und Innova'on … wissen was kommt— 3<br />

der Produktivität bezeichnet werden. Obwohl der<br />

Hype-Zyklus nach rechts eine zeitliche Dimension<br />

beinhaltet, können einzelne Trends diesen Hype-<br />

Zyklus schneller durchlaufen als andere. Gemein<br />

haben sie alle, dass nach der Entwicklung oder Entdeckung<br />

und einer ersten Euphorie das „Tal der Enttäuschungen“<br />

folgt, aus dem sie nur mehr schwer und<br />

mit unter sehr langsam herauskommen. Obwohl nach<br />

der Darstellung naheliegend, wird nicht jede neue<br />

Technologie zwangsläufig vom Markt akzeptiert und<br />

erreicht das „Plateau der Produktivität“.<br />

Auch im Bereich der Lerntechnologien und des<br />

Lernens und Lehrens mit Technologien allgemein<br />

kann man die hier beschriebenen Phasen, insbesondere<br />

die der überzogenen Erwartungen, oft vorfinden.<br />

Häufig wird diese Phase auch parallel von<br />

(überzogenen) Befürchtungen begleitet, so die Furcht<br />

der zukünftigen geringeren Bedeutung der Lehrenden<br />

durch den Einsatz von Technologien im Unterricht.<br />

?<br />

?<br />

Wo lassen sich Ihrer Meinung nach derzeit Begriffe<br />

wie „E-­‐Learning 2.0", „E-­‐Porpolio" und „Personal<br />

Learning Environment" auf dem Hype-­‐Zyklus ein-­‐<br />

ordnen? Ergänzen Sie eigene Begriffe.<br />

Sammeln Sie Beispiele aus dem Gebiet des technolo-­‐<br />

giegestützten Lernens, für die das Konzept des Hype-­‐<br />

Zyklus unpassend erscheint und disku'eren Sie die<br />

Beispiele mit Ihren Mitlernenden.<br />

4. ZukunLsforschung<br />

Um mehr über zukünftige Entwicklungen zu erfahren<br />

und diese einschätzen zu können, gibt es eine<br />

Reihe von Initiativen und Projekten, die regelmäßig<br />

Einschätzungen zur Zukunft des Lernens und<br />

Lehrens mit Technologien abgeben.<br />

Bei den nun angeführten Methoden wird dabei auf<br />

das Wissen von Expertinnen und Experten gesetzt.<br />

Ihre Meinungen aus ganz unterschiedlichen Disziplinen<br />

und die Effekte, die durch den Austausch und<br />

durch Aggregation ihrer Aussagen entstehen, werden<br />

als wesentlich dafür erachtet, gute Einschätzungen<br />

zukünftiger Entwicklungen zu erhalten.<br />

Im Folgenden beschreiben wir kurz häufiger verwendete<br />

Methoden der Zukunftsforschung und Beispiele<br />

für ihren Einsatz: die Delphi-Methode, die Szenario-Technik<br />

und die Methode des Road Mapping.<br />

Zusätzlich beschreiben wir die Methode des Horizon-Report,<br />

der jährlich erscheint und künftige Entwicklungen<br />

beim technologiegestützten Lernen und


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Lehren beschreibt sowie die Methode Prediction<br />

Markets. Alle Methoden schließen von aktuellen auf<br />

zukünftige Fälle (induktive Schlussfolgerungen) und<br />

sind daher erkenntnistheoretisch kritisierbar. Andererseits<br />

muss man bedenken, dass man bei eigenen<br />

und bei Handlungen von Organisationen nicht<br />

umhin kommt, eine Zukunft vorwegzunehmen. Die<br />

Frage ist daher nicht ob, sondern nur wie man diese<br />

Zukunft vorwegnimmt: Intuitiv oder doch einigermaßen<br />

systematisch.<br />

Die Delphi-­‐Methode<br />

Die Delphi-Methode ist ein mehrstufiges Verfahren,<br />

bei dem Expertinnen und Experten aus unterschiedlichen<br />

Disziplinen in moderierten Gruppendiskussionen<br />

zukünftige Trends und Entwicklungen identifizieren.<br />

Durch den Austausch der Experten und Zusammenfassung<br />

der ersten Runde wird erwartet, dass<br />

sich die Einschätzungen in den weiteren Runden<br />

konsolidieren. Die Delphi-Methode kann auch<br />

schriftlich erfolgen, wie es beispielsweise bei einer<br />

Befragung zur Einschätzung der zukünftigen Entwicklungen<br />

von Online-Prüfungen eingesetzt wurde:<br />

Schaffert (2004) hat dazu 48 Expertinnen und Experten<br />

in einer zweistufigen schriftlichen Befragung<br />

Aussagen bewerten lassen. Während es beim ersten<br />

Durchgang noch ein weites Spektrum an Aussagen<br />

und zukünftigen Entwicklungen gab, ergab sich in<br />

der zweiten Runde ein moderateres Bild: Die Befragten<br />

kamen beispielsweise zu dem Ergebnis, dass<br />

Online-Prüfungen vor allem in Branchen in denen<br />

Computer als Arbeitsgerät zum Alltag gehören, zukünftig<br />

häufiger eingesetzt werden wird.<br />

Die Szenario-­‐Technik<br />

Einen sehr breiten Ansatz verfolgt die Szenario-<br />

Technik (Steinmüller, 2002; Grunwald 2002). Die<br />

Szenario-Technik wurde in den 1950er Jahren im Militär<br />

entwickelt um Strategien zu entwickeln sowie<br />

Entwicklungen und Ergebnisse von komplexen Situationen<br />

einzuschätzen. Die Szenario-Technik versucht<br />

dabei Orientierungswissen zu geben, was in naher<br />

Zukunft passieren wird. Typischerweise werden dabei<br />

drei Szenarien untersucht: Zunächst einmal das wahrscheinlichste,<br />

überraschungsfreie mögliche Szenario.<br />

Dann gibt es das Worst-Case-Szenario, also eine Beschreibung<br />

der Entwicklung im schlechtesten Falle.<br />

Schließlich gibt es noch ein bestmögliches Szenario,<br />

also eine Beschreibung für eine bestmögliche, gewünschte<br />

Entwicklung (Boon et al., 2005, 207). Die<br />

Szenario-Technik zielt also darauf ab, das ganze<br />

Spektrum möglicher Entwicklungen aufzuzeigen, und<br />

nutzt dabei nicht nur Zahlen und Fakten (quantita-<br />

tives Vorgehen) sondern auch Einschätzungen und<br />

Vermutungen von Expertinnen und Experten (qualitatives<br />

Vorgehen). Beispielsweise wird diese Methode<br />

am „Institute for Prospective Technological Studies“<br />

im Feld des technologiegestützten Lernens eingesetzt<br />

(Miller et al., 2008, 23). E-Learning-Szenarien zu entwickeln<br />

wird, beispielsweise als Methode empfohlen,<br />

wenn man Entscheidungen zum zukünftigen Einsatz<br />

von Lerntechnologien in Einrichtungen treffen will<br />

(Hamburg et al., 2005).<br />

Die Methode Road Mapping<br />

Beim „Road Mapping“ werden Landkarten beziehungsweise<br />

Fahrpläne zukünftiger Entwicklungen beschrieben<br />

und aufgezeichnet. Typischerweise werden<br />

dazu systematisch zentrale Herausforderungen und<br />

Möglichkeiten für Aktivitäten beschrieben und mit<br />

Entwicklungszielen und Meilensteinen auf einer<br />

Zeitachse illustriert (Kosow & Gaßner, 2008, 65).<br />

Road Mapping wird dabei in vier Formen durchgeführt:<br />

für Unternehmen, für Branchen, für Forschung<br />

und Entwicklung sowie problemorientiertes Road<br />

Mapping (ebenda). Wie bei der Szenario-Technik<br />

werden dabei auch unterschiedliche Entwicklungen<br />

beschrieben. Dabei wird auch der Rückwärtsblick eingesetzt:<br />

Ausgehend von einer in der Zukunft (erwünschten)<br />

Entwicklung werden Meilensteine und<br />

das Vorgehen beschrieben, wie man diese erreicht hat<br />

und welche Faktoren dabei entscheidend waren.<br />

Ein Beispiel für Road Mapping in unserem Feld ist<br />

die Arbeit eines EU-Projekts zu freien Bildungsmaterialien<br />

(siehe Kapitel #openaccess). Die „OLCOS<br />

Roadmap 2012“ untersucht so mögliche Wege zu<br />

einer Erhöhung der Erstellung, Verbreitung und<br />

Nutzung von freien Bildungsmaterialien und gibt<br />

dabei Empfehlungen für notwendige Maßnahmen<br />

auf Ebene von (politischen) Entscheidern (Geser,<br />

2007).<br />

Die Methode des Horizon-­‐Reports<br />

Wegen seiner großen Verbreitung und Bekanntheit,<br />

beschreiben wir auch eigens das Vorgehen des Horizon-Reports<br />

(Johnson et al., 2009). Basierend auf<br />

der Delphi-Methode nutzt das Horizon-Report-Team<br />

die Wiki-Technologie um fast hundert Technologien<br />

und mehrere Dutzend Trends und Herausforderungen<br />

zu sammeln, die möglicherweise im Report<br />

erscheinen könnten (ebenda, S. 30). Die beteiligten<br />

Expertinnen und Experten können diese Entwicklungen<br />

des Wikis durch RSS-Feeds verfolgen, erhalten<br />

auch weitere Materialien zu Lerntrends und<br />

Technologien und bekommen dann den Auftrag, die<br />

fünf Fragen des Horizon-Reports zu beantworten.


Für den Report des Jahres 2009 haben auf diese<br />

Weise 45 internationale Expertinnen und Experten<br />

beispielsweise folgende erste Frage beantwortet<br />

„Welche Technologien zählen Sie zu den etablierten<br />

Technologien in Bildungseinrichtungen die heute<br />

breit eingesetzt werden sollten, um das Lehren,<br />

Lernen, Forschung und Kreativität zu unterstützen<br />

oder zu verbessern?“. Zu allen Antworten erfolgen<br />

(gewichtete) Abstimmungen, die schließlich in der<br />

Auswahl von Aussagen beziehungsweise Technologien<br />

und Lerntrends resultieren. Dann werden<br />

schließlich für unterschiedliche Zeithorizonte jeweils<br />

zwei Trends ausgewählt, die auf breiter Basis in Bildungseinrichtungen<br />

implementiert werden. Für den<br />

Zeithorizont bis zu einem Jahr waren das für das Jahr<br />

2010 „Mobile Computing“ und „Open Content“<br />

(Abbildung 2).<br />

Predic8on Markets<br />

Ein weiteres Verfahren nennt Alexander (2009) in<br />

einer Auflistung von Verfahren zur Zukunftsforschung,<br />

das eventuell zukünftig auch für technologiegestütztes<br />

Lernen und Lehren eingesetzt werden<br />

könnte: Bei der Methode „Prediction Markets“ lassen<br />

Unternehmen Mitarbeiter/innen oder auch erweitere<br />

Kreise auf zukünftige Entwicklungen Wetten abschließen.<br />

?<br />

Recherchieren Sie nach einem Beitrag zu den künf-­‐<br />

'gen Entwicklungen des technologiegestützten<br />

Lernens und beschreiben Sie -­‐ sofern nachvollziehbar<br />

-­‐ die Methode, mit der die Aussagen generiert<br />

wurden!<br />

ZukunHsforschung und Innova'on … wissen was kommt— 5<br />

5. Güte und Kri8k der ZukunLsforschung<br />

Zukunftsforschung gehört in eine Grauzone wissenschaftlicher<br />

Verfahren. Ihre Güte zu bewerten und<br />

sie kritisch zu betrachten ist notwendig.<br />

Gütekriterien wissenschaftlichen Arbeitens sind<br />

unter anderem die Gültigkeit von Aussagen und ihre<br />

Korrektheit. Auf den ersten Blick sind das auch Erwartungen,<br />

die man an die Forschung über zukünftige<br />

Entwicklungen heranträgt: Man will<br />

schließlich verlässlich erfahren, was zukünftig passiert.<br />

Gute Aussagen sollten demnach zukünftig zutreffen.<br />

Auf dem zweiten Blick wird jedoch deutlich,<br />

dass Zukunftsforschung häufig betrieben wird, um<br />

Planungen und Strategien zu beeinflussen, also auch<br />

um Zukunft aktiv zu beeinflussen. In diesem Sinne<br />

kann Zukunftsforschung auch davor bewahren,<br />

falsche Entscheidungen zu treffen. Die Vorhersagen<br />

treffen dann gerade eben wegen der guten Forschung<br />

nicht ein (Grunwald, 2002).<br />

Ob es sich um eine qualitativ hohe Studie zur Zukunft<br />

von Lernen und Lehren mit Technologien<br />

handelt, lässt sich aber dennoch bewerten. Boon et al.<br />

(2005) haben so ein Konzept zur Bewertung der<br />

Qualität von Zukunftsstudien entwickelt und teilen<br />

22 Kriterien vier Dimensionen zu: (a) Autor/innen<br />

und ihre Autorität, (b) Forschung und Datensammlung,<br />

(c) Genauigkeit des Reports und (d) Objektivität<br />

der präsentierten Inhalte. Man muss nicht<br />

lange nach „Zukunftsstudien“ im Bereich des technologiegestützten<br />

Lernens suchen, um Beiträge zu<br />

finden, die diese Kriterien nur unzureichend erfüllen.<br />

Boon et al. (2005, 210) haben dies für die Jahre 2000<br />

bis 2002 unternommen. Sie haben damals festgestellt,<br />

dass die Untersuchungen in diesem Bereich nur<br />

selten auf überzeugendem methodischen Vorgehen<br />

Abbildung 2: Überblick ausgewählter Trends des Horizon-­‐Reports der letzten Jahre.<br />

Quelle: Johnson et al. (2009). Anmerkung: Abbildung in Anlehnung an eine Zusammenschau von Robes (2010).


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

basieren. Daran hat sich kaum etwas geändert; auch<br />

aktuelle Beiträge tragen häufig unsystematisch Aussagen<br />

als „Trends“ zusammen.<br />

Es gibt auch Bedenken gegenüber dem typischen<br />

methodischen Vorgehen, der Einbindung<br />

mit und Diskussion von Expertinnen und Experten.<br />

So haben diese eine persönliche Geschichte, spezifisches<br />

Vorwissen, persönliche Haltungen und auch<br />

persönliche Eigenschaften wie beispielsweise einen<br />

ausgeprägten Optimismus. Es zeigt sich, dass die Erwartungen<br />

an den Nutzen von technologiegestützten<br />

Lernens positiv von der eigenen Interneterfahrung,<br />

Computerängstlichkeit und Selbstwirksamkeit beeinflusst<br />

werden (Rezaei et al., 2008, 86). Auch beeinflusst<br />

der kulturelle Hintergrund das Bild von technologiegestütztem<br />

Lernen. So soll es beispielsweise<br />

drei unterschiedliche Metaphern geben, welche die<br />

Möglichkeiten von technologiegestütztem Lernen beschreiben:<br />

Im deutschsprachigen Raum spricht man<br />

häufig vom „Potenzial“ des technologiegestützten<br />

Lernens, in englischsprachigen Veröffentlichungen<br />

wird hingegen das Bild vom „Katalysator“ oder vom<br />

„Hebel“ verwendet. Während der Katalysator eingesetzt<br />

wird, um mit geringerem Einsatz gleiche oder<br />

bessere Ergebnisse zu erhalten, kann die Hebelwirkung<br />

nur einsetzen, wenn die Zielsetzungen des<br />

Technologieeinsatzes bekannt sind (Klebl, 2007 verweist<br />

auf Venezky & Davis, 2002, 14). Studien sollten<br />

also mit dem Blick auf die beteiligten Expertinnen<br />

und Experten die Ergebnisse reflektieren und bewerten.<br />

Eine weitere Kritik an der Zukunftsforschung betrifft<br />

unter anderem aggregierende Vorgehen, beispielsweise<br />

das Berechnen von Mittelwerten, die<br />

kreative oder überraschende Ergebnisse ausbügeln,<br />

unsichtbar machen können oder auch grundlegende<br />

medientheoretisch fundierte Kritik an der Reflexionsfähigkeit<br />

in der eigenen Medienwelt (siehe Mediosphäre<br />

nach Debray, 2004; vgl. Meyer, 2008; Schaffert<br />

& Schwalbe, 2010).<br />

?<br />

In welcher Weise lässt sich das methodische Vorgehen<br />

bei der von Ihnen recherchierten Studie (siehe oben)<br />

bewerten? Wie könnte man die Methode op'mieren?<br />

Disku'eren Sie Ihre Vorschläge!<br />

6. Ansätze der Innova8onsentwicklung<br />

Abschließend werden in diesem Kapitel Methoden<br />

vorgestellt, die Unternehmen für die Entwicklung<br />

von Innovationen verwenden und Verfahren, die im<br />

Bildungsbereich die Entwicklung von Innovationen<br />

fördern können.<br />

Nicht jede Innovation ist jedoch Ergebnis eines<br />

geplanten Prozesses. So entwickeln Nutzer/innen<br />

von Produkten und Dienstleistungen immer wieder<br />

innovative Ideen; bekannte Beispiele lassen sich im<br />

Sport- und Freizeitbereich finden: Mountainbikes,<br />

Skateboards und Snowboards sind allesamt von<br />

ihnen und nicht von professionellen Produktentwicklern<br />

erfunden worden („User Based Innovations“,<br />

siehe Schroll 2007, 4f). Unternehmen haben<br />

längst das erkannt und versuchen Nutzer/innen als<br />

Innovationsquelle systematisch zu erschließen. In<br />

diesem Zusammenhang spricht man von Open Innovation.<br />

!<br />

Mit dem Begriff „Open Innova'on“ werden alle Ver-­‐<br />

fahren bezeichnet, bei den Kundinnen und Kunden<br />

sowie Nutzerinnen und Nutzer ak'v bei der Ent-­‐<br />

wicklung von Innova'onen eingebunden werden<br />

(Reichwald & Piller, 2006).<br />

Auch Innovationen beim Lernen und Lehren mit<br />

Technologien können durch Endnutzer/innen, das<br />

heißt Lernende entstehen. Häufig sind jedoch Lehrende<br />

die Treiber von Innovationen, also tatsächlichen<br />

Neuerungen im Unterrichtsgeschehen.<br />

Lead-­‐User-­‐Ansatz<br />

Eine mittlerweile empirisch umfassend untersuchte<br />

Methode der Open Innovation ist der Lead-User-<br />

Ansatz. Dies ist eine qualitative Methode zur Identifikation<br />

und Integration von Träger innovativer Bedürfnisse<br />

in den (innerbetrieblichen) Innovationsprozess.<br />

Die Methode geht auf Erich von Hippel<br />

vom dem Massachusetts Institute of Technology<br />

(MIT) zurück. Die Grundlage der Methode ist die<br />

Diffussionstheorie, also die oben vorgestellte Theorie<br />

der Verbreitung von Produkten am Markt. Von<br />

Hippel geht davon aus, dass die Lead User die Bedürfnisse<br />

des Massenmarktes vorwegnehmen und<br />

diese Bedürfnisse durch Veränderungen bestehender<br />

Produkte oder sogar durch neue Produktkreationen<br />

befriedigen. Durch diese spezifische Konstellation<br />

sind sie für die Lösung von Innovationsaufgaben optimal<br />

geeignet (von Hippel 2005, 22f)


Die Lead-User-Methode wird meistens mehrstufig<br />

dargestellt. Sie beginnt mit der Identifikation des<br />

Suchfeldes in welchem innovative Lösungen gesucht<br />

werden. Ein Suchfeld ist zum Beispiel die technologisch<br />

gestützte Kollaboration sein. Lead User kann<br />

man per Selbstauskunft oder mit der Schneeballsuche<br />

identifizieren, bei der Lead User andere Lead User<br />

empfehlen. Lead User weisen folgende Eigenschaften<br />

auf: Sie haben neue, (am Markt) kaum verbreitete Bedürfnisse;<br />

sie sind bezüglich mangelnder Befriedigung<br />

dieser Bedürfnisse unzufrieden und möchten hier<br />

tätig werden; sie verfügen über Anwenderwissen; sie<br />

verfügen über Produkt- beziehungsweise Objektwissen;<br />

sie können intrinsisch oder extrinsisch motiviert<br />

werden. (Tinz, 2007, 91). In der letzten Phase<br />

wird ein zweitägiger Workshop mit den Lead-User<br />

abgehalten, wo mit Hilfe von Kreativitätstechniken<br />

innovative Lösungen gesucht und bewertet werden.<br />

Eine vom MIT und dem Unternehmen 3M vorgenommene<br />

Untersuchung zeigt, dass die Lead-User-<br />

Ideen zwar teurer, aber auch wesentlich innovativer<br />

sind als Ideen, die man im Alleingang generiert<br />

(Lilien et al., 2002).<br />

?<br />

IdeenweVbewerb / Crowdsourcing-­‐Innova8on<br />

Eine andere weit verbreitete Open-Innovation-Methode<br />

ist der Ideenwettbewerb, oft auch als Crowdsourcing-Innovation<br />

bezeichnet.<br />

Das Leitmotiv von Crowdsourcing ist: Wenn du<br />

ein Problem hast, suche nach der Lösung nicht nur<br />

bei den Spezialisten, zum Beispiel in der Forschungsund<br />

Entwicklungsabteilung, sondern frage einfach<br />

alle. Beim „Crowdsourcing“ wird so von der Idee<br />

ausgegangen, dass Gruppen aufgrund von Phänomenen<br />

wie der Schwarmintelligenz oder auch der<br />

Schwarmkreativität (Gloor, 2006) in der Lage sind,<br />

hilfreiche Unterstützung bei Innovationsprozessen zu<br />

bieten (Shuen, 2008, 136ff).<br />

!<br />

Ist der Lead-­‐User-­‐Ansatz auf das technologiege-­‐<br />

stütztes Lernen übertragbar? Bes'mmen Sie ein<br />

Suchfeld und disku'eren Sie dazu, wer die Lead User<br />

sein können und wie Sie diese iden'fizieren könnten.<br />

Ein IdeenweEbewerb stellt nach Walcher (2007) „eine<br />

Aufforderung eines privaten oder öffentlichen Veran-­‐<br />

stalters an die Allgemeinheit oder eine spezielle Ziel-­‐<br />

gruppe dar, themenbezogene Beiträge innerhalb eines<br />

bes'mmten Zeitraums einzureichen. Die Einsen-­‐<br />

dungen werden dann in aller Regel von einer Exper-­‐<br />

tengruppe an Hand von verschiedenen Beurteilungs-­‐<br />

dimensionen bewertet und leistungsorien'ert prä-­‐<br />

miert.“ (S. 39)<br />

ZukunHsforschung und Innova'on … wissen was kommt— 7<br />

Durch einen Ideenwettbewerb werden Nutzer/innen<br />

in die frühesten Phasen des Innovationsprozesses<br />

eingebunden (Walcher, 2007, 38), womit sich<br />

der Nutzerbeitrag, streng betrachtet nicht auf die Innovation,<br />

sondern auf Ideengebung und -bewertung<br />

beziehungsweise auf die Invention konzentriert. Als<br />

Veranstalter von Ideenwettbewerben treten allgemein<br />

sowohl Firmen als auch öffentliche Einrichtungen<br />

auf. Beispielsweise suchte die Bundeszentrale für gesundheitliche<br />

Aufklärung Motive für eine HIV-Präventionskampagne.<br />

Im Bereich des technologiegestützten<br />

Lernens gibt es seltener Wettbewerbe, bei<br />

denen Ideen oder Konzepte prämiert werden. An der<br />

Universität Augsburg wurde mit „betacampus“ ein<br />

solcher universitätsinterner Wettbewerb durchgeführt<br />

bei dem gute Ideen für IKT-Projekte gesucht wurden<br />

(Bauer & Henke, 2011).<br />

Häufig werden jedoch bei Wettbewerben auch<br />

existierende Konzepte und Realisierungen ausgezeichnet:<br />

Beispiele dafür sind D-ELINA, der „Deutschen<br />

E-Learning-Innovations- und Nachwuchs-<br />

Award“ oder der europäischen Wettbewerb „European<br />

Award for Technology Supported Learning“<br />

(eureleA). Auch an den Hochschulen werden Auszeichnungen<br />

für gute Lehre in Einzelfällen, wie mit<br />

dem ELCH („E-Learning Champion“) an der Universität<br />

Graz, auch an den innovativen Einsatz von<br />

Technologien geknüpft.<br />

Als Anreiz von Ideenwettbewerben wird in der<br />

Regel eine „leistungsorientierte Prämierung“ angeboten,<br />

wie Sachpreise oder Geldbeträge. Im Bereich<br />

des technologiegestützten Lernens werden in der<br />

Regel die Namen der Gewinner/innen veröffentlicht,<br />

womit als Anreizmittel die Statusfaktoren fungieren.<br />

Die existierenden Beispiele legen jedenfalls den<br />

Schluss nahe, dass extrinsischen Motivationsfaktoren<br />

eine wichtige Rolle spielen, an solchen Wettbewerben<br />

teilzunehmen.<br />

Offene Bildungsini8a8ven<br />

In offenen Bildungsinitiativen wird nicht systematisch<br />

an der Entwicklung von technologiegestützten Bildungsinnovationen<br />

gearbeitet. Allerdings wird ihnen<br />

ein hohes Potenzial für solche Ideen und Entwicklungen<br />

zugesprochen und sie selbst setzen Technologien<br />

häufig kreativ und neu ein. Beispiele für solche<br />

Initiativen, die als mögliche Orte der Entstehung von<br />

Innovationen betrachtet werden, sind Educamps, ein<br />

Szene-Treffen von an Bildungsthemen Interessierten<br />

und technologischen „Early Adopters“ ohne fixe<br />

Vortragslisten und auch zahlreiche studentische Initiativen<br />

und Projekte (Dürnberger et al., 2011).


8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

7. Zusammenfassung und Ausblick<br />

„Wissen was kommt“ ist das Ziel von Untersuchungen<br />

zu zukünftigen Entwicklungen im Bereich<br />

des technologisch gestützten Lernen und Lehrens.<br />

Gleichzeitig gibt es eine Reihe von Initiativen in<br />

denen aktiv kreative und innovative Konzepte und<br />

Werkzeuge für das Lernen und Lehren mit Technologien<br />

gesucht und entwickelt werden.<br />

Existierende Modelle und Verfahren der Zukunftsforschung<br />

und Innovationsentwicklung werden<br />

dabei fortlaufend weiterentwickelt. Durch das Web<br />

und den Erfolgen und Zuwächsen bei Anwendungen<br />

für soziale Netzwerke und Online-Gemeinschaften<br />

sind hier zukünftig auch neue Entwicklungen zu erwarten,<br />

die beispielsweise durch Web-Monitoring und<br />

Auswertung entsprechend innovativer Gruppen und<br />

ihrer Diskussionen möglich werden (Brauckmann,<br />

2010). Passende Modelle, die aus dem Verfolgen von<br />

Diskussionen Innovationen oder zukünftige Entwicklungen<br />

ableiten lassen, müssen dabei weitestgehend<br />

erst noch entwickelt und evaluiert werden.<br />

Danksagung<br />

Herzlichen Dank an Walther Nagler und Jochen Robes für ihr<br />

konstruktives Feedback!<br />

Zum Weiterlesen<br />

▸ Horx, M.; Huber, J.; Steinle, A.; Wenzel, E. (2007). Zukunft<br />

machen. Wie Sie von Trends zu Business-Innovationen<br />

kommen. Ein Praxis-Guide. Frankfurt / New York.<br />

Literatur<br />

▸ Alexander, B. (2009). Apprehending the Future: Emerging<br />

Technologies, from Science Fiction to Campus Reality. In:<br />

EDUCAUSE Review, 44 (3), 12–29.<br />

▸ Bauer, P. & Henke, H. (2011). Förderung von offenen Bildungsiniativen<br />

an der Hochschule. Der Innovationswettbewerb<br />

betacampus. In: H. Dürnberger, S. Hofhues & T. Sporer<br />

(Hrsg.), Offene Bilungsinitiativen. Münster: Waxmann, 79-92.<br />

▸ Boon, M. J., Rusman, E., & Klink, M. R. van der (2005). Developing<br />

a critical view on e-learning reports: Trend watching or<br />

trend setting? International Journal of Training and Development,<br />

9(3), 1-27, URL: from http://www.qou.edu/homePage/arabic/researchProgram/eLearningResearchs/developingACritical.pdf<br />

[2008-09-12.]<br />

▸ Brauckman, P. (2010). Web-Monitoring. Gewinnung und<br />

Analyse von Daten über das Kommunikationsverhalten im Internet,<br />

Konstanz: UVK-Verlag.<br />

▸ Debray, R. (2004). Für eine Mediologie. In: Kursbuch Medienkultur.<br />

Die maßgeblichen Theorien von Brecht bis Baudrillard.<br />

Stuttgart: DVA, 76-75.<br />

▸ Dürnberger, H.; Hofhues, S. & Sporer, T. (2011). Offene Bilungsinitiativen.<br />

Münster: Waxmann.<br />

▸ Boon, M. J.; Rusman, E. & Klink, M. R. van der (2005). Developing<br />

a critical view on e-learning reports: Trend watching or<br />

trend setting?. In: International Journal of Training and Development,<br />

9(3), 1-27, URL:<br />

http://www.qou.edu/homePage/arabic/researchProgram/eLe<br />

arningResearchs/developingACritical.pdf [2008-12-25].<br />

▸ Debray, R. (2004). Für eine Mediologie. In: Kursbuch Medienkultur.<br />

Die maßgeblichen Theorien von Brecht bis Baudrillard.<br />

Stuttgart: DVA, 76-75.<br />

▸ Geser, G. (2007). Open Educational Practices and Resources<br />

-OLCOS Roadmap 2012. Salzburg: Salzburg Research, URL:<br />

http://edumedia.salzburgresearch.at/images/stories/Edu-<br />

Media/Inhalte/Publications/olcos_roadmap.pdf [2008-12-30].<br />

▸ Giesecke, M. (1994). Der Buchdruck in der frühen Neuzeit.<br />

Eine historische Fallstudie über die Durchsetzung neuer Informations-<br />

und Kommunikationstechnologien. Frankfurt am<br />

Main: Suhrkamp.<br />

▸ Gloor, P.A. (2006). Swarm Creativity: Competitive Advantage<br />

through Collaborative Innovation Networks. Oxford: Oxford<br />

University Press.<br />

▸ Grunwald, A. (2002). Technikfolgenabschätzung. Eine Einführung.<br />

Berlin: Edition Sigma.<br />

▸ Hamburg, I.; Busse, T. & Marin, M. (2005). Using E-Learning<br />

Scenarios for Making Decisions in Organisations. In: 6th European<br />

Conferene E-COMM-LINE 2005, Bucharest, September<br />

19- 20, 2005, URL:<br />

http://www.iatge.de/aktuell/veroeff/2005/hamburg01.pdf<br />

[2008-12-26].<br />

▸ Johnson, L.; Levine, A. & Smith, R. (2009). The 2009 Horizon<br />

Report. Austin, Texas: The New Media Consortium, URL:<br />

http://wp.nmc.org/horizon2009 [2009-02-16].<br />

▸ Klebl, M. (2007). Die Verflechtung von Technik und Bildung<br />

-Technikforschung in der Bildungsforschung. In: Bildungsforschung,<br />

Jahrgang 4, Ausgabe 2, URL: http://bildungsforschung.org/index.php/bildungsforschung/article/view/67<br />

[2010-12-29].<br />

▸ Kosow, H. & Gaßner, R. (2008). Methoden der Zukunfts-und<br />

Szenarioanalyse Überblick, Bewertung und Auswahlkriterien.<br />

In: WerkstattBericht Nr. 103, Berlin: Institute for Futures<br />

Studies and Technology Assessment, URL:<br />

http://www.izt.de/fileadmin/downloads/pdf/IZT_WB103.pd<br />

f [2010-12-29].<br />

▸ Lilien, G.L.; Morrison, P.D.; Searls, K.; Sonnack, M. & von<br />

Hippel, E. (2002). Performance Assessment of the Lead User<br />

Idea-Generation Process for New Product Development.<br />

URL: http://userinnovation.mit.edu/papers/5.pdf [2010-12-<br />

29].<br />

▸ Meyer, T. (2008). Zwischen Kanal und Lebens-Mittel: pädagogisches<br />

Medium und mediologisches Milieu. In: J. Fromme &<br />

W. Sesink (Hrsg.), Pädagogische Medientheorie. Wiesbaden: VS<br />

Verlag für Sozialwissenschaften, 71-94.<br />

▸ Miller, R.; Shapiro, H. & Hilding-Hamann, K. E. (2008).<br />

School's Over: Learning Spaces in Europe in 2020: An Ima-


gining Exercise on the Future of Learning. In: JRC Scientific<br />

and Technical Reports, October 2008, URL:<br />

http://ftp.jrc.es/EURdoc/JRC4741<strong>2.pdf</strong> [2010-12-29].<br />

▸ Moore, G. A. (2002). Crossing the Chasm: marketing and<br />

selling high-tech products to mainstream customers. New<br />

York: Harper Business Essential.<br />

▸ Papsdorf, C. (2009). Wie Surfen zu Arbeit wird. Crowdsourcing<br />

im Web 2.0. Frankfurt am Main: Campus.<br />

▸ Petrat, G. (1979). Schulunterricht. München.<br />

▸ Reichwald, R. & Piller, F. (2006). Interaktive Wertschöpfung.<br />

Open Innovation, Individualiserung und neue Formen der Arbeitsteilung.<br />

Wiesbaden: Gabler.<br />

▸ Rezaei, M., Mohammadi, H. M., Asadi, A. and Kalantary, K.<br />

(2008). Predicting E-Learning Application In Agricultural<br />

Higher Education Using Technology Acceptance Model.<br />

Turkish Online Journal of Distance Education, 9 (1), 85-95,<br />

URL: http://tojde.anadolu.edu.tr/tojde29/pdf/Volume9-<br />

Number1.pdf [2009-02-09].<br />

▸ Robes, J. (2010). Horizon Report 2010. Weblogeintrag. URL:<br />

http://www.weiterbildungsblog.de/2010/01/15/horizonreport-2010/<br />

[2011-01-01].<br />

▸ Rogers, E. M. (2003). Diffusion of Innovations. New York:<br />

Free Press.<br />

▸ Schaffert, S. & Schwalbe, C. (2010). Future Media Adoption in<br />

Learning and Teaching: Current Study Design from the Perspective<br />

of Cultural Studies. In: M. Ebner & M. Schiefner<br />

(Hrsg.), Looking Toward the Future of Technology Enhanced<br />

Education: Ubiquitous Learning and the Digital Native,<br />

Hershey: IGI Global, 1-11.<br />

▸ Schaffert, S. (2004). Einsatz von Online-Prüfungen in der beruflichen<br />

Weiterbildung: Gegenwart und Zukunft. Bonn: Deut-<br />

ZukunHsforschung und Innova'on … wissen was kommt— 9<br />

sches Institut für Erwachsenenbildung, URL: http://www.diebonn.de/esprid/dokumente/doc-2000/schaffert00_01.pdf<br />

[2010-12-29].<br />

▸ Schroll, A. (2007). Community Based Innovation. Einsatz von<br />

Innovation Communities im Projekt „Opensourcing University“.<br />

Wien: Diplomarbeit an der Universität Wien.<br />

▸ Shuen, A. (2008). Web 2.0: A Strategy Guide. Business thinking<br />

and strategies behind successful Web 2.0 implementations.<br />

Canada: O’Reilly Media.<br />

▸ Steinmüller, K. (2002). Workshop Zukunftsforschung. Teil 2<br />

Szenarien: Grundlagen und Anwendungen. Essen: Z_punkt<br />

GmbH.<br />

▸ Tinz, T. V. (2007). Spitzenprodukte durch Spitzensportler? Kooperative<br />

Produktentwicklung bei Sportartikeln. Zürich: Dissertation<br />

der Wirtschaftswissenschaftlichen Fakultät der Universität<br />

Zürich.<br />

▸ Venezky, R. & Davis, C. (2002). Quo Vademus? The Transformation<br />

of Schooling in a Networked World. URL: http://www.oecd.org/<br />

dataoecd/48/20/2073054.pdf [2009-02-02].<br />

▸ von Hippel, E.(2005). Democratizing Innovation. Cambridge:<br />

MIT Press,<br />

http://web.mit.edu/evhippel/www/books/DI/DemocInn.pdf<br />

[2010-12-29].<br />

▸ Wagner, W.-R. (2004). Medienkompetenz revisited. München:<br />

kopaed.<br />

▸ Walcher, D. (2007). Der Ideenwettbewerb als Methode der aktiven<br />

Kundenintegration. Theorie, empirische Analyse und Implikationen<br />

für den Innovationsprozess. Wiesbaden.


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Einleitung<br />

In diesem Kapitel werden die Auswirkungen, die zentrale<br />

Fragestellungen und Konzepte der Kognitionswissenschaft<br />

auf unser Verstehen von Lehr-Lernprozessen<br />

und die Verwendung von Lerntechnologien,<br />

untersucht.<br />

!<br />

Kogni:onswissenscha> ist ein interdisziplinäres For-­‐<br />

schungsfeld, das Phänomene der Kogni:on erforscht,<br />

mit dem Ziel, menschliche Kogni:on – unsere Wahr-­‐<br />

nehmung, unser Denken und letztlich Handeln – zu<br />

verstehen.<br />

Die Kognitionswissenschaft ist keine wissenschaftliche<br />

Disziplin im herkömmlichen Sinne,<br />

sondern ein immer noch recht junges interdisziplinäres<br />

Forschungsfeld, in dem unterschiedliche Disziplinen<br />

gemeinsam Antworten auf Fragen zur Kognition<br />

– Wahrnehmung, Denken und Handeln –<br />

suchen, die sie aus Ihrer Perspektive und mit ihren<br />

Methoden allein nicht zufriedenstellend beantworten<br />

können. In gewisser Weise stellt sich die Kognitionswissenschaft<br />

Fragen, die sich Philosophen seit jeher<br />

stellen und versucht diese mit Mitteln der Psychologie,<br />

Linguistik, Neurowissenschaft, Biologie und Informatik<br />

zu beantworten, wobei letzterer in der Entstehungsgeschichte<br />

dieses Forschungsfelds wegen der<br />

damals neuen Methode der Computersimulation eine<br />

besondere Rolle zukommt.<br />

Warum lohnt es sich, sich in einem so anwendungsbezogenen<br />

Feld, wie „Lehren und Lernen mit<br />

Technologien“ überhaupt, mit Fragen und Konzepten<br />

aus der Grundlagenforschung auseinanderzusetzen?<br />

Wir sehen drei Gründe:<br />

▸ Aus vielen Modellen der kognitionswissenschaftlichen<br />

Grundlagenforschung ist Kognitionstechnik<br />

geworden, mit der wir im Alltag ständig konfrontiert<br />

sind.<br />

▸ Lehrende und Lernende (und natürlich auch Designer/innen<br />

von Lerntechnologien) haben notwendigerweise<br />

ein Konzept von Kognition und<br />

eine „Theorie“ wie sie „funktioniert“. Die Frage<br />

ist lediglich, wie bewusst und reflektiert diese persönliche<br />

„Theorie“ ist und damit, ob sie zur Reflexion<br />

über die eigene Praxis dienen kann.<br />

▸ Unsere Konzepte von Kognition haben eine Auswirkung<br />

auf die Vorstellung was Lernen ist und<br />

was gelernt wird – und damit auf unseren Wissensbegriff.<br />

Hier sehen wir eine Nahtstelle zu Ergebnissen<br />

der Bildungsforschung, die zeigen, dass<br />

unser Wissensbegriff Lernstrategien beeinflusst.<br />

Dieses Kapitel orientiert sich in seinem Aufbau an<br />

den Phasen der Kognitionswissenschaft seit ihrer<br />

Entstehung. Diese ideengeschichtliche Betrachtung<br />

ist notwendig, um konkrete Implikationen auf aktuelle<br />

Fragen des Lernen und Lehrens, des Wissens<br />

und zu Lerntechnologien abzuleiten. Ziel dieses Kapitels<br />

ist es zu zeigen, wie Konzepte aus der kognitionswissenschaftlichen<br />

Grundlagenforschung<br />

Eingang in die Alltagssprache, in unser Denken über<br />

Lernprozesse und Wissen, und letztlich in Technologien<br />

gefunden haben, mit den wir tagtäglich interagieren,<br />

um so ein „Denkwerkzeug“ für die Reflexion<br />

der eigenen Praxis zur Verfügung zu stellen. Kein<br />

Ziel ist es hingegen, didaktische oder Usability-Rezepte<br />

auszustellen.<br />

2. Das Entstehen eines neuen Forschungsfeldes<br />

Wurzeln der Kogni:onswissenscha<<br />

Eine fundierte Vorgeschichte würde im Rahmen<br />

dieses Buches zu weit führen, daher möchten wir hier<br />

nur vier Strömungen und Ideen aus den Disziplinen<br />

Philosophie, Psychologie, Linguistik und Informatik<br />

skizzieren, deren interdisziplinäres Zusammenwirken<br />

wesentlich für das Entstehen des neuen Forschungsfeldes<br />

Kognitionswissenschaft war:<br />

Die Vorstellung, dass menschliches Denken<br />

letztlich Rechnen sei, findet sich schon im 17. Jahrhundert<br />

bei Gottfried Wilhelm Leibniz (1646-1716),<br />

der, nebenbei bemerkt, auch das Binärsystem erfand,<br />

das mit der Erfindung des Computers eine große Bedeutung<br />

erhalten sollte. Die Analytische Philosophie,<br />

wurde Anfang des 20. Jahrhunderts von den<br />

britischen Philosophen Bertrand Russell (1872–1970)<br />

und George Edward Moore (1873–1958) und vom<br />

Wiener Kreis begründet und kann als eine Fortführung<br />

der Leibniz'schen Ideen begriffen werden.<br />

Ihre Vertreter wiesen folgende Gemeinsamkeiten auf:<br />

Ein systematisches, anstatt geschichtliches Herangehen<br />

an philosophische Fragen, eine Orientierung<br />

an empirischen Wissenschaften sowie der Versuch<br />

eine logische Formalsprache (widerspruchsfreie<br />

Idealsprache) zu schaffen oder – je nach Richtung die<br />

Analyse von Sprache mit Mitteln der Logik, letztlich<br />

mit dem Ziel, die angenommene logische Formalsprache<br />

hinter unserer Alltagssprache zu beschreiben.<br />

Es soll nicht unerwähnt bleiben, dass viele Vertreter<br />

dieser Richtung vor dem nationalsozialistischen<br />

Regime fliehen mussten und Ihre Arbeit in England<br />

und den USA fortsetzen.<br />

In der Psychologie hatte der Behaviorismus, von<br />

John B. Watson 1913 ursprünglich als Gegenposition<br />

zur Phänomenologie formuliert, die Untersuchung<br />

von Verhalten mit naturwissenschaftlichen Methoden


und damit eine „Objektivierung“ der Psychologie<br />

eingeführt und war zum vorherrschenden Paradigma<br />

geworden. Ein zunehmend kritisierter „Nebeneffekt“<br />

war, dass nun nur das Ereignis in der Umwelt (Reiz)<br />

und das mutmaßlich daraus resultierende Verhalten<br />

(Reaktion) Gegenstand einer wissenschaftlichen Untersuchung<br />

sein durfte. Das Gehirn wurde als<br />

„Black Box“ betrachtet und innere Zustände zur<br />

Erklärung von Verhalten nicht mit herangezogen.<br />

1957 erschien das Buch „Verbal Behavior“, in dem<br />

der Behaviorist seiner Zeit, Burrhus Fredric Skinner,<br />

seine Hypothese zum Spracherwerb formulierte. In<br />

einer Buchbesprechung übte der Linguist Noam<br />

Chomsky (1959) harsche Kritik und argumentierte,<br />

dass ein so komplexes Verhalten wie Sprache unmöglich<br />

durch den Behaviorismus, und somit durch<br />

assoziatives Lernen, allein, erklärt werden könne.<br />

Vielmehr müsse es ein genetisch determiniertes mentales<br />

„Modul“ geben, das es Menschen erlaubt<br />

Sprache zu erwerben, eine Universale Grammatik, die<br />

die genetische Basis für den Erwerb jeglicher<br />

menschlichen Sprache biete. Damit revolutionierte er<br />

nicht nur die Linguistik; die Kritik an Skinner wird<br />

auch als Meilenstein auf dem Weg zu einem neuen<br />

Paradigma gesehen: dem Kognitivismus.<br />

Bevor der Kognitivismus näher diskutiert wird,<br />

muss vielleicht die für die Entstehung der Kognitionswissenschaften<br />

wesentlichste Erfindung und Voraussetzung<br />

hingewiesen werden: der Computer und<br />

seine formalen Grundlagen. 1936 hatte der Mathematiker<br />

Alan Turing (1912-1954) gezeigt, dass jede<br />

berechenbare Funktion durch eine Turingmaschine<br />

implementiert werden kann (Turing, 1936; Turing,<br />

1950). Eine genaue Erklärung würde an dieser Stelle<br />

zu weit führen; wesentlich ist in unserem Kontext,<br />

dass sie – unendlich großen Speicher vorausgesetzt –<br />

jede berechenbare Funktion berechnen kann und,<br />

dass sie den Begriff Algorithmus exakt präzisiert. Als<br />

solche bildete sie die theoretische Basis für die Ent-<br />

Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 3<br />

Disziplin Linguis:k Mathema:k (Infor-­‐<br />

ma:k)<br />

Beitrag zur Kogni:-­‐<br />

ons-­‐wissenscha< und<br />

Entstehung des Ko-­‐<br />

gni:vismus<br />

Beschreibung sprach-­‐<br />

licher Strukturen<br />

Neu: Universal-­‐gram-­‐<br />

ma1k<br />

Mathema:scher Be-­‐<br />

weis, Computer<br />

Neu: formale Spra-­‐<br />

chen, Simula1on<br />

Philosophie Psychologie<br />

Philosophische Basis<br />

(„Denken ist<br />

rechnen“)<br />

Neu: Formale Logik<br />

Empirische Daten, Ex-­‐<br />

periment<br />

Neu: in die „Black Box<br />

hineinschauen“<br />

Tabelle 1: Überblick über die Disziplinen und ihren Beitrag an der Entstehung der frühen Kognitionswissenschaft<br />

wicklung des Computers (etwa 1946 durch den Mathematiker<br />

John von Neumann), dessen Architektur<br />

nach wie vor die Basis jedes Computers bildet.<br />

Zusammengefasst, lässt sich der wissenschaftsgeschichtliche<br />

Kontext um 1950 in sehr vereinfachter<br />

Form zuspitzen (vgl. Tabelle 1): In der Psychologie<br />

gibt es eine weit verbreitete Unzufriedenheit mit dem<br />

Behaviorismus, dessen Methoden es nicht erlauben<br />

etwas darüber auszusagen oder zu untersuchen was,<br />

salopp gesagt, „im Kopf passiert“. Gerade daran<br />

haben aber all jene Interesse, die menschliche Kognition<br />

verstehen wollen. Auf Seiten der Analytischen<br />

Philosophie gibt es ein Angebot: Denken ist<br />

logisch und basiert auf einer (formalen) Sprache; wir<br />

müssen also „nur“ einen Weg finden die Formalsprache<br />

„hinter“ der Alltagssprache zu beschreiben.<br />

Chomskys Idee der Universalgrammatik bietet eine<br />

neue Brücke zwischen formaler Logik und natürlichen<br />

Sprachen. Und der Computer bietet eine vollkommen<br />

neue Herangehensweise, mit der wissenschaftliche<br />

Theorien einer Prüfung unterzogen<br />

werden konnten. Anstatt Modelle mit Papier und<br />

Bleistift durchzurechnen, konnten diese Modelle,<br />

wenn man sie in eine formalisierte Form (entspricht<br />

Algorithmen, die als Computerprogramme implementiert<br />

werden) bringt, automatisch berechnet<br />

werden und gegebenenfalls Vorhersagen für die empirische<br />

Forschung machen: die Methode der Computersimulation.<br />

Ein weiteres wichtiges „Puzzlestück“ für die Analogie<br />

zwischen Denken und Logik lieferten der Neurophysiologe<br />

Warren McCulloch und der Logiker<br />

Walter Pitts 1943. Die Turingmaschine (und in der<br />

Folge auch von Neumann-Computer) verwenden das<br />

von Leibniz erfundene Binärsystem, das heißt sie<br />

„kannte“ die zwei Symbole „1“ und „0“. Auch Nervenzellen<br />

kennen zwei Zustände: sie feuern („1“)<br />

oder sie feuern nicht („0“). Auf Basis dieser Überlegung<br />

entwickelten McCulloch und Pitts (1943) ein<br />

sehr vereinfachtes, abstrahiertes Neuronenmodell,


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

mit dessen Hilfe sie zeigen konnten, dass ein<br />

Netzwerk dieser Neuronenmodelle – und damit auch<br />

das menschliche Gehirn – im Prinzip die selben Berechnungskapazitäten<br />

hat, wie eine Turingmaschine,<br />

das heißt jede berechenbare Funktion berechnen und<br />

damit auch logische Formalsprachen verkörpern.<br />

?<br />

Aufgabe: Das MIU-­‐System (Hofstadter, 1985)<br />

Folgende Aufgabe soll Ihnen helfen, die Grundprin-­‐<br />

zipien formaler Sprachen zu verstehen.<br />

Das MIU-­‐System besteht aus einem Axiom „MI“, das<br />

als Startbedingung gegeben ist, sowie den Symbolen<br />

„I“ und „U“, die nach Regeln manipuliert werden, um<br />

Sätze zu bilden (abzuleiten). Die Regeln lauten:<br />

▸ Regel 1: Wenn der letzte Buchstabe ein I ist, darf<br />

ein U angehängt werden (MI → MIU)<br />

▸ Regel 2: Alles nach dem M darf verdoppelt<br />

werden (MIU → MIUIU)<br />

▸ Regel 3: Aus III darf U werden (III → U)<br />

▸ Regel 4: UU kann gestrichen werden (UUU → U)<br />

Bice nehmen Sie sich 10 bis 15 Minuten Zeit und<br />

leiten Sie aus dem Axiom MI mit Hilfe der Regeln des<br />

MIU-­‐Systems MU ab!<br />

Waren Sie erfolgreich? Was hat Ihnen bei der Lösung<br />

der Aufgabe Probleme bereitet und was kann der<br />

:efere Grund dafür sein?<br />

3. Klassische Kogni/onswissenscha1<br />

Die oben beschriebene wissenschaftliche Konstellation<br />

führte zu einer neuen Sicht auf menschliche<br />

Kognition und begründete so Mitte der 1950er Jahre<br />

das Entstehen der Kognitionswissenschaft (Bechtel<br />

& Graham, 1998). Was sie einte, war die Annahme<br />

einer Vergleichbarkeit von Mensch und Computer in<br />

dem Sinne, dass der Computer ein reaktionsfähiger<br />

Mechanismus sei, der flexibles, komplexes und zielorientiertes<br />

Verhalten zeigen kann, ebenso wie Menschen.<br />

Daher sei es nur natürlich von der Hypothese<br />

auszugehen, dass ein solches System offenlege, wie<br />

Menschen zu eben dieser Flexibilität kämen, ergo<br />

zeige, wie der menschliche Geist funktioniere<br />

(Newell, 1963). Diese Annahme schlug sich in dem<br />

zentralen Postulat „cognition is information processing“,<br />

Kognition ist Informationsverarbeitung,<br />

nieder. Informationsverarbeitung wird in folgendem<br />

Sinne verstanden: ein Algorithmus verarbeitet, verändert<br />

und generiert Symbole, von den behauptet<br />

wird, dass sie einen Ausschnitt der Welt repräsentieren<br />

(zum Beispiel das Symbol „Haus“ repräsentiert<br />

ein reales Haus). Deswegen wird dieser Ansatz auch<br />

als symbolverarbeitender Ansatz der Kognitionswissenschaft<br />

bezeichnet. Aufgabe einer Wissenschaft,<br />

die menschliche Kognition verstehen wollte,<br />

war es somit, jene „Algorithmen“ menschlicher Ko-<br />

gnition zu identifizieren, die die Erkenntnisse aus<br />

oben genannten Disziplinen künstlich erzeugen (im<br />

Sinne von am Computer simulieren) und diese Simulationsergebnisse<br />

wiederum im empirischen (psychologischen)<br />

Experimenten zu überprüfen.<br />

Das neue wissenschaftliche Paradigma, das – in<br />

Abgrenzung zum auf extern beobachtbares Verhalten<br />

fokussierten Behaviorismus – die Untersuchung<br />

jener „innerer Mechanismen“, die für menschliche<br />

Kognition verantwortlich sind, zum Ziel hatte,<br />

wird als Kognitivismus (Varela, 1990; Bechtel et al.,<br />

1998) bezeichnet. Die Grenzen zum praktisch zeitgleich<br />

entstandenen Forschungsfeld der „Künstlichen<br />

Intelligenz“ (KI) können wir, zumindest für den<br />

Zweck dieses Lehrbuchs, als fließend erachten.<br />

Während für die KI der technische Aspekt im Vordergrund<br />

stand, war es für die Kognitionswissenschaft<br />

der Versuch, menschliche Kognition zu verstehen.<br />

Das Revolutionäre an der neu entstandenen Kognitionswissenschaft<br />

war, dass zum erste Mal zwei<br />

?<br />

Begeben Sie sich zur nächsten Kaffeemaschine (am<br />

besten eine Filtermaschine, jedenfalls aber kein Au-­‐<br />

tomat), beobachten Sie genau, wie jemand einen<br />

Kaffee kocht, bis zu dem Zeitpunkt zu dem der Kaffee<br />

trinkfer:g (Milch, Zucker usw.) ist.<br />

▸ Halten Sie das bice in einer genauen Be-­‐<br />

schreibung des Ablaufs fest, die sich auf das We-­‐<br />

sentliche konzentriert. Auf dieser Basis soll eine<br />

fehlerfreie Wiederholung der Handlung möglich<br />

sein. (Für die Informa:ker/innen unter Ihnen:<br />

schreiben Sie bice einen Algorithmus in Alltags-­‐<br />

sprache.)<br />

▸ Versuchen Sie eine Person zu finden, die bereit ist,<br />

Ihrer Beschreibung sklavisch Folge zu leisten und<br />

zu versuchen Ihnen (oder wenigstens sich selbst)<br />

auf Basis Ihrer Beschreibung eine Tasse Kaffee zu<br />

kochen.<br />

Gruppenvariante: Bilden Sie Kleingruppen zur Be-­‐<br />

schreibung (op:mal: Dreiergruppen) und lassen Sie<br />

zwei bis drei unterschiedliche Beschreibungen auspro-­‐<br />

bieren, bevor Sie die Fragen zur Aufgabe im Plenum<br />

besprechen<br />

Fragen zur Aufgabe<br />

▸ War Ihre Beschreibung erfolgreich?<br />

▸ Oder musste „geschummelt“ werden, damit Sie zu<br />

Ihrem Kaffee kommen konnten, das heißt es<br />

wurden Handlungen gesetzt, die nicht zu 100 Pro-­‐<br />

zent in Ihrer Beschreibung angegeben wurden?<br />

▸ Wie und warum?<br />

Gruppenvariante:<br />

▸ Gibt es unterschiedliche Beschreibungen?<br />

▸ Worin unterscheiden sie sich?<br />

▸ Auf welche Probleme sind Sie beim Anfer:gen der<br />

Beschreibung gestoßen?


Methoden zur Verfügung standen, eine Theorie zu<br />

überprüfen: neben der Empirie, die eine Untersuchung<br />

des Forschungsgegenstands „in der Realität“<br />

ermöglicht, stand nun ein mächtiges Instrument zur<br />

Verfügung, eine Theorie in Form eines Modells auf<br />

Kohärenz zu testen – um dann seine Vorhersagen<br />

wieder mit Hilfe der Empirie zu überprüfen. Die<br />

ersten Systeme brachten schnelle Erfolge, konnten<br />

Probleme, wie den „Turm von Hanoi“ lösen und –<br />

zur damaligen Zeit als Krone menschlicher Kognition<br />

gesehen – mathematische Gleichungen lösen<br />

und Schach spielen.<br />

Kritiker/innen waren jedoch weniger beeindruckt.<br />

Ihrer Ansicht nach waren die Systeme nicht wirklich<br />

intelligent, sondern führten nur Programme aus. Die<br />

Probleme, die diese Programme bearbeiteten, seien<br />

so ausgewählt, dass sie in sich geschlossen und leicht<br />

als formales System zu fassen seien.<br />

Ein weiterer Kritikpunkt war, dass ein Programm,<br />

nur weil es eine Art von Problemen lösen konnte,<br />

?<br />

diese Fähigkeit noch lange nicht auf einen anderen<br />

Bereich übertragen konnte, das heißt diese „kognitiven<br />

Systeme“ waren hochgradig domänenspezifisch.<br />

Die Flexibilität menschlichen Denkens und Handelns<br />

zeichnet sich hingegen dadurch aus, dass wir<br />

?<br />

Denken Sie an Ihre Erfahrung mit dem MIU-­‐System:<br />

Entspricht es Ihrem Alltagsdenken? Wann haben Sie<br />

aufgehört innerhalb des Systems zu denken und<br />

immer weitere Sätze abzuleiten und stacdessen be-­‐<br />

gonnen sich zu fragen, ob eine Lösung möglich ist?<br />

Denken Sie an Ihren „Kaffeekoch-­‐Algorithmus“:<br />

Wie genau muss die Beschreibung sein und wieviel<br />

Wissen über die Welt erfordert diese rela:v einfache<br />

Aufgabe?<br />

Wie reagiert Ihr Algorithmus auf eine plötzlichen Ver-­‐<br />

änderungen der Umwelt (z.B. einen neuen Ort für den<br />

Kaffee, eine etwas anders gebaute Maschine)?<br />

Welche Handlungsop:onen hat Ihr Algorithmus und<br />

was tut eine Versuchsperson, wenn er/sie auf ein<br />

Problem bei der Ausführung trifft?<br />

nicht nur unterschiedliche Strategien zur Problemlösung<br />

zur Verfügung haben, die wir nach Belieben<br />

abbrechen und wechseln können, sondern darüber<br />

hinaus auch Fähigkeiten zur Adaptation haben. Das<br />

heißt, wir können unser Handeln hinterfragen, verändern<br />

und improvisieren. Wir sind auch mit unvollständigen<br />

Informationen handlungsfähig, weil wir<br />

über Kontextwissen über die Welt verfügen, feh-<br />

Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 5<br />

lendes Wissen nahezu automatisch vervollständigen,<br />

etc. Und wir können eines, das diese Systeme nicht<br />

konnten: wir können lernen und tun es ständig.<br />

Um eine lange Geschichte kurz zu machen: Es gab<br />

in der Folge viele Versuche die Systeme dieser frühen<br />

Phase der Kognitionswissenschaft mit Weltwissen<br />

auszustatten, die im Wesentlichen mit der Erkenntnis<br />

endete, dass unsere Sprache und unser Wissen über<br />

die Welt in Teilbereichen, aber nicht als Ganzes den<br />

Regeln einer Logik folgt, sondern vielfach widersprüchlich<br />

ist. Für uns Menschen ist es in unterschiedlichen<br />

Situationen ganz natürlich unterschiedlichen<br />

Regeln zu folgen. Auch mit den Widersprüchen<br />

natürlicher Sprachen haben wir kein<br />

Problem: Wenn jemand meint sich auf die nächste<br />

Bank setzen zu müssen, wissen wir, dass kein Geldinstitut<br />

gemeint sein kann.<br />

Rückwirkend kann man die klassische Kognitionswissenschaft<br />

als Unterfangen betrachten, jahrhundertealte<br />

Vorstellungen über die menschliche Kognition<br />

mit Hilfe einer zu ihrer Zeit revolutionären neuen<br />

Methode auszutesten: der Computersimulation.<br />

Dadurch haben wir einige falsche Hypothesen über<br />

Bord werfen können und eine ganze Menge über uns<br />

gelernt. Unsere Vorstellung, was menschliche Kognition<br />

in ihrem Kern ausmacht, hat sich verschoben<br />

– mathematische Gleichungen lösen zu<br />

können, ist es nicht – und Fähigkeiten, die keine<br />

weitere Beachtung fanden, wie Sprechen, den<br />

Heimweg finden oder über einen Witz lachen<br />

können, können gewürdigt werden. Darüber hinaus<br />

wurde auch klar, dass sowohl formale als auch natürliche<br />

Sprachen nur einen Teil der Welt repräsentieren<br />

können und in diesem Ansatz viele feine Nuancen,<br />

emotionale Zustände, implizite Bedeutungen, usw.,<br />

die für kognitive Prozesse oft entscheidend sind, in<br />

diesem Ansatz unberücksichtigt bleiben.<br />

4. Konsequenzen für Lernen und Lehren mit Techno-­‐<br />

logien: Die Frage des adäquaten Wissensbegriffs<br />

Aber was hat das alles in einem Buch über Lernen<br />

und Lehren mit Technologien zu suchen? Der Einfluss<br />

der klassischen Kognitionswissenschaft ist in<br />

vielen wissenschaftlichen Bereichen (ebenso wie in<br />

unserer Alltagsauffassung von Kognition) nach wie<br />

vor zu erkennen, was sich sowohl in den Metaphern<br />

ausdrückt, mit denen Lernprozesse beschrieben<br />

werden, als auch in deren, häufig implizit angenommenen,<br />

Wissensbegriffen.<br />

Wann immer es um Lernen und Erinnern geht, ist<br />

die Computermetapher „Kognition ist Informationsverarbeitung“<br />

allgegenwärtig: es wird von Abspeichern,<br />

Updaten, Speichern, Informationsverar-


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

beitung und Abrufen gesprochen. Unser Gedächtnis<br />

wird von der Kognitiven Psychologie in ein Sensorisches<br />

Gedächtnis (engl. „sensory buffer“, analog zum<br />

Tastaturbuffer oder -puffer), ein Kurzzeit- oder Arbeitsgedächtnis<br />

(engl. „working memory“, analog<br />

zum Arbeitsspeicher) und ein Langzeitgedächtnis<br />

(engl. „long term memory“, analog zum Speicher,<br />

„Festplatte“) eingeteilt, zwischen denen „Information“<br />

fließt (Zimbardo, 2004, 298).<br />

Wie wir gesehen haben, ist es kein Zufall, dass<br />

dieses Modell damit in wesentlichen Teilen der Computerarchitektur<br />

entspricht. Treffen diese Ausdrücke<br />

den Kern der Sache? Oder suggerieren Sie eine spezifische<br />

Sichtweise, die den Blick auf Wesentliches verstellt?<br />

Vieles deutet darauf hin, dass letzteres der Fall<br />

ist, denn diese Sichtweise auf Kognition und Gedächtnis<br />

„funktioniert“ nur mit einem Wissensbegriff,<br />

der folgende Eigenschaften aufweist:<br />

▸ Wissen beschreibt die Welt,<br />

▸ Wissen besteht aus Einheiten (und ist damit in gewisser<br />

Weise quantifizierbar),<br />

▸ Wissen ist strukturunabhängig, das heißt es kann<br />

gespeichert und abgerufen werden, ohne sich qualitativ<br />

zu verändern und<br />

▸ Wissenseinheiten werden nach Bedarf miteinander<br />

in Beziehung gesetzt.<br />

Kurz gesagt: Wissen verhält sich wie Information,<br />

wobei mitschwingt, dass es bezüglich der Bedeutung<br />

zwischen der gesendeten und der empfangenen Information<br />

keinen Unterschied gibt, das heißt dieser<br />

Wissensbegriff behandelt Wissen nicht nur als<br />

Objekt, sondern suggeriert zusätzlich eine Objektivität<br />

(im Sinne von invarianten und subjektunabhängigen<br />

Bedeutungen) von Wissen.<br />

In einem Bildungskontext suggeriert ein solches<br />

Modell unterschwellig zumindest folgende Annahmen:<br />

▸ dass es beim Lernen darum geht etwas zu memorieren<br />

und bei Bedarf korrekt abzurufen,<br />

▸ dass dieses Etwas, das gelernt werden soll, wie ein<br />

Gegenstand von einem Gehirn ins andere weitergegeben<br />

werden kann,<br />

▸ dass dieses Etwas eine gewisse Objektivität und<br />

Unveränderbarkeit besitzt und,<br />

▸ dass Lernen eine intellektuelle Angelegenheit ist,<br />

bei dem Körper (inklusive Emotionen) und dem<br />

sozialen Umfeld bestenfalls die Rolle eines „Motivators“<br />

zukommt.<br />

Polemisch ausgedrückt, macht ein solcher Wissensbegriff<br />

Lehrende zu Bereitsteller/innen von Information,<br />

während Lernende zum beliebigen Container<br />

für Wissensobjekte werden. Selbstverständlich gehen<br />

wir nicht davon aus, dass Lehrende die skizzierte Position<br />

ernsthaft vertreten, es ist uns aber wichtig herauszuarbeiten,<br />

was in der Computermetapher für<br />

menschliches Denken implizit mitschwingt, das heißt<br />

welche Fragen und Schlussfolgerungen sie fördert<br />

und wo sie blinde Flecken hat. Gerade im Bereich des<br />

Lehrens und Lernens mit Technologien – also unter<br />

Einsatz eines Computers – ist es besonders verführerisch,<br />

Wissen als Objekt zu behandeln, vergleiche das<br />

Konzept von Lernobjekten. Im Bereich des<br />

E-Learning findet es sich in mediendidaktischen<br />

Konzepten wieder, die von einer De- und Rekontextualisierbarkeit<br />

von Wissen oder, wie das Microlearning<br />

auf „Wissensbrocken’“ basieren. Wir<br />

möchten das nicht als Verurteilung verstanden<br />

wissen, als Elemente eines umfassenderen didaktischen<br />

Konzepts können sie durchaus sinnvoll eingesetzt<br />

werden. Was wir herausarbeiten möchten ist,<br />

wie eine Metapher – nämlich menschliche Kognition<br />

funktioniert wie ein Computer – und die Verwendung<br />

des Computers konzeptuell nahtlos zusammengehen<br />

und eine Allianz bilden, die einen Wissensbegriff<br />

transportiert und eine Didaktik des „Wissenstransfers“<br />

nahelegt.<br />

Nun könnte man einwenden, dass es egal sei, mit<br />

welchem Wissensbegriff jemand lernt, die Fakten<br />

seien schließlich klar durch den Kursinhalt oder vom<br />

Lehrplan vorgegeben. Der Wissensbegriff, mit dem<br />

Lernende ans Lernen herangehen ist aber wesentlich<br />

für einen nachhaltigen Lernerfolg. Ference<br />

Marton und Roger Säljö haben in einer Studie (1976,<br />

zitiert in Land et al., 2008) zwei qualitativ unterschiedliche<br />

Lernstrategien identifizieren können, die<br />

sie als oberflächliches Lernen (engl. „surface<br />

learning“) und tiefes Lernen (engl. „deep learning“)<br />

bezeichnen. Letzteres ist der Wunsch aller Lehrenden:<br />

Lernende, die intrinsisch motiviert um profundes<br />

Verstehen ringen und das Gelernte mit Vorwissen<br />

und Erfahrung verknüpfen. Gerade im<br />

Kontext unseres Bildungssystems kommt es leider<br />

viel zu häufig zur alternativen Strategie des Surface<br />

Learning. Lernende lernen ohne eigene Motivation<br />

isolierte Fakten auswendig, um sie bei Bedarf zu reproduzieren<br />

(und ggf. gleich wieder zu vergessen), ein<br />

Verhalten das auch gerne als Bulimie-Lernen bezeichnet<br />

wird (Tabelle 2 stellt die beiden Lernstrategien<br />

noch einmal gegenüber). Surface Learning<br />

geht dabei mit einem Wissensbegriff einher, der auf<br />

einzelne Fakten fokussiert, also Wissen als isolierte<br />

„Wissensobjekte“ behandelt. Mit der Computerme-


tapher für menschliche Kognition liefert der Kognitivismus<br />

eine Sicht auf menschliche Kognition, die<br />

eben diese Wissenskonzeption unterstützt.<br />

Forderungen nach einer Didaktik, die mehr<br />

leistet als ein Fokussieren auf Faktenwissen, gibt<br />

es spätestens seit der Reformpädagogik. Im Laufe der<br />

letzten Jahrzehnte hat sich die Sicht auf menschliche<br />

Kognition sehr gewandelt und wir möchten Sie einladen<br />

sich mit uns wieder auf die Ebene der kognitionswissenschaftliche<br />

Grundlagenforschung zu begeben<br />

und Teile dieser Entwicklung mit uns nachzuvollziehen,<br />

die Konsequenzen für unser Bild von<br />

Lernen und Wissen sowie den Einsatz von Technologien<br />

vor diesem Hintergrund zu reflektieren.<br />

5. Der Übergang zu einer neuen Sicht auf Kogni/on:<br />

?<br />

Der Konnek/onismus und die Simula/on neuronaler<br />

Prozesse<br />

Wie oben ausgeführt, führte die Sichtweise der Klassischen<br />

Kognitionswissenschaft zu einer starken<br />

Kritik, wobei in unserem Kontext ein zentraler Punkt<br />

ist, dass die oben skizzierten Systeme nicht lernen<br />

konnten. Mitte der 1980er Jahre kam es, ausgelöst<br />

durch eine in dem Doppelband „Parallel Distributed<br />

Processing“ von David E. Rumelhart und James F.<br />

McClelland (1986) veröffentlichte Sammlung von<br />

Einzelarbeiten, zu einem Siegeszug eines neurowis-<br />

Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 7<br />

Surface Learning Deep Learning<br />

Stützt sich aufs Auswendiglernen Suche nach der Bedeutung und Verstehen<br />

Stützt sich auf Faktenwissen & Rou:nen Stützt sich auf das „Wesentliche“, den „Kern“<br />

Fokussiert auf Regeln und Formeln, die für die Lösung ei-­‐<br />

nes Problems angewendet werden<br />

Fakten und Konzepte werden unreflek:ert „aufgenom-­‐<br />

men“ und abgespeichert<br />

Vernachlässigt den Kontext Bezieht Kontext ein<br />

Fokussiert auf zentrale Argumente, die für die Lösung ei-­‐<br />

nes Problems von Bedeutung sind<br />

Verknüp> theore:sche Ansätze mit eigenem Erfahrungs-­‐<br />

hintergrund<br />

Fokussiert auf nicht vernetzte Teile einer Aufgabe verbindet vorhandenes Wissen mit neuem Wissen<br />

Mo:va:on ist extrinsisch Mo:va:on ist intrinsisch<br />

Tabelle 2: Charakteristika von Surface Learning und Deep Learning nach Marton und Säljö (1976, zitiert in Land et al., 2008)<br />

Wo ist Ihnen die Computermetapher, das Benennen<br />

kogni:ver Prozesse als speichern, abrufen, usw. be-­‐<br />

reits begegnet? Reflek:eren Sie Ihre „Alltagsphilo-­‐<br />

sophie“: Wie denken Sie selbst über Kogni:on, Lernen<br />

und Wissen? Wie, in welchen Metaphern, sprechen<br />

Sie darüber?<br />

senschaftlich inspirierten Modells, das bislang vom<br />

Mainstream der Kognitionswissenschaft ignoriert<br />

worden war: den künstlichen neuronalen Netzen<br />

(KNN).<br />

Ein KNN (in der Regel eine Computersimulation,<br />

es sind aber auch physische Umsetzungen möglich)<br />

besteht aus vielen sehr einfachen, identisch aufgebauten<br />

Einheiten, die als units oder auch Neuronen<br />

bezeichnet werden und über Gewichte (diese simulieren<br />

in sehr vereinfachter Weise die Funktion von<br />

Synapsen) untereinander verbunden sind. Typischerweise<br />

haben KNN, die für die Modellierung kognitiver<br />

Leistungen herangezogen werden eine Schicht<br />

von Neuronen, der Stimuli präsentiert werden (engl.<br />

„input layer“), eine Schicht von Neuronen, die etwas<br />

ausgeben (engl. „output layer“) sowie eine oder<br />

mehrere Neuronenschichten dazwischen (engl.<br />

„hidden layer“), die jeweils linear oder rekursiv miteinander<br />

verbunden sind.<br />

Die Aufgabe oder Funktion jedes einzelnen<br />

Neurons besteht darin, die Aktivierungen der eingehenden<br />

Verbindungen zu integrieren und an die jeweils<br />

„angeschlossene“ Units weiterzugeben. Dies geschieht<br />

durch einfaches Aufsummieren der gewichteten<br />

Inputs und Weitergabe der eigenen Aktivierung,<br />

wenn diese einen bestimmten Schwellenwert überschreitet.<br />

Dies wird von allen Units parallel durchgeführt<br />

und führt, auf der Ebene des gesamten Netzwerks,<br />

zu einer emergenten Verhaltensdynamik. Wesentlich<br />

ist, dass diese Netze in ihrer Architektur<br />

(meist) fest „verdrahtet“ sind, die Gewichte aber veränderbar<br />

sind. In Kombination mit den Inputs aus<br />

der Umwelt sind die Gewichte für die Verhaltensdynamik<br />

des Netzwerks verantwortlich. Anstatt die Gewichte<br />

von Hand einstellen zu müssen, wurde in den


8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

frühen 1980er Jahren ein Algorithmus gefunden, der<br />

die schrittweise Veränderung der Gewichte in einem<br />

Trainingsprozess in einer Weise durchführt, dass das<br />

Netz seine Aufgabe schließlich fast perfekt lösen<br />

kann: KNN können ohne Eingabe von Regeln und<br />

Symbolen, nur anhand von Beispielen, mit denen sie<br />

trainiert werden, lernen. Nach jeder Aufgabe bekommen<br />

sie ein Feedback, ob die Antwort richtig<br />

oder falsch war, indem Ihre Gewichte ganz minimal<br />

in Richtung der korrekten Lösung verändert werden,<br />

bis sie fast zu 100 Prozent richtig liegen. Allerdings<br />

können sie nicht alle Aufgaben gleichermaßen gut<br />

lösen. Gut sind sie, kurz gesagt, bei Mustererkennung,<br />

Kategorisierungsaufgaben, Vorhersage von<br />

Wahrscheinlichkeiten, usw. Modelle von Aspekten<br />

menschlicher Kognition, die auf KNN basieren,<br />

weisen einige sehr charakteristische Eigenschaften<br />

auf:<br />

▸ Bei Kategorisierungsaufgaben kann ein KNN generalisieren.<br />

Trainiert man ein solches Netz zum<br />

Beispiel Bilder von Blumen und Tiere zu unterscheiden,<br />

wird es ein Bild mit einem Tier, dass es<br />

nicht im Rahmen seines Trainings „gelernt“ hat,<br />

mit sehr, sehr hoher Wahrscheinlichkeit der Kategorie<br />

„Tier“ zuordnen.<br />

▸ Sie können dieselben Fehler bei der Generalisierung<br />

machen wie Menschen. Zum Beispiel<br />

übergeneralisieren Kinder beim Spracherwerb<br />

häufig unregelmäßige Formen, wenn sie Grammatik<br />

lernen, sagen zum Beispiel plötzlich „gehte“<br />

statt „ging“.<br />

▸ Die Lernkurve gleicht häufig der, die bei Menschen<br />

gefunden wurde: KNN lernen zunächst<br />

sehr schnell, dann flacht die Lernkurve zusehends<br />

ab<br />

▸ Auch wenn das Netz richtige Antworten liefert,<br />

kann es sein, dass das, was es gelernt hat, nicht der<br />

Intention des Architekten des Netzes entspricht.<br />

So unterschied ein KNN, das lernen sollte Gesichter<br />

voneinander zu unterscheiden, die gezeigten<br />

Bilder auf Basis des Haaransatzes voneinander.<br />

▸ Das in einem KNN repräsentierte Wissen ist in<br />

zweifacher Weise robust: (1) beim Lernen eines<br />

neuen Assoziationspaares „vergisst“ das Netz<br />

nicht das bereits Gelernte; (2) auch vergisst das<br />

Netz nicht schlagartig alles, wenn man einzelne<br />

Neuronen und Gewichte entfernt.<br />

Mit diesen Eigenschaften stellten KNN noch keinen<br />

grundsätzlichen Widerspruch zur klassischen Sicht<br />

auf Kognition dar. Man konnte sie durchaus als eine<br />

Ergänzung begreifen, die eine Erklärung lieferte, wie<br />

durch Lernen (von Kategorien) Symbole „in den<br />

Kopf kommen“ können. Allerdings stellte sich die<br />

Frage, welcher Natur diese Symbole denn seien. In<br />

neuronalen Netzwerken sind Symbole und Regeln<br />

nicht sauber voneinander getrennt „abgespeichert“,<br />

vielmehr ist alles, was das Netz „weiß“ in der gesamten<br />

Architektur des Netzes, das heißt in allen<br />

Neuronen, allen Gewichten und deren Konfiguration,<br />

verteilt repräsentiert. Man spricht daher<br />

auch von einem Subsymbolischen Ansatz (vgl. Rumelhart<br />

et al., 1986; Smolensky, 1998; Elman, 1990).<br />

!<br />

Eigenscha>en Künstlicher Neuronaler Netze (KNN):<br />

▸ KNN lernen anhand von Beispielen („Erfahrungs-­‐<br />

lernen“), ohne explizit eingegebene Regeln und<br />

Symbole.<br />

▸ Sie können sehr gut, kategorisieren, generalisieren<br />

und Muster erkennen.<br />

▸ Die Repräsenta:on ist verteilt (subsymbolischer<br />

Ansatz<br />

▸ und robust.<br />

▸ Sie machen ähnliche Fehler wie wir und<br />

▸ sind „biologisch plausibler“, weil von der Struktur<br />

natürlicher Neuronaler Netze inspiriert<br />

Konsequenzen für unsere Begriffe von Wissen und<br />

Lernen<br />

Der erste Erfolg der Künstlichen Neuronalen Netze<br />

war zunächst, ein biologisch plausibles Modell<br />

dafür zu liefern, wie Symbole und Regeln gelernt<br />

werden können. In gewisser Weise setzen sie eine<br />

Ebene tiefer an als der symbolverarbeitende Ansatz:<br />

sie bieten eine Alternative auf der „subsymbolischen<br />

Ebene“ an (Smolensky, 1998). Konsequenz war aber<br />

ein neues Bild von Repräsentation und den Eigenschaften<br />

kognitiver Systeme.<br />

Damit erlauben die KNN eine fundamental<br />

andere Sichtweise auf Wissen (Peschl, 1994;<br />

Peschl, 1997). Zunächst ist klar: das „Wissen im<br />

Kopf“ muss strukturell keineswegs identisch mit den<br />

in Symbolen und Regeln beschriebenen Strukturen<br />

der Welt sein. Nicht die „korrekte“ Abbildung der<br />

Welt ist relevant, sondern das adäquate Ergebnis,<br />

also gewissermaßen die Handlung, die in die Struktur<br />

der Umwelt passen muss. Als eine Konsequenz der<br />

Aufgabe des Konzeptes der Abbildung sind die Inhalte<br />

der Repräsentation, im Gegensatz zu klassischen<br />

symbolverarbeitenden Systemen, nicht mehr<br />

unmittelbar verständlich; vielmehr bedarf es aufwändiger<br />

statistischer Verfahren, um herauszufinden, was<br />

so ein Netz eigentlich gelernt hat.


Eine weitere interessante Konsequenz der verteilten<br />

Repräsentation ist, dass, im Gegensatz zum<br />

klassischen Ansatz, keine Trennung zwischen<br />

Inhalt und Substrat besteht: das Netz ist sein<br />

Wissen und dieses Wissen ist in der Architektur verkörpert<br />

(zumindest potentiell, zumeist handelt es sich<br />

bei KNN ja um Computersimulationen (zum Beispiel<br />

Clark, 1999; Clark, 2001)). Damit gibt es auch keine<br />

leicht voneinander trennbaren Wissensobjekte<br />

mehr, vielmehr werden alle dem neuronalen<br />

Netzwerk präsentierten Stimuli (zum Beispiel Bilder)<br />

von allen Neuronen und allen Gewichten repräsentiert.<br />

Die Repräsentation das KNN kann man als<br />

einen Raum verstehen, in dem Inputs kategorisiert<br />

und dadurch in eine Beziehung (in diesen einfachen<br />

Modellen ist es Ähnlichkeit) gesetzt werden.<br />

Die Analogien zu Bildungskontexten, insbesondere<br />

Frontalsituationen liegen auf der Hand: Die<br />

„Input-Output-Relation“ ist dadurch bestimmt, dass<br />

Lernende durch Vortrag, durcharbeiten eines Lernpfades,<br />

usw. einen Stoff präsentiert bekommen und<br />

in einer Prüfungssituation den gewünschten<br />

„Output“ zu liefern haben. Doch Lernen ist kein Kopiervorgang<br />

von Wissensobjekten – was gelehrt wird,<br />

muss noch lange nicht das sein, was gelernt wird.<br />

Nachdem Lernen in unserem Bildungssystem häufig<br />

„Output-getrieben“ ist („Was muss ich tun, um eine<br />

gute Note zu bekommen?“), liegt es daher nahe, Prüfungen<br />

so anzulegen, dass nicht isolierte Fakten abgefragt<br />

werden, sondern ein Verständnis der Kategorien<br />

und Bezüge des gesamten „Wissensraumes“ gefordert<br />

ist.<br />

?<br />

Welche Prüfungssitua:onen, die Sie als Lernende<br />

erlebt oder als Lehrende gestaltet haben, haben<br />

Fakten abgefragt und welche Prüfungsmethoden sind<br />

„:efer“ gegangen?<br />

6. Embodied and Situated Cogni/on<br />

Verkörperte Kogni/on<br />

Rückwirkend kann der Konnektionismus, der zu<br />

seiner Zeit eine Revolution war, als Bindeglied und<br />

Übergangsphase zwischen zwei Paradigmen gesehen<br />

werden. Was als „Nebenwirkung“ des Konnektionismus<br />

begann, rückte schließlich ins Zentrum des<br />

Interesses: Während die klassische Kognitionswissenschaft<br />

versucht hatte die Welt möglichst genau in formalisierten<br />

Strukturen abzubilden, rückte durch den<br />

Konnektionismus die Frage in den Mittelpunkt, wie<br />

KNN-Architektur und -Prozesse mit der Struktur<br />

und Dynamik der Umwelt (Stimuli) zweckmäßig und<br />

dem jeweiligen System angemessen interagieren.<br />

Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 9<br />

Damit war der Weg frei, die zentrale implizite Annahme<br />

der Klassischen Kognitionswissenschaft in<br />

Frage zu stellen: Wie „biologisch plausibel“ ist überhaupt<br />

die stillschweigende Annahme, dass Kognition<br />

vor allem dafür da ist, abstrakte Symbole und Regeln<br />

zu verarbeiten?<br />

Der Fokus auf die Interaktion eines verkörperten<br />

kognitiven Systems, also eines kognitiven Systems<br />

dessen physische Beschaffenheit eine zentrale Rolle<br />

für seine Repräsentationsfunktionen spielt, mit seiner<br />

physischen Umwelt erlaubte eine neue, „biologischere“<br />

Sichtweise: Die Aufgabe von Kognition ist<br />

es, einem Organismus sinnvolles, das heißt überlebensförderliches<br />

Handeln in Raum und Zeit zu ermöglichen.<br />

Im Paradigma der Embodied Cognition<br />

wird die Koppelung von Kognition, Körper und Welt<br />

daher zum zentralen Thema. Damit ändern sich auch<br />

die Modelle und die Perspektive auf Wissen (-srepräsentation).<br />

Sie kommen nun vielfach aus dem Bereich<br />

der Robotik.<br />

Anforderung an ein kognitives System ist nicht<br />

länger, über möglichst viel und präzises Weltwissen<br />

zu verfügen, um in seiner Umwelt „funktionieren“ zu<br />

können, es geht vielmehr darum, zeitgerecht mit Veränderungen<br />

der Umwelt adäquat umzugehen, (pro-)<br />

aktiv und intentional zu handeln. Schon 1986 postulierte<br />

Rodney Brooks, Robotiker am MIT, man<br />

brauche keine Repräsentation und schlug eine Roboterarchitektur<br />

vor, die robustes und gleichzeitig flexibles<br />

Verhalten hervorbrachte, die sogenannte Subsumption<br />

Architecture (Brooks 1991).<br />

Das Wesentliche dabei ist, dass ein solches System<br />

ohne eine klassische Form der Repräsentation, das<br />

heißt ohne eine Beschreibung, die die Welt abbildet,<br />

auskommt. Stattdessen ist das Wissen in der Architektur<br />

selber verkörpert und dient der Generierung<br />

von Verhalten in Interaktion mit der Welt. An die<br />

Stelle der Abbildung der Welt tritt eine enge erfolgreiche<br />

Koppelung mit der Umwelt. Basis dieser Architektur<br />

bilden Reflexbögen (engl. „layer“ oder<br />

Schichten), die auf Basis eines Reizes aus der Umwelt<br />

eine Handlung ausführen (denken sie an den Lidschlussreflex).<br />

Untereinander sind die Schichten hierarchisch<br />

gekoppelt, das heißt ein Reflex in Ausführung<br />

kann bestimmte andere unterbinden oder<br />

von anderen unterbunden werden. Damit ist sichergestellt,<br />

dass der Roboter fortlaufend auf die Ereignisse<br />

in seiner Umwelt reagiert (wobei schon aus Sicherheitsgründen<br />

eine Aktivität „steh still“ ist) beziehungsweise<br />

Aktivität produziert. Dabei ordnen („subsummieren“)<br />

die Schichten ihre Aktivitäten gegenseitig,<br />

unabhängig davon, wie viele Schichten dem<br />

System hinzugefügt werden. Dies geschieht ohne In-


10 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Embodiment Kogni/vismus<br />

Koppelungsmetapher: Kogni:on („Geist“), Körper und Welt<br />

sind gekoppelt und interagieren<br />

Will man sie verstehen, müssen ihre Zusammenhänge un-­‐<br />

tersucht werden<br />

Im Vordergrund: zielgeleitetes Handeln in Echtzeit im dreidi-­‐<br />

mensionalen Raum<br />

Kogni:on als ak:ve Konstruk:on, die in verkörperten, ziel-­‐<br />

gerichteten Handlungen des Organismus verankert ist<br />

formationsaustausch, das heißt es gibt weder ein zentrale<br />

Verhaltensplanung und Entscheidungsinstanz,<br />

noch eine Abbildung der Welt.<br />

Brooks’ Ansatz stellt ein Extrem dar, aber er<br />

bringt einige Punkte ans Tageslicht, die generell<br />

kennzeichnend für den Ansatz der embodied cognitive<br />

science sind (eine etwas ausführlichere Übersicht<br />

von Cowart (2006) finden Sie in Tabelle 2: Kognition<br />

ist eine Aktivität: die Handlung steht im Vordergrund,<br />

nicht die (passive) Perzeption). Untersucht<br />

wird Kognition an der Schnittstelle Körper –<br />

Umwelt, also an der „Peripherie“ des kognitiven<br />

Systems. Im Gegensatz zur klassischen Kognitionswissenschaft,<br />

die bei menschlichen kognitiven<br />

Höchstleistungen ansetzte, beginnt dieser Ansatz mit<br />

sehr einfachen Strukturen und Verhaltensweisen, aber<br />

dafür mit einem verkörperten, sich in seiner Umwelt<br />

autonom verhaltenden System.<br />

Ganz ohne Repräsentation wird man nicht auskommen,<br />

wenn man menschliche Kognition verstehen<br />

will, aber Kognition als rein „geistiges“, von<br />

Körper, physischer und sozialer Umwelt unabhängiges<br />

Phänomen zu betrachten führt, wie wir ausgeführt<br />

haben, ebenfalls in eine Sackgasse.<br />

Computermetapher – Kogni:on („Geist“) ist regelbasiert<br />

und logisch<br />

Isolierte Analyse: Kogni:on wird ausschließlich durch Ana-­‐<br />

lyse interner Prozesse verstanden<br />

Im Vordergrund: computa(on<br />

Kogni:on als passives Abrufen<br />

Repräsenta:onen sind sensomotorisch Repräsenta:onen sind symbolisch encodiert<br />

Tabelle 3: Unterschiede von Embodiment und Kongitvismus nach Cowart (2006)<br />

In der Praxis: Das Experiment von Presson und Montello (1994)<br />

Zwei Versuchsgruppen wurden gebeten, sich die Posi:on ei-­‐<br />

niger Gegenstände in einem Raum zu merken. Anschließend<br />

wurde ihnen die Augen verbunden. Die erste Gruppe wurden<br />

gebeten sich um 90° zu drehen und nacheinander auf die<br />

Objekte zu zeigen, die angesagt wurden. Die zweite Gruppe<br />

wurde gebeten sich lediglich vorzustellen sie häcen sich<br />

gerade um 90° gedreht und sollten auf die Posi:on zeigen,<br />

die die Objekte einnehmen würden, wenn sie sich gedreht<br />

häcen. Aus Sicht des kogni:vis:schen Paradigmas tun beide<br />

Gruppen dasselbe: sie ro:eren ihre Repräsenta:on des<br />

Ein elegantes Experiment, das diese Sichtweise<br />

stützt, kommt von Presson und Montello (1994, vgl.<br />

Box „Aus der Forschung“). Glenberg (1993) schließt<br />

daraus, dass unsere Repräsentationen keineswegs körperunabhängig,<br />

sondern im Gegenteil, stark von der<br />

Position unseres Körpers im dreidimensionalen<br />

Raum abhängen. Mit anderen Worten, das Experiment<br />

zeigt, dass die Repräsentation der Probandinnen<br />

und Probanden einen sensomotorischen<br />

Anteil hatte.<br />

Die Hervorbringung und Nutzung von Artefakten als Teil<br />

unserer Kogni/on: Die Rolle der sozialen Interak/on,<br />

der Sprache und der „Kultur“<br />

Francisco Varela postulierte bereits 1984, dass „Intelligenz“<br />

nicht mehr als die Fähigkeit des Problemlösens<br />

zu verstehen sei, sondern als die Fähigkeit, in<br />

eine mit anderen geteilte Welt einzutreten (Varela,<br />

1994). Einen Hinweis darauf, dass schon die Gegenwart<br />

anderer eine „geteilte Welt“ erzeugt, gibt das<br />

Experiment von Sebanz et al. (2009, vgl. „Aus der<br />

Forschung:“). Die „geteilte Welt“ ist jedoch nicht<br />

einfach gegeben, ebenso wie Kognition entsteht sie in<br />

einem aktiven Prozess: Menschen reagieren nicht nur<br />

Raumes und der Objekte darin um 90°. Daher wäre anzu-­‐<br />

nehmen, dass es keine Rolle spielt, ob die Probandinnen und<br />

Probanden sich zusätzlich physisch in eine andere Posi:on<br />

begeben. Tatsächlich aber zeigten die Probandinnen und Pro-­‐<br />

banden der ersten Gruppe, die sich tatsächlich gedreht<br />

hacen, schnell und akkurat auf die gefragten Objekte,<br />

während die Zeigebewegungen der zweiten Gruppe, die sich<br />

die Drehung lediglich vorstellen musste, zögerlich und un-­‐<br />

genau waren.


auf Stimuli in der Umwelt, sondern wir verändern<br />

und strukturieren sie in hohem Maße. Der Philosoph<br />

Andy Clark (1995) bezeichnet dies das als „Scaffolding“<br />

(Errichten eines Gerüsts): wir strukturieren<br />

unsere Umwelt so, dass sie uns in unseren Handlungen,<br />

bzw. beim Erwerb von Fähigkeiten unterstützt.<br />

Ein alltägliches Beispiel ist der Terminkalender:<br />

Wir müssen uns nicht länger jeden Termin<br />

merken, statt dessen werfen wir kognitiven Ballast ab<br />

(man spricht von engl. „offloading cognitive load“)<br />

und interagieren mit unserem Terminkalender, indem<br />

wir Einträge machen oder ihn konsultieren. Eine kognitiv<br />

anspruchsvolle Aufgabe – hier: viele unterschiedliche<br />

Termine exakt „im Kopf haben“ – wird<br />

auf wenige Handlungsmuster in Form der Interaktion<br />

mit einem Artefakt heruntergebrochen.<br />

Darüber hinaus strukturieren wir unsere Umwelt<br />

nicht nur durch Artefakte, wie Werkzeuge, Terminkalender,<br />

Städte, sondern durch soziale Konventionen,<br />

Organisationen und – nicht zuletzt - durch Sprache.<br />

Letztere bezeichnet Clark (1995) als „ultimatives Artefakt“,<br />

weil sie folgende Funktionen erfüllt:<br />

▸ Ein symbolisches Artefakt hat immer den Aspekt<br />

der Referenz. Das heißt ein Symbol referiert auf<br />

den Gegenstand, für den es steht. Es ist klar, dass<br />

diese Referenz nicht im Symbol selber, sondern<br />

durch eine Zuschreibung durch ein oder mehrere<br />

kognitive Systeme geschieht. Das Artefakt ist sozusagen<br />

nur Träger für eine potentielle Referenzfunktion.<br />

▸ Darüber hinaus vermögen symbolische Artefakte<br />

Teile unseres Gedächtnisses stabil zu halten und<br />

▸ die Strukturierung der Umwelt zu verhandeln.<br />

Über Artefakte beeinflussen wir die Interaktionsmöglichkeiten<br />

anderer mit der Welt und werden in noch<br />

stärkerem Maße selbst beeinflusst. Mit anderen<br />

Worten: Kognition (hier ist weitgehend menschliche<br />

Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 11<br />

Aus der Forschung: Das Experiment von Sebanz et al. (2009)<br />

Sebanz et.al. (2009) zeigten ihren Versuchspersonen ver-­‐<br />

schiedene Bilder aus drei Kategorien (Tier, Frucht/Gemüse<br />

und Haushaltsgerät) auf einem Computerbildschirm, wobei<br />

eine Versuchsperson immer auf eine Kategorie mit Tasten-­‐<br />

druck reagieren sollte. Diese Aufgabe wurde unter zwei Um-­‐<br />

ständen durchgeführt: alleine und in Gegenwart einer<br />

zweiten Versuchsperson, deren Aufgabe es war, auf eine<br />

andere Kategorie zu reagieren.<br />

Nach dieser Aufgabe wurden die Versuchspersonen jeweils<br />

gebeten, möglichst viele der gesehenen Objekte aller Kate-­‐<br />

Kognition gemeint) hat immer eine sozio-kulturellen<br />

Dimension, man spricht in diesem Kontext auch von<br />

Situated Cognition (Clark, 2001), Die nächste Generation<br />

erhält nicht nur die Gene der Elterngeneration,<br />

sondern wächst in die entstandenen sozialen<br />

und organisationalen Strukturen sowie die Interaktion<br />

mit physischen Artefakten hinein. Tomasello<br />

(1999) bezeichnet diesen Umstand in seinem Buch<br />

„The Cultural Origin of Human Cognition“ als Ratscheneffekt<br />

(engl. „ratchet effect“): Wie die Zacken<br />

des Zahnrads, die die Drehung der Ratsche in eine<br />

Richtung erzwingen, ermöglichen Artefakte den<br />

Aufbau neuer Interaktionsmuster auf der Basis der<br />

vorangegangenen.<br />

?<br />

Überlegen Sie bice, in welchen alltäglichen Situa-­‐<br />

:onen Sie Artefakte verwenden, die Ihnen „kogni:ven<br />

Ballast“ abnehmen. Welche Cogni:ve Load laden Sie<br />

ab und welche Interak:onsmuster treten an ihre<br />

Stelle?<br />

Hutchins (1995) wechselt daher die Betrachtungsebene:<br />

In seinem Artikel „How a cockpit remembers<br />

its speeds“ ist der Forschungsgegenstand „kognitives<br />

System“ nicht mehr das Individuum, sondern ein<br />

sozio-technisches System, das nicht nur aus Individuen<br />

(Piloten), sondern auch aus Artefakten (Messinstrumente<br />

und Unterlagen) im Cockpit, besteht<br />

(siehe Kapitel #ant). Um zu verstehen, warum das<br />

Flugzeug sicher landet, reicht es aus seiner Sicht nicht<br />

aus, die kognitiven Prozesse im Kopf der Piloten zu<br />

analysieren, eine Erklärung für die Leistung findet<br />

sich erst, wenn man alle Formen der Repräsentation<br />

– sei diese im Gehirn, auf Papier, einem Messinstrument<br />

oder eine sprachliche Äußerung sowie die<br />

Interaktionsmuster zwischen ihnen analysiert. (Man<br />

beachte an dieser Stelle eine weitere Umdeutung des<br />

Begriffs der Repräsentation!)<br />

gorien zu erinnern. Das Ergebnis war verblüffend: Personen,<br />

die ihre Aufgabe in Gegenwart einer zweiten Versuchsperson<br />

erfüllt hacen, erkannten signifikant mehr Objekte aus der<br />

Kategorie der anderen Person wieder, als wenn sie die<br />

Aufgabe alleine bewäl:gten. Die Anwesenheit der zweiten<br />

Person hace weder Auswirkung auf das Erinnern der „ei-­‐<br />

genen“ Kategorie noch auf das der dricen Kategorie. Allein<br />

die soziale Situa:on, ohne eine im eigentlichen Sinne ge-­‐<br />

meinsame Aufgabe, hace Auswirkungen auf die Aufmerk-­‐<br />

samkeit und das Gedächtnis der Versuchspersonen.


12 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Im Bereich des Lehrens und Lernens ist eine<br />

solche Betrachtungsweise eine gute Basis, um Lernprozesse<br />

als situiert zu konzeptualisieren. In ihrem<br />

Buch „Situated Learning“ (1991) analysieren Lave<br />

und Wenger (1991) außerschulische Lernprozesse,<br />

wie sie beispielsweise in einer Lehre, bei der Ausbildung<br />

zum Steuermannsmaat auf Schiffen (ein Beispiel<br />

von Hutchins) oder bei den Anonymen Alkoholikern<br />

stattfinden, als Lernprozesse in denen sich<br />

Person, Handlung und Welt gegenseitig konstituieren.<br />

Ihr Augenmerk ist dabei weniger auf Artefakte, als<br />

auf die sozialen und organisationalen Strukturen gerichtet,<br />

die dazu führen, dass Neulinge in einem Wissensgebiet<br />

nicht einfach nur Fakten lernen, sondern<br />

in eine Praxisgemeinschaft (engl. „community of<br />

practice“; Wenger, 1998) eintreten und mit zunehmender<br />

Expertise auch eine neue Identität entwickeln.<br />

Unter welchen Bedingungen Communities of<br />

Practice nicht ausschließlich im physischen Raum,<br />

sondern als „virtual communities“, virtuelle Gemeinschaften,<br />

im Internet existieren können, zeigt Powazek<br />

(2001).<br />

7. Konsequenzen für unsere Sicht auf Wissen, Lernen<br />

und Technologien<br />

Was sind die Konsequenzen einer verkörperten und<br />

situierten Kognitionswissenschaft für unseren Wissensbegriff?<br />

Vom leicht fassbaren, weil formalisierbaren<br />

Wissensbegriff der klassischen Kognitionswissenschaft<br />

ist nicht viel übrig geblieben. Stattdessen ist<br />

die Rede von verteilter Repräsentation, Interaktion<br />

und Koppelung mit der Umwelt, Verwendung von<br />

Artefakten, um kognitiven Ballast zu reduzieren, usw.<br />

Was davon ist „Wissen“ – was sind für das kognitive<br />

System interne und was sind externe Strukturen?<br />

Externalisiertes Wissen als Entität, das einen Teil<br />

der Welt beschreibt, gibt es in der Form nicht mehr;<br />

es handelt sich hier nicht um „Wissen“ im alltagssprachlichen<br />

Sinn, sondern um ein an sich bedeutungsloses<br />

Artefakt, dessen Bedeutung in einem fortlaufenden<br />

interaktiven Aushandlungsprozess zwischen<br />

den teilnehmenden kognitiven Systemen bzw.<br />

deren internen repräsentationalen Strukturen/-prozessen<br />

erst entsteht. Das bedeutet auch, dass an die<br />

Stelle des Begriffs von Wissen als statischen Gegenstand,<br />

der wahr oder falsch sein kann, das Konzept<br />

eines dynamischen zyklischen Prozesses getreten<br />

ist, dessen Entwicklungsstufen sich in immer neuen<br />

Artefakten niederschlagen, die ihrerseits neue Interaktionsmöglichkeiten<br />

anbieten, welche wiederum eine<br />

Veränderung der internen Strukturen und Handlungsmuster<br />

hervorrufen.<br />

Das geht insofern mit einem konstruktivistischen<br />

Denken Hand in Hand, als dass das Artefakt an sich<br />

bedeutungslos ist. Der Fokus liegt hier jedoch weniger<br />

auf der individuellen Kognition und Konstruktion<br />

der „Welt im Kopf“ als auf den Prozessen<br />

und Strukturen, die dazu führen, dass wir durch<br />

Kommunikation zu einer Einigung auf „gültiges<br />

Wissen“ -- im Sinne von verhandelt und vereinbart-kommen.<br />

Letztlich befähigt uns das zum Eintreten in<br />

eine „geteilte Welt“, die wir in Wissensprozessen<br />

fortwährend erzeugen.<br />

Nimmt man den konstruktivistischen Ansatz und<br />

das Paradigma der Embodied Cognition ernst, hat<br />

das auch Implikationen für das Verständnis von<br />

Lernen und Lehren. Etwas gelernt zu haben beschränkt<br />

sich nicht auf die korrekte Reproduktion<br />

einer Beschreibung eines Teils der Welt („Faktenwissen“).<br />

Relationen zwischen diesen Beschreibungen,<br />

Verhaltensstrategien zur erfolgreichen Umweltbewältigung<br />

und letztendlich di e Fähigkeit zur<br />

Teilnahme an Wissensprozessen sowie deren Reflexion<br />

sind ebenso unabdingbar, um „etwas zu<br />

wissen“.<br />

Dies hat auch Konsequenzen für die Rolle der<br />

Lehrenden: Sie sind nicht länger die Verkünder finaler<br />

Wahrheiten, sondern Coaches oder Moderatorinnen<br />

und Moderatoren, die „nur“ mehr die Wissensdynamik<br />

im Lehr- und Lern-Raum moderieren.<br />

Man könnte meinen, dass dies ihre Wichtigkeit und<br />

Autorität als „Wissende“ vermindert; sieht man<br />

jedoch genauer hin, wird sie bedeutsamer denn je, da<br />

sie die Umwelt gestalten, das heißt die Artefakte und<br />

damit die möglichen Interaktionsmuster auswählen,<br />

die Wissensprozesse erst ermöglichen und durch ihr<br />

Verhalten die Regeln der sozialen Interaktion festsetzen.<br />

Sie sind Gestalter/innen von Lernräumen, die<br />

entweder Bulimie lernen fördern, oder aber Enabling<br />

Spaces, Räume sein können (Peschl et al. 2008), die in<br />

einer Vielzahl an Dimensionen (architektonisch,<br />

sozial, technologisch, kognitiv, emotional, usw) ermöglichende<br />

Rahmenbedingungen bieten, um die<br />

Arbeit der Wissensgenerierung und Bedeutungsverhandlung<br />

zu unterstützen.<br />

Auf der Ebene von Technologien hat sich interessanterweise<br />

ein Wandel vollzogen, den man als<br />

Konsequenz eines veränderten Bildes von Kognition<br />

und Wissen deuten kann: Die monolithische Autorität<br />

eines Brockhaus ist abgelöst worden von Wikipedia,<br />

einem Artefakt, das gleichzeitig Raum für und<br />

Produkt eines permanenten Aushandlungsprozesses<br />

über Wissensartefakte ist.<br />

Nur Artefakt und Prozess gemeinsam konstituieren<br />

Wissen, die Aufgabe von Kognition ist es


nicht, „Wissensartefakte“ abzubilden, sondern mit<br />

ihnen zu interagieren und im besten Falle in gemeinsame<br />

Wissens- und Bedeutungsgebungsprozesse<br />

eintreten zu können. Nimmt man diese Überlegungen<br />

ernst, so ergibt sich für das Design von<br />

Wissens-, Lehr- und Lern-Technologien, dass nur<br />

solche Ansätze erfolgreich sein werden, die einen<br />

Raum für Interaktionen bieten und Aushandlungsprozesse<br />

von Bedeutung unterstützen, wie sie in<br />

Web-2.0-Technologien wie Wikis verwirklicht sind,<br />

nicht aber solche, die auf starren und vorgegebenen<br />

semantischen Strukturen basieren.<br />

?<br />

Literatur<br />

▸ Bechtel, W.; A. Abrahamsen & G. Graham (1998). The life of<br />

cognitive science. In: W. Bechtel & G. Graham (Hrsg.), A companion<br />

to cognitive science, Oxford: Blackwell, 1-104.<br />

▸ Brooks, R. A. (1986). A Robust Layered Control System for a<br />

Mobile Robot. In: IEEE Journalof Robotics and Automation,<br />

Vol. 2, No. 1, 14-23.<br />

▸ Brooks, R.A. (1991). Intelligence without representation. In:<br />

Artificial Intelligence 47, 139-159.<br />

▸ Chomsky, N. (1959). A Review of B. F. Skinner's Verbal Behavior.<br />

In: Language, 35, No. 1, 26-58.<br />

▸ Clark, A. (1995). Being There - Putting Brain, Body and World<br />

Together Again. Cambridge: MIT Press.<br />

▸ Clark, A. (1999). An embodied cognitive science?. In: Trends in<br />

Cognitive Sciences, 3(9), 345-351.<br />

▸ Clark, A. (2001). Mindware. An introduction to the philosophy<br />

of cognitive science. New York: Oxford University Press.<br />

▸ Elman, J.L. (1990). Finding structure in time. In: Cognitive<br />

Science 14, 179-211.<br />

▸ Glasersfeld, E.v. (1996). Radikaler Konstruktivismus. Ideen,<br />

Ergebnisse, Probleme. Frankfurt am Main: Suhrkamp.<br />

▸ Glenberg, A.M. (1997). What memory is for. In: Behavioral<br />

and Brain Sciences, 20, (1),1-55.<br />

▸ Hofstadter, D. (1979). Gödel Escher Bach. Ein Endloses geflochtenes<br />

Band.<br />

▸ Hutchins, E. (1995). How a cockpit remembers its speeds. In:<br />

Cognitive Science, 19, 265-88.<br />

▸ Land, R; Meyer, J. & Smith, J. (2008). Threshold Concepts<br />

within the Disciplines. Rotterdam: Sense Publishers.<br />

▸ Lave, J. & Wenger, E. (1991). Situated Learning: Legitimate Peripheral<br />

Participation. Cambridge: Cambridge University Press.<br />

Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 13<br />

Wie nehmen Sie die Lernräume wahr, mit denen Sie<br />

als Lernende/r, Lehrende/r oder Applika:ons-­‐<br />

designer/in konfron:ert sind? Welcher Wissensbegriff<br />

wird durch welche Elemente gefördert? Wie könnte<br />

man den Raum so verändern, dass er Wissenspro-­‐<br />

zesse (besser) unterstützt?<br />

▸ Maturana, H.R. (1970). Biology of cognition. In: H.R. Maturana<br />

& F.J. Varela (Hrsg.), Autopoiesis and cognition: the realization<br />

of the living, Dordrecht/Boston: Reidel Pub, 2-60.<br />

▸ McCulloch, W.S. & W. Pitts (1943). A logical calculus of the<br />

ideas immanent in nervous activity. In: Bulletin of Mathematical<br />

Biophysics 5, 115-133.<br />

▸ Newell, A. & Simon, H. (1963). GPS, a program that simulates<br />

human thought. In: E. Feigenbaum & J. Feldman, J. (Hrsg.),<br />

Computers and Thought, New York: McGraw-Hill.<br />

▸ Peschl, M.F. & S. Wiltschnig (2008). Emergente Innovation<br />

und Enabling Spaces. Ermöglichungsräume für Prozesse der<br />

Knowledge Creation. In: S. Seehusen; M. Herczeg; S. Fischer;<br />

M.C. Kindsmüller & U. Lucke (Hrsg.), Proceedings der Tagungen<br />

Mensch & Computer 2008, DeLFI 2008 und Cognitive<br />

Design 2008, Berlin: Logos, 446-451.<br />

▸ Peschl, M.F. (1994). Repräsentation und Konstruktion. Kognitions-<br />

und neuroinformatische Konzepte als Grundlage einer<br />

naturalisierten Epistemologie und Wissenschaftstheorie. Braunschweig/Wiesbaden:<br />

Vieweg.<br />

▸ Peschl, M.F. (1997). The Representational Relation Between<br />

Environmental Structures and Neural Systems: Autonomy and<br />

Environmental Dependency in Neural Knowledge Representation.<br />

In: Nonlinear Dynamics, Psychology, and Life Sciences<br />

(NDPSFS), 1(2), 99-121.<br />

▸ Powazek, D. (2002). Design for Community. Berkeley: New<br />

Riders.<br />

▸ Presson C. & Montello D. R. (1994). .Updating after rotational<br />

and translational body movements: coordinate structure of<br />

perspective space. In: Perception, 23,(12), 1447-1455.<br />

▸ Rumelhart, D. & McClelland, J. (1986). Parallel Distributed<br />

Processing, Vol. 1 & 2., Cambridge: MIT Press.<br />

▸ Rumelhart, D.; Smolensky, P.; McClelland, J.L. & Hinton G.E.<br />

(1986). Schemata and sequential thought processes in PDP<br />

models. In: J.L. McClelland & D.E. Rumelhart (Hrsg.), Parallel<br />

Distributed Processing: explorations in the microstructure of<br />

cognition, Psychological and biological models, Cambridge:<br />

MIT Press, 7-57.<br />

▸ Sebanz N.; Eskenazi T.; Doerrfeld A. & Knoblich G. (2009). I<br />

will remember you: Enhanced memory for information pertaining<br />

to a relevant other. In: Proceedings of the 3rd Joint<br />

Action Meeting, July 27-29,2009.<br />

▸ Skinner, B.F. (1957). Verbal Behavior. Acton: Copley Publishing<br />

Group.<br />

▸ Smolensky, P. (1988). On the proper treatment of connectionism.<br />

In: Behavioral and Brain Sciences 11, 1-74.<br />

▸ Tomasello (1999). The Cultural Origins of Human Cognition.<br />

▸ Turing, A. (1936). On computable numbers, with an application<br />

to the entscheidungsproblem. In: Proc London Mathematic<br />

Soc., 42, 230-265.<br />

▸ Turing, A. (1950). Computing machinery and intelligence. In:<br />

Mind LIX, 59, 236, 433-460.


14 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

▸ Varela, F.J. (1994). Kognitionswissenschaft - Kognitionstechnik.<br />

Eine Skizze aktueller Perspektiven. Frankfurt am Main:<br />

Suhrkamp.<br />

▸ Wenger, E. (1998). Communities of Practice: Learning,<br />

Meaning, and Identity. Cambridge: Cambridge University Press.


2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

1. Hintergrund eines betriebswirtscha3lichen Service-­‐<br />

verständnisses von technologiegestütztem Lernen<br />

Das Bildungswesen ist seit einigen Jahren massiven<br />

Veränderungen ausgesetzt. Dazu gehören im Hochschulkontext<br />

unter anderem die Umstellung der universitären<br />

Abschlüsse im Rahmen des Bologna-Prozesses,<br />

die Entwicklungen hin zu einem Konzept des<br />

„lebenslangen Lernens“ sowie der zunehmende Einfluss<br />

technologischer Impulse (zum Beispiel technologiegestütztes<br />

Lernen, Campus-Management-<br />

Systeme, Online-Erhebungen und -Tests; Gabriel et<br />

al., 2007).<br />

Diese Veränderungen haben nicht nur didaktische<br />

und hochschulpolitische Konsequenzen, sondern<br />

auch ökonomische Relevanz, was sich im Hochschulbereich<br />

vor allem durch sich ändernde Wertschöpfungs-<br />

und Wettbewerbsstrukturen zeigt. Die bisher<br />

dominierende Interpretation von Bildung als kulturhoheitlichem<br />

Gut musste beziehungsweise durfte sich<br />

nicht konsequent an ökonomischen Maßstäben<br />

messen und hat auf der Basis einer gesicherten öffentlichen<br />

Finanzierung über Jahre das vorherrschende<br />

Selbstverständnis der Akteurinnen und Akteure<br />

geprägt. Immer stärker müssen nun aber im<br />

Hinblick auf eine nachhaltige, qualitative, zukunftsorientierte<br />

und zugleich wettbewerbsfähige Hochschulbildung<br />

auch ökonomische Rahmenbedingungen<br />

berücksichtigt und durch die Hochschulen<br />

selbst mitgestaltet werden. In der Konsequenz erfahren<br />

die Hochschulen, wie auch die hochschulinternen<br />

Akteure als Leistungserbringer, immer deutlicher<br />

die Bedeutung sowie die Herausforderungen<br />

einer konsequenten Marktorientierung mit der Notwendigkeit<br />

zur Erschließung individueller Effizienzund<br />

Effektivitätspotenziale als Basis nachhaltiger<br />

Wettbewerbsvorteile. In diesem Zusammenhang<br />

kann technologiegestütztes Lernen den Hochschulen<br />

e i n e n Wettbewerbsvorteil verschaffen, da neue<br />

Technologien erhebliche neue Gestaltungsspielräume<br />

bieten.<br />

Nach Engelhardt (1966) können bei allen Leistungen<br />

drei Leistungsdimensionen unterschieden<br />

werden:<br />

▸ die Bereitstellungsleistung,<br />

▸ der Leistungserstellungsprozess und<br />

▸ das Leistungsergebnis.<br />

Technologiegestütztes Lernen hat dabei den entscheidenden<br />

Vorteil, dass in Bezug auf das Absatzobjekt<br />

Bildung ein verbessertes Leistungsergebnis (höhere<br />

Lernzufriedenheit und höherer Lernerfolg) bei<br />

gleichzeitig auch unter Kostengesichtspunkten ver-<br />

besserten Leistungserstellungs- und Bereitstellungsprozessen<br />

ermöglicht werden kann (Gabriel et al.,<br />

2007). Beim Leistungserstellungs- und Bereitstellungsprozess<br />

können sich Vorteile durch eine<br />

größere Orts- und Zeitunabhängigkeit der Lehre<br />

sowie die mögliche Wiederverwendbarkeit von techniologiegestützten<br />

Lerninhalten zeigen (Gabriel et al.,<br />

2008; Hofhues & Dürnberger, im Druck). Hinsichtlich<br />

der Leistungserstellungsprozesse und -ergebnisse<br />

bietet technologiegestütztes Lernen zudem besonderes<br />

Potenzial im Hinblick auf innovative, beispielsweise<br />

virtuelle kollaborative Lernformen, bei<br />

denen größerer Raum für Interaktionen zwischen<br />

und mit den Lernenden geschaffen wird, um die<br />

Handlungskompetenz der Lernenden nachhaltig zu<br />

fördern (Brauchle, 2007, 2). Gleichzeitig stellen technologiegestützte<br />

Ansätze des Lehrens und Lernens<br />

die Akteurinnen und Akteure aber auch vor enorme<br />

Herausforderungen. Auf Seiten der Anbieter sind<br />

oftmals erhebliche Investitionen erforderlich, unter<br />

anderem für den Aufbau des erforderlichen interdisziplinären<br />

Know-How und die erforderliche Infrastruktur.<br />

Etablierte Abläufe müssen oft angepasst<br />

und neu abgestimmt werden (zum Beispiel Anerkennung<br />

von Lehrdeputaten) und die Lehr- und<br />

Lernmaterialien bedürfen der kontinuierlichen Pflege<br />

und Wartung.<br />

Technologisch unterstützte Ansätze des Lernens<br />

und Lehrens werden daher im Folgenden in Anlehnung<br />

an Gabriel et al. (2008) als Lernservices –<br />

und damit aus einem ökonomischen Blickwinkel –<br />

thematisiert. Sie stellen große Potenziale in Aussicht,<br />

müssen aber hinsichtlich Ihrer systematischen Erstellung<br />

und Verwendung ökonomischen Ansprüchen<br />

genügen, um diese Potenziale nutzbar zu<br />

machen. Durch den Zusatz „Services“ (Englisch für<br />

„Dienstleistungen“) wird diese unmittelbare Bedeutung<br />

ökonomischer Konzepte hervorgehoben.<br />

Dies meint jedoch nicht, dass Lernservices ein ausschließlich<br />

ökonomisch geprägter Betrachtungsgegenstand<br />

sind. Sie unterliegen stets auch mindestens<br />

technischen, didaktischen sowie organisatorischen<br />

Rahmenbedingungen. Durch die Nähe des Begriffs<br />

Lernservices zu dem der elektronischen Services soll<br />

schließlich auch die Relevanz der technischen Unterstützung<br />

von Lehr- und Lernprozessen herausgestellt<br />

werden. Der Begriff „Lernservices“ bezieht sich<br />

damit unmittelbar auf Konzepte des technologiegestützten<br />

Lernens und stellt deren interdisziplinären<br />

Charakter heraus.


Lernservice-­‐Engineering. Eine ökonomische PerspekBve auf technologiegestütztes Lernen — 3<br />

2. Typen technologiegestützter Lerninhalte<br />

Bevor näher auf die Gestaltung von Lernservices<br />

eingegangen wird, werden im Folgenden verschiedene<br />

Formen von technologiegestützten Lerninhalten<br />

definiert. Die dargestellte Klassifizierung und<br />

die darin enthaltenen Typen von Lerninhalten stellen<br />

damit das inhaltliche Rüstzeug für die Erstellung von<br />

Lernservices vor, bieten aber gleichzeitig auch eine<br />

Einschätzung über den mit den einzelnen Ausprägungen<br />

von Lernmaterialien verbundenen Erstellungsaufwand.<br />

Es werden dabei die drei Formen von technologiegestützten<br />

Lernmaterialien, nämlich webbasierte<br />

Selbstlerneinheiten, rasch erstellte Lernmaterialien<br />

(„Rapid E-Learning-Content“) sowie von Lernenden<br />

erstellte Inhalte („Lernergenerierte Inhalte“)<br />

unterschieden. Die Begriffe werden im Folgenden erläutert.<br />

Webbasierte Selbstlerneinheiten oder Lernmodule<br />

sind Lernprogramme, die auf Internet-Technologien<br />

basieren und werden auch als Web-Based<br />

Trainings bezeichnet (Mair, 2005). Sie zeichnen sich<br />

durch eine multimediale Darstellung der Lerninhalte<br />

aus. So können neben Texten auch Grafiken, Tabellen,<br />

Videos, Ton und (interaktive) Animationen für<br />

die Darstellung der Informationen verwendet<br />

werden.<br />

Technologiegestützte Lernmaterialien mit einem<br />

beschleunigten Erstellungsprozess werden auch<br />

als „Rapid E-Learning-Content“, also einer Wortzusammensetzung<br />

aus Rapid Prototyping und E-<br />

Learning, bezeichnet. Dazu gehören digital aufbereitete<br />

Vorträge, oft als E-Lectures bezeichnet, die<br />

aus einer Kombination von Audio- bzw. Videoelementen<br />

mit synchronisierten Text- und Bildelementen<br />

bestehen (Gersch et al., 2010; Reinmann &<br />

Mandl, 2009). Auf diesem Wege wird eine zeit- und<br />

kostengünstigere Erstellung von technologiegestützten<br />

Lerninhalten möglich, die zudem weniger<br />

technische Kompetenz auf Seiten der Erstellenden<br />

voraussetzt.<br />

Ähnliches gilt auch für von Lernenden erstellte<br />

Lerninhalte. Das sind technologiegestützte Lerninhalte,<br />

die im Rahmen von Lernarrangements durch<br />

die Lernenden selbst entwickelt und umgesetzt<br />

werden. Hierzu eignet sich insbesondere der Einsatz<br />

von Anwendungen wie Wikis oder Blogs, die es den<br />

Lernenden ermöglichen, Inhalte kollaborativ mit den<br />

Mitlernenden zu entwickeln und somit eine sehr viel<br />

intensivere Auseinandersetzung mit den Lerninhalten<br />

fördern. Die so erstellten Inhalte können zudem als<br />

Material für künftige Lernarrangements eingesetzt<br />

werden (Wheeler et al., 2008; Franklin & Van Harmelen,<br />

2007).<br />

Um durch den Einsatz von technologiegestütztem<br />

Lerninhalt den gewünschten Rahmen für die Lehrenden<br />

zu schaffen, muss die Wahl zwischen diesen<br />

drei Inhaltsformen auch unter Effizienzgesichtspunkten<br />

erfolgen. Ziel ist dabei ein möglichst positives<br />

Kosten-Nutzen-Verhältnis bei der Erstellung<br />

und Nutzung, um die knappen Ressourcen der Lehrenden<br />

und der Hochschule optimal einsetzen zu<br />

können. Eine geeignete Grundlage hierfür bietet die<br />

Systematisierung der verschiedenen technologiegestützten<br />

Inhaltsformen hinsichtlich ihrer Erstellungsund<br />

Nutzungsprozesse. Aus dieser können konkrete<br />

Handlungsempfehlungen für die Wahl bzw. Kombination<br />

und den Einsatz der verschiedenen Inhaltsarten<br />

in konkreten Lernarrangements abgeleitet<br />

werden.<br />

Dazu lassen sich die Inhaltsarten anhand zweier<br />

Dimensionen systematisieren:<br />

▸ Zum einen nach den Leistungserstellern: Erstellen<br />

die Lehrenden oder die Lernenden selbst die Inhalte?<br />

▸ Zum anderen nach dem im Leistungserstellungsprozess<br />

benötigten Ressourceneinsatz und der<br />

Qualität der so erstellen Leistungsangebote:<br />

Werden aufwendig hochwertige Inhalte erstellt<br />

oder eher kurzfristig tendenziell einfachere?<br />

Der erste Punkt entspricht der Unterscheidung von<br />

anbieter- und nachfragergenerierten Inhalten.<br />

Web-Based Trainings und E-Lectures sind dabei anbietergenerierten<br />

Inhalten zuzuordnen, während<br />

Learner-Generated-Content nutzergeneriert ist. Die<br />

zweite Dimension unterscheidet zwischen Fast- und<br />

Slow-Content. Dieser Begriff wird analog zur Einteilung<br />

in Fast-Food und Slow-Food verwendet.<br />

Ebenso wie Fast-Food zeichnet sich Fast-Content<br />

(Rapid-E-Learning-Inhalte) durch schnelle Umsetzbarkeit<br />

aus, mit der jedoch Abstriche in der Qualität<br />

einhergehen – ganz im Gegensatz zu Slow-Food bzw.<br />

-Content, dessen längerfristig umgesetzter aber auch<br />

ressourcenintensiverer Erstellungsprozess eine<br />

höhere Qualität der Inhalte in Aussicht stellt (Gabriel<br />

et al., 2009; Gersch et al., 2010).<br />

Mit Hilfe der fünf Merkmale Qualität, Kollaborativität,<br />

Produktionsaufwand, Flexibilität und Glaubwürdigkeit<br />

können die Felder der so entstehenden<br />

Matrix detailliert beschrieben und differenziert<br />

werden, um so Handlungsempfehlungen für einen effizienten<br />

Einsatz der unterschiedlichen Typen technologiegestützter<br />

Lerninhalte zu erhalten.


4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Slow<br />

Content<br />

Fast<br />

Content<br />

Anbietergenerierte Inhalte Nachfragergenerierte Inhalte<br />

Merkmal Webbasierte Selbstlerneinheiten Wikibasierte Lerninhalte<br />

Qualität DidakBsch: hoch (beispielsweise individuelle<br />

Lernpfade)<br />

MulBmedial: hoch (vielfälBge mulBmediale<br />

Darstellungsformen)<br />

Inhaltlich: hoch<br />

Kollabora-­‐<br />

Lvität<br />

ProdukL-­‐<br />

onsauf-­‐<br />

wand<br />

Flexibiltät<br />

Glaubwür-­‐<br />

digkeit<br />

Auf Seiten der Lehrenden: zur Erstellung hohe<br />

KollaboraBvität erforderlich<br />

Auf Seiten der Lernenden: je nach didakB-­‐<br />

schem Design, tendenziell gering<br />

Technisch: hohe Anforderungen an Hard-­‐ und<br />

SoXware<br />

Personell: hoch (besondere Anforderungen an<br />

technische und didakBsche Kompetenz)<br />

Zeitlich: hoch<br />

Kosten: entsprechend hoch<br />

Auf Seiten der Lehrenden: vielfälBge Gestal-­‐<br />

tungsopBonen; aber eingeschränkte Aktualisie-­‐<br />

rungs-­‐ und Anpassungsmöglichkeit<br />

Auf Seiten der Lernenden: vielfälBge Nutzungs-­‐<br />

opBonen<br />

Grundsätzlich relaBv hoch (kann durch gezielte<br />

Maßnahmen zusätzlich gefördert werden; z.B.<br />

Nutzung von Personenmarken)<br />

DidakBsch: im Erstellungsprozess sehr hoch<br />

(ProdukBonsprozess ist Bestandteil des Lernpro-­‐<br />

zesses; akBve Auseinandersetzung mit den In-­‐<br />

halten); bei der erneuten Anwendung stark vari-­‐<br />

ierend zwischen den verschiedenen Wikis.<br />

MulBmedial: miPel bis hoch (vielfälBge mulB-­‐<br />

mediale Darstellungsformen)<br />

Inhaltlich: abhängig von den Lernenden<br />

Auf Seiten der Lehrenden: Grad der Unterstüt-­‐<br />

zung der Lernenden je nach Lernarrangement<br />

Auf Seiten der Lernenden: sehr hoch (entschei-­‐<br />

dend für die Erstellung der Ergebnisse)<br />

Technisch: miPel (abhängig von der gewünsch-­‐<br />

ten MulBmedialität)<br />

Personell: auf Seiten der Lehrenden sehr gering;<br />

auf Seiten der Lernenden eher hoch<br />

Zeitlich: individuell eher gering; lange Wachs-­‐<br />

tumsphase des Inhalts<br />

Kosten: eher gering (Freeware)<br />

Auf Seiten der Lehrenden: vielfälBge Nutzungs-­‐<br />

opBonen (Wiederverwendbarkeit)<br />

Auf Seiten der Lernenden: vielfälBge Gestal-­‐<br />

tungs-­‐ und NutzungsopBonen<br />

Eher geringer (Notwendigkeit eines Qualitäts-­‐<br />

managements von Seiten der Lehrenden); zu<br />

steigern durch Nutzerbewertungen und Quali-­‐<br />

tätssiegel<br />

Merkmal Rapid-­‐E-­‐Learning-­‐Inhalte (E-­‐Lectures) Blogbasierte Lerninhalte<br />

Qualität DidakBsch: geringer (vorgegebener Lernpfad)<br />

MulBmedial: miPel (auf eine Darstellungsform<br />

beschränkt)<br />

Inhaltlich: hoch, aber beschränkt auf be-­‐<br />

sBmmte Themenaspekte sowie abhängig vom<br />

Referenten<br />

Kollabora-­‐<br />

Lvität<br />

ProdukL-­‐<br />

onsauf-­‐<br />

wand<br />

Flexibiltät<br />

Glaubwür-­‐<br />

digkeit<br />

Auf Seiten der Lehrenden: gering<br />

Auf Seiten der Lernenden: gering<br />

Technisch: eher geringe Anforderungen an<br />

Hard-­‐ und SoXware<br />

Personell: gering<br />

Zeitlich: gering<br />

Kosten: entsprechend gering<br />

Auf Seiten der Lehrenden: vorgegebene Gestal-­‐<br />

tungsopBonen<br />

Auf Seiten der Lernenden: vorgegebene Nut-­‐<br />

zungsopBonen<br />

Grundsätzlich hoch, allerdings stark abhängig<br />

vom Referenten<br />

DidakBsch: sehr hoch (ProdukBonsprozess ist<br />

Bestandteil des Lernprozesses; akBve Auseinan-­‐<br />

dersetzung mit den Inhalten)<br />

MulBmedial: hoch (vielfälBge mulBmediale Dar-­‐<br />

stellungsformen)<br />

Inhaltlich: abhängig von den Lernenden<br />

Auf Seiten der Lehrenden: Grad der Unterstüt-­‐<br />

zung der Lernenden je nach Lernarrangement<br />

Auf Seiten der Lernenden: hoch (entscheidend<br />

für die Bewertung/ KommenBerung der Ergeb-­‐<br />

nisse)<br />

Technisch: eher gering (abhängig von der ge-­‐<br />

wünschten MulBmedialität)<br />

Personell: auf Seiten der Lehrenden sehr gering;<br />

auf Seiten der Lernenden eher hoch<br />

Zeitlich: eher gering<br />

Kosten: eher gering (Freeware)<br />

Auf Seiten der Lehrenden: eher gering<br />

Auf Seiten der Lernenden: vielfälBge Gestal-­‐<br />

tungsopBonen, aber geringe ModifikaBonsmög-­‐<br />

lichkeiten<br />

Geringer (Notwendigkeit eines Qualitätsmana-­‐<br />

gements von Seiten der Lehrenden)<br />

Tabelle: Systematisierungsansatz von technologiegestützten Lerninhaltsarten (Gersch et al., 2010)


?<br />

Lernservice-­‐Engineering. Eine ökonomische PerspekBve auf technologiegestütztes Lernen — 5<br />

3. Lernservice-­‐Engineering: Ansätze zur Unterstützung<br />

einer systemaLschen Entwicklung von Lernservices<br />

Vor dem Hintergrund der dargestellten Veränderungen,<br />

Herausforderungen und Lernservicecharakteristika<br />

(insbesondere auch dem Leistungsbündelcharakter)<br />

wurde „Lernservice-Engineering“ als interdisziplinärer<br />

Erstellungsansatz für die Entwicklung<br />

von Lernservices erarbeitet.<br />

!<br />

In diesem Kapitel steht dabei die ökonomische Seite<br />

des Lernservice-Engineering im Vordergrund. Ziel ist<br />

die Umsetzung einer sogenannten Mass-Customization-Strategie<br />

in Bezug auf das technologiegestützte<br />

Lernen. Im Kern geht es dabei um eine zielgerichtete<br />

Standardisierung von Teilleistungen und Teilprozessen<br />

im Rahmen einer Modularisierungsstrategie,<br />

die zu individualisierten oder zielgruppenspezifischen<br />

Leistungsbündeln in Form von hybriden Lernarrangements<br />

kombiniert werden können (Da Silveira<br />

et al., 2001).<br />

!<br />

?<br />

In welcher Weise sind Microblogging-­‐AkBvitäten von<br />

Lernenden im Seminar sowie Podcasts einer Bildungs-­‐<br />

einrichtung mit Interviews von ExperBnnen und Ex-­‐<br />

perten in dem vorgestellten System (siehe Tabelle auf<br />

der vorherigen Seite) zur Bewertung von Lerninhalten<br />

einzuordnen und zu beschreiben?<br />

Der Begriff des Lernservice-­‐Engineering nimmt dabei<br />

Bezug auf das im Dienstleistungsmanagement eta-­‐<br />

blierte „Service Engineering“ sowie das in der (Wirt-­‐<br />

schaXs-­‐) InformaBk etablierte „SoXware Engineering“.<br />

Es beschreibt die interdisziplinäre Bereitstellung und<br />

systemaBsche Verwendung von Prinzipien, Methoden<br />

und Werkzeugen für die zielorienBerte (arbeitsteilige,<br />

ingenieursgleiche) Gestaltung und Entwicklung von<br />

Lehr-­‐Lern-­‐Leistungsangeboten.<br />

Das aus den Begriffen Mass ProducBon und Customi-­‐<br />

zaBon zusammengesetzte Oxymoron „Mass Customi-­‐<br />

zaBon“ bezeichnet also ein zumeist technologisch ge-­‐<br />

stütztes Konzept zur Auflösung der vermeintlichen Ge-­‐<br />

gensätzlichkeit von Differenzierung und Kostenorien-­‐<br />

Berung (Porter, 1995; Piller, 2006). Damit ist der Ge-­‐<br />

gensatz zwischen individuellen und daher häufig kos-­‐<br />

tenintensiven Leistungsangeboten (Differenzierung)<br />

und möglichst standardisierten und deswegen kosten-­‐<br />

günsBg realisierbaren Leistungsangeboten (Kostenori-­‐<br />

enBerung) gemeint.<br />

Können Sie erklären, warum Differenzierung und Kos-­‐<br />

tenorienBerung sehr häufig als Gegensatz betrachtet<br />

wird?<br />

Nach Kundinnen und Kunden (zum Beispiel Lernenden)<br />

differenzierte Leistungsangebote sollen<br />

durch Mass-Customization-Ansätze zu einem der<br />

Massenproduktion vergleichbarem Kostenniveau realisiert<br />

und angeboten werden können (Piller, 2006).<br />

Diesbezüglich zeigen Erfahrungen aus anderen Serviceindustrien,<br />

dass Standardisierung und Differenzierung/Individualisierung<br />

keineswegs unvereinbare<br />

Gegensätze darstellen, sondern dass Standardisierung<br />

regelmäßig sogar mit einer, auch durch den Nachfrager<br />

empfundenen, Qualitätssteigerung des differenzierten/individualisierten<br />

Leistungsangebotes einhergehen<br />

kann.<br />

Es lassen sich im Kontext von technologiegestütztem<br />

Lernen verschiedene Ansatzpunkte für eine<br />

Umsetzung erkennen, wie zum Beispiel eine Modularisierung<br />

von Leistungskomponenten (siehe die vorgestellten<br />

Typen von Lerninhalten), die im Idealfall<br />

immer wieder zu differenzierten Leistungsbündeln<br />

(re-) kombiniert werden können (zu weiteren alternativen<br />

Umsetzungsmöglichkeiten einer Mass Customization<br />

siehe Büttgen, 2002).<br />

Im Folgenden steht die Umsetzung mit Hilfe sog.<br />

Serviceplattformen im Vordergrund, die sich nicht<br />

nur zur wettbewerbsstrategischen Ausrichtung,<br />

sondern insbesondere auch zur Förderung der Verbreitung<br />

und des Einsatzes innovativer Lehr- und<br />

Lernkonzepte an Institutionen mit dezentralen Strukturen<br />

und unterschiedlichen Kenntnisständen in<br />

Bezug auf deren Gestaltung und Einsatz – wie zum<br />

Beispiel den Hochschulen – eignen.<br />

!<br />

Serviceplaoormen sind konzepBonelle Sets von op-­‐<br />

Bonalen Teilelementen/-­‐systemen und SchniPstellen,<br />

die eine mehrfach verwendbare Struktur bilden auf<br />

deren Grundlage immer wieder differenzierte Leis-­‐<br />

tungsangebote effizient und effekBv entwickelt und<br />

realisiert werden können (Stauss, 2006). Nicht zu ver-­‐<br />

wechseln sind Serviceplaoormen mit LernplaP-­‐<br />

formen (Learning Management Systeme, LMS; siehe<br />

Kapitel #infosysteme, #systeme)<br />

Im Kontext des Lernservice-Engineering stellen<br />

Serviceplattformen Veranstaltungsgrundtypen dar,<br />

die als Grundlage für verschiedene Bildungsangebote<br />

dienen. Sie setzen sich aus idealtypischen Veranstaltungsphasen,<br />

Leistungspotenzialen (wie Web-Based<br />

Trainings, Fallstudien, E-Lectures), Betreuern, Prozessen<br />

und Schnittstellen zusammen, die gemeinsam<br />

die Grundlage zur Entwicklung und Realisierung<br />

immer wieder differenzierter Leistungsangebote darstellen.<br />

Im Prozess des didaktischen Designs, welcher<br />

die Konkretisierung der abstrakten Serviceplatt-


6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

Abbildung 1: Hierarchisches Begriffsverständnis (Weber, 2008, S. 29).<br />

formen zu konkreten Lernservices bezeichnet, ist<br />

dafür Sorge zu tragen, dass das zu konzipierende<br />

Leistungsangebot nicht nur effizient erstellt wird,<br />

sondern dass es auch den (Qualitäts-) Ansprüchen<br />

der jeweiligen Leistungsempfänger/innen entspricht<br />

und somit möglichst Effizienz- und Effektivitätsvorteile<br />

für den Leistungsanbieter zusammenbringt.<br />

Dem Konzept liegt auf dieser Ebene somit eine Unterscheidung<br />

von abstrakten Veranstaltungsgrundtypen<br />

(Lernszenarien bzw. Serviceplattformen) und<br />

Lernarrangements als konkreten Lernservices zugrunde.<br />

Abbildung 1 verdeutlicht den Zusammenhang<br />

und differenziert für die Betrachtung von<br />

Lernservices zudem zwischen einer Makro-, Mesound<br />

Mikroebene.<br />

Abbildung 2: Lernservice-­‐Engineering (Gersch & Weber 2007, S. 23).<br />

Auch innerhalb der Lernszenarien als Veranstaltungsgrundtypen<br />

lässt sich das Konzept der Mass<br />

Customization mit Hilfe von Serviceplattformen<br />

fortsetzen. So können Lernszenarien auf (teil-)standardisierten<br />

Veranstaltungsphasen aufbauen, die jeweils<br />

spezifischen Lernzielen verpflichtet sind. Die<br />

Standardisierung auf Ebene der Veranstaltungsphasen<br />

bezieht sich dabei auf eine idealtypische Vorkombination<br />

von Leistungskomponenten, die als<br />

Teilarrangements bestimmte Zielsetzungen und Abläufe<br />

repräsentieren, so dass im Ergebnis eine zweistufige<br />

Serviceplattformstrategie resultiert. Abbildung<br />

2 verdeutlicht das Zusammenspiel von Leistungskomponenten,<br />

Veranstaltungsphasen und<br />

Lernszenarien und ihre Konkretisierung zu Lernar-


Lernservice-­‐Engineering. Eine ökonomische PerspekBve auf technologiegestütztes Lernen — 7<br />

rangements.<br />

So verstandene Plattformen erlauben die systematische<br />

Entwicklung von neuen Lernservices auf der<br />

Basis dokumentierter technischer, didaktischer und<br />

ökonomischer Erfahrungen und Erkenntnisse zu den<br />

verfügbaren Komponenten und deren Kombination.<br />

So können etwa positive Erfahrungen in Bezug auf<br />

eine bestimmte Verknüpfung von Inhaltstypen, Veranstaltungsphasen,<br />

oder auch erfolgreiche Vorgehensweisen<br />

im Rahmen eines Lernszenarios bei der<br />

Neuentwicklung eines technologiegestützten Lernangebotes<br />

zugrunde gelegt werden. Die systematische<br />

Wiederverwendung von Komponenten, Veranstaltungsphasen<br />

und Lernszenarien bietet dabei erhebliches<br />

ökonomisches Potenzial.<br />

4. Fazit<br />

?<br />

Nennen Sie Vorteile des Lern-­‐Service-­‐Engineering und<br />

von Mass-­‐CustomizaBon aus Sicht von Anbietern wie<br />

Lernenden!<br />

Die gegenwärtigen Veränderungen im Bildungswesen<br />

begründen insbesondere aufgrund der Wettbewerbsintensivierung<br />

und der veränderten Rahmenbedingungen<br />

die Notwendigkeit einer sowohl ökonomisch<br />

als auch didaktisch tragfähigen Leistungserstellungsstrategie<br />

von Hochschulen und anderen Bildungseinrichtungen.<br />

Großes Potenzial in diesem Zusammenhang<br />

birgt die Übertragung erprobter und etablierter<br />

Konzepte aus anderen Dienstleistungs- und<br />

Servicebranchen, was eine Interpretation von Bildungsangeboten<br />

als bestimmte Dienstleistungen (Services)<br />

impliziert. Unter Vernachlässigung ideologischer<br />

Streitigkeiten um den Charakter von Bildung<br />

eröffnet das vorgeschlagene Serviceverständnis ein<br />

Tor zu einer Bandbreite solcher Konzepte und Ansätze.<br />

Übertragen auf den Leistungsgegenstand der<br />

Lernservices bietet beispielsweise der skizzierte Systematisierungsansatz<br />

von technologiegestützten<br />

Lerninhalten eine Grundlage für ein effizientes und<br />

an die Erfordernisse des jeweiligen Lernarrangements<br />

anpassbares Produktions- und Einsatzkonzept der<br />

benötigten Lerninhalte. Dabei liegt der Fokus in<br />

diesem Kapitel auf den Kostenaspekten des Einsatzes<br />

von technologiegestützten Lerninhalten. Daneben<br />

müssen in die Analyse auch Nutzenaspekte<br />

einbezogen werden (Gust, & Weiß, 2005).<br />

Auch der dargestellte serviceplattformbasierte<br />

Mass-Customization-Ansatz bietet Bildungseinrichtungen<br />

Potenziale für eine standardisierungsbasierte<br />

Kostenorientierung und enthält gleichzeitig Möglichkeiten<br />

für eine auf Differenzierung ausgerichtete In-<br />

dividualisierung der Leistungsangebote. Zudem<br />

fördert der Ansatz über Serviceplattformen die Diffusion<br />

der Kenntnisse im Bezug auf die Realisierung<br />

innovativer Lehr- und Lernkonzepte. Im Vordergrund<br />

des Lern-Service-Engineering steht daher allgemein<br />

die effiziente Übertragung, Adaption und Integration<br />

von konkreten Unterstützungsmöglichkeiten<br />

für die Leistungserstellung im Bildungswesen.<br />

Literatur<br />

▸ Brauchle, B. (2007). Der Rolle beraubt: Lehrende als Vermittler<br />

von Selbstlernkompetenz. Berufs- und Wirtschaftspädagogik.<br />

URL: http://www.bwpat.de/ausgabe13/brauchle_bwpat13.pdf<br />

[24-09-2009].<br />

▸ Büttgen, M. (2002). Mass Customization im Dienstleistungsbereich.<br />

In: Mühlbacher, H. & Thelen, E. (Hrsg.), Neue Entwicklungen<br />

im Dienstleistungsmarketing, Wiesbaden: Gabler, 257-<br />

285.<br />

▸ Da Silveira, G.; Borenstein, D. & Fogliatto, F. S. (2001). Mass<br />

customization: Literature review and research directions. International<br />

Journal of Production Economics, 72(1), 1-13.<br />

▸ Engelhardt, W. H. (1966). Grundprobleme der Leistungslehre,<br />

dargestellt am Beispiel der Warenhandelsbetriebe. Zeitschrift<br />

für betriebswirtschaftliche Forschung, 18, 158-178.<br />

▸ Franklin, T. & Van Harmelen, M. (2007). Web 2.0 for content<br />

for Learning and Teaching in Higher Education. JISC. URL:<br />

http://www.jisc.ac.uk/media/documents/programmes/digitalrepositories/Web<br />

2.0-content-learning-and-teaching.pdf<br />

[17.09.2010].<br />

▸ Gabriel, R.; Gersch, M. & Weber, P. (2007). Mass Costumization<br />

und Serviceplattformstrategien im Blended Learning<br />

Engineering. Wirtschaftinformatik Proceedings 2007, Paper 57,<br />

URL: http://aisel.aisnet.org/wi2007/57 [15-11-2010].<br />

▸ Gabriel, R.; Gersch, M. & Weber, P. (2008). Möglichkeiten und<br />

Grenzen von Lern Services. WiSt, 2008(10), 563-565.<br />

▸ Gabriel, R.; Gersch, M.; Weber, P. & Le, S. (2009). Das Ende<br />

der WBTs? Kernaussagenansatz, Personenmarken und Bartermodelle<br />

als konzeptionelle Antworten auf zentrale Herausforderungen.<br />

In: A. Schwill & N. Apostolopoulos (Hrsg.), Lernen<br />

im digitalen Zeitalter. 7. e-Learning Fachtagung Informatik der<br />

Gesellschaft für Informatik e.V. (DeLFI 2009).<br />

▸ Gersch, M.; Lehr, C.;& Fink, C. (2010). Formen, Einsatz- und<br />

Kombinationsmöglichkeiten von E-Learning-Content - Ein<br />

Systematisierungsansatz am Beispiel kooperativer Lernarrangements.<br />

In: Tagungsband GML 2010. Münster: Waxmann.<br />

▸ Gersch, M. & Weber, P. (2007). E-Learning Geschäftsmodelle.<br />

Zeitschrift für e-Learning, 2(3), 19-28.<br />

▸ Gust, M. & Weiß, R. (2005). Praxishandbuch Bildungscontrolling<br />

für exzellente Personalarbeit. Wien: USP Publishing.<br />

▸ Hofhues, S. & Dürnberger, H. (im Druck). Anforderungen an<br />

E-Learning in pflegerischen und therapeutischen Studiengängen:<br />

Ergebnisse eines Workshops. Vortrag auf Hochschul-


8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />

didaktik in pflegerischen und therapeutischen Studiengängen.<br />

Bielefeld.<br />

▸ Mair, D. (2005). E-Learning - das Drehbuch. Handbuch für<br />

Medienautoren und Projektleiter. Berlin/Heidelberg: Springer.<br />

▸ Piller, F.T. (2006). Mass Customization - Ein wettbewerbsstrategisches<br />

Konzept im Informationszeitalter. Wiesbaden, DUV<br />

Gabler Edition Wissenschaft.<br />

▸ Porter, M. E.(1995). Wettbewerbsstrategie. Frankfurt am<br />

Main/New York: Campus.<br />

▸ Reinmann, G. & Mandl, H. (2009). Wissensmanagement und<br />

Weiterbildung. In: R. Tippelt & A. Hippel (Hrsg.), Handbuch<br />

Erwachsenenbildung/Weiterbildung, Wiesbaden: VS, Verlag<br />

für Sozialwissenschaften, 1049-1066.<br />

▸ Stauss, B.(2006). Plattformstrategien im Service Engineering.<br />

In: H.-J. Bullinger; A.W. Scheer (Hrsg.), Service Engineering,<br />

Berlin/Heidelberg, Springer, 321-340.<br />

▸ Weber, P. (2008). Analyse von Lern-Service-Geschäftsmodellen<br />

vor dem Hintergrund eines sich transformierenden Bildungswesens.<br />

Frankfurt am Main: Peter Lang.<br />

▸ Wheeler, S.; Yeomans, P. & Wheeler, D. (2008). The good, the<br />

bad and the wiki: Evaluating student-generated content for collaborative<br />

learning. British Journal of Educational Technology,<br />

39(6), 987-995.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!