Vertiefung_2.pdf
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Einleitung<br />
Neue Technologien, insbesondere das Internet, verändern<br />
die Bedingungen für Lehre und Forschung<br />
sowie den Zugang zu wissenschaftlichen Ressourcen<br />
und Lernmaterialien. Vor allem für Lehrende an Universitäten,<br />
aber auch für Studierende, sind das Internet<br />
und den damit verbundenen Möglichkeiten des<br />
Zugriffs auf wissenschaftliche Veröffentlichungen<br />
und Materialien wesentlich: Während diese früher in<br />
der Regel nur gedruckt in Bibliotheken oder für die<br />
Universitäten und deren Mitglieder in einem eingeschränkten<br />
Intranet zur Verfügung standen, sind jetzt<br />
immer häufiger Fachpublikationen und Forschungsdaten<br />
frei im Internet zugänglich. Auch immer mehr-<br />
Lernmaterialien werden zur freien Nutzung angeboten.<br />
In diesem Kapitel werden wir uns zum einen<br />
dem Publizieren mit freiem Zugang (engl. „open<br />
access“) und zum anderen frei zugänglichen und<br />
nutzbaren Bildungsmaterialien (engl. „open educational<br />
resources“) widmen. Dabei werden wir jeweils<br />
zunächst das tradierte Verfahren, dann die Neu- und<br />
Weiterentwicklungen vorstellen und Fragen des Urheberrechts<br />
berühren.<br />
2. Tradi1onelle wissenscha7liche Publika1onen<br />
Damit Forschungsarbeiten diskutiert und zitiert<br />
werden können, müssen Wissenschaftler/innen diese<br />
veröffentlichen und bestmöglich verbreiten. Veröffentlichungsformen<br />
unterscheiden sich je nach Disziplin.<br />
So werden in den Geisteswissenschaften häufiger<br />
als in anderen Bereichen Sammelbände und Monografien<br />
genutzt, im Bauwesen und in der Architektur<br />
spielen zum Beispiel Tagungsbände eine zentrale<br />
Rolle. Über alle Wissenschaftsfelder hinweg sind<br />
jedoch Artikel in Fachzeitschriften die am häufigsten<br />
genutzte Veröffentlichungsform (Deutsche Forschungsgemeinschaft,<br />
2005).<br />
Der Grundsatz „Publish or perish“<br />
Der Aufbau der modernen Wissenschaften, wie wir<br />
sie heute kennen, war von Beginn an mit der<br />
Gründung von wissenschaftlichen Fachgesellschaften<br />
und wissenschaftlichen Fachzeitschriften verbunden.<br />
Die beiden ältesten Zeitschriften, das „Journal des<br />
sçavans“ und die „Philosophical Transactions“ of the<br />
Royal Society, starteten 1665 und erfüllten Funktionen,<br />
die bis heute für wissenschaftliche Zeitschriften<br />
zentral sind – die Sicherung von Priorität<br />
durch möglichst schnelle und breite Veröffentlichung<br />
von Forschungsergebnissen und die Sicherung von<br />
Qualität, letzteres insbesondere durch sogenannte<br />
„Peer-Review-Verfahren“: Peers, also Kolleginnen<br />
und Kollegen, begutachten (oft anonym, selten als<br />
sogenanntes Open-Peer-Review) zur Veröffentlichung<br />
eingereichte Beiträge, um so sicherzustellen,<br />
dass nur Artikel verbreitet werden, die wissenschaftlichen<br />
Standards genügen. Durch Zitationsanalysen<br />
veröffentlichter Artikel soll geprüft werden, wie<br />
häufig diese durch andere genutzt werden, welchen<br />
„Impact“ (engl. für „Einfluss“) sie haben. Da wissenschaftliche<br />
Veröffentlichungen für berufliche Karrierewege<br />
und universitäre Mittelvergaben von besonderer<br />
Bedeutung sind, ist der Druck insbesondere in<br />
den Naturwissenschaften sehr hoch, in sogenannten<br />
High-Impact-Zeitschriften zu veröffentlichen. Hier<br />
gilt der Grundsatz „publish or perish“, eine englische<br />
Redewendung, die in etwa als „publiziere oder gehe<br />
unter“ ins Deutsche übertragen werden kann.<br />
Die Akzeptanz solcher Maße (vor allem deren Berechnungsgrundlage)<br />
wird vielfach kritisiert, zudem<br />
muss von verschiedenen Arten von Impact im Sinne<br />
von Sichtbarkeit ausgegangen werden, der sich nicht<br />
allein an Zitationshäufigkeit bemisst (Mruck & Mey,<br />
2002).<br />
Der tradi1onelle Publika1onsprozess<br />
Der traditionelle Publikationsprozess in Printzeitschriften<br />
sieht vor, dass Wissenschaftler/innen Artikel<br />
schreiben und bei Zeitschriften, in denen sie<br />
gerne sichtbar sein wollen, zur Veröffentlichung einreichen.<br />
Die Zeitschriftenredaktionen organisieren<br />
dann die Begutachtung, indem sie Gutachter/innen<br />
um eine Bewertung des eingereichten Artikels bitten,<br />
also um eine Einschätzung darüber, ob ein Artikel<br />
zur Veröffentlichung angenommen, durch die Autorinnen<br />
und Autoren überarbeitet oder abgelehnt<br />
werden sollte. Wenn ein solcher Artikel – teilweise<br />
nach mehreren Überarbeitungsrunden – für die Veröffentlichung<br />
akzeptiert worden ist, organisiert die<br />
Redaktion in der Regel das Lektorat und Korrektorat,<br />
also die formale Prüfung und Korrektur des Artikels<br />
und gibt den fertigen Artikel an einen kommerziellen<br />
Verlag weiter, der für Druck und Verbreitung der<br />
Zeitschrift, in dem der Artikel erscheinen soll, zuständig<br />
ist. Mit der Veröffentlichung geben die Autorinnen<br />
und Autoren zumeist die Nutzungsrechte an<br />
ihrer Arbeit an den Verlag weiter. Bibliotheken<br />
können die Zeitschrift dann für die Nutzung durch<br />
ihre Mitglieder (zum Beispiel Angehörige einer Universität)<br />
wiedererwerben.<br />
3. Einfluss der digitalen Technologien auf das Publika1-‐<br />
onsverhalten<br />
Erst mit dem Internet und der Verbreitung digitaler<br />
Technologien begannen Wissenschaftler/innen, sich
Artikel per E-Mail zuzuschicken, schnell folgten, als<br />
dies technisch machbar war, die ersten Preprint-<br />
Server, über die sie ihre Papiere zugänglich machten,<br />
noch bevor sie in Zeitschriften veröffentlicht wurden.<br />
Ein solches Verfügbarmachen sollte helfen, den Text<br />
unter Kolleginnen und Kollegen – öffentlich – zu<br />
diskutieren (und so die Güte beziehungsweise Qualität<br />
des Textes zu erhöhen, eine Art „Vorläufer“ des<br />
Open-Peer-Review) und zur Vernetzung in der Community<br />
beitragen. Zudem konnten Prioritätsansprüche,<br />
zum Beispiel im Falle von Entdeckungen,<br />
frühzeitig kenntlich gemacht werden. Ebenfalls in<br />
den Naturwissenschaften starteten die ersten elektronischen<br />
Zeitschriften, diese gehören mittlerweile aber<br />
zum Angebot fast aller Disziplinen (siehe das Directory<br />
of Open Access Journals, http://doaj.org). In<br />
elektronischen Zeitschriften können neben Text und<br />
Bild zusätzliche Dateiformate (zum Beispiel Audiound<br />
Videodateien oder Primärdaten; letztere gerade<br />
auch mit Blick auf bessere Nachvollziehbarkeit und<br />
Transparenz des Forschungsprozesses) angeboten<br />
werden. Einschränkungen wie die Anzahl der Druckseiten<br />
entfallen.<br />
Mit der Entwicklung des Internets und von besserer<br />
Software (insbesondere des Open Journal<br />
System, OJS) eröffnete sich für Wissenschaftler/innen<br />
zudem die Option, nicht nur als Autor/in, Redaktionsmitglied,<br />
Gutachter/in oder Lektor/in ihre<br />
in der Regel durch die öffentliche Hand finanzierte<br />
Zeit in die Produktion von Artikeln zu investieren,<br />
sondern die Zeitschriften selbst zu betreiben. Zum<br />
Beispiel über Mailinglisten können Kollegen und<br />
Kolleginnen auf ihre Zeitschrift, neue Artikel usw.<br />
aufmerksam gemacht werden. Dies steht im Zeichen<br />
der Demokratisierung von Wissenschaft und für die<br />
zurückgewonnene Autonomie der Wissenschaftler/innen.<br />
4. Die Open-‐Access-‐Bewegung<br />
Da zeitgleich die sogenannte Bibliothekskrise um sich<br />
griff, das heißt dass wissenschaftliche Bibliotheken<br />
die Arbeiten ihrer Wissenschaftler/innen trotz sinkender<br />
Budgets bei teilweise horrende steigenden<br />
Zeitschriftenpreisen zurückkaufen mussten beziehungsweise<br />
nur noch in begrenztem Umfang zurückkaufen<br />
konnten, formierte sich eine international<br />
immer stärker werdende Open-Access-Bewegung, in<br />
deren Kern die Forderung steht, dass die Ergebnisse<br />
öffentlich finanzierter Forschung auch öffentlich<br />
zugänglich sein müssen (Mruck et al., 2004).<br />
Offener Zugang. Open Access, Open EducaConal Resources und Urheberrecht — 3<br />
!<br />
„Open access meint, dass [...] Literatur kostenfrei und<br />
öffentlich im Internet zugänglich sein sollte, so dass<br />
Interessierte die Volltexte lesen, herunterladen, ko-‐<br />
pieren, verteilen, drucken, in ihnen suchen, auf sie<br />
verweisen und sie auch sonst auf jede denkbare legale<br />
Weise benutzen können, ohne finanzielle, gesetzliche<br />
oder technische Barrieren jenseits von denen, die mit<br />
dem Internet-‐Zugang selbst verbunden sind.“ (Open<br />
Society FoundaCon, 2010)<br />
Um die eigene Arbeit frei zugänglich zu machen,<br />
lassen sich zwei Hauptstrategien des Open Access<br />
unterscheiden: Bei dem sogenannten goldenen Weg<br />
veröffentlichen Wissenschaftler/innen direkt in<br />
Open-Access-Zeitschriften, bei dem sogenannten<br />
grünen Weg werden digitale Kopien von Artikeln,<br />
die kostenpflichtig in Print- beziehungsweise Closed-<br />
Access-Zeitschriften veröffentlicht werden, auf Dokumentenservern<br />
zugänglich gemacht, die zum Beispiel<br />
von Universitäten oder für Fächer beziehungsweise<br />
Fachgruppen betrieben werden (siehe hierzu<br />
das „Directory of Open Access Repositories“,<br />
http://www.opendoar.org).<br />
Beiden Strategien gemeinsam ist aufgrund des<br />
schnellen und freien Zugangs und der daraus folgenden<br />
guten Auffindbarkeit wissenschaftlicher Arbeiten<br />
über Suchmaschinen und Nachweisdienste die<br />
Verbesserung der Informationsversorgung und das<br />
!<br />
Einige ausgewählte Meilensteine der Open-‐Access-‐Be-‐<br />
wegung:<br />
▸ 1991 wird arXiv als erster frei zugänglicher Doku-‐<br />
mentenserver gegründet; er bietet heute Zugang<br />
zu über 650.000 E-‐Prints aus Physik, MathemaCk,<br />
Computerwissenschag usw. (hhp://arxiv.org).<br />
▸ 2001 startet die erste große naturwissenschag-‐<br />
liche Open-‐Access-‐Zeitschrig der Public Library of<br />
Science (hhp://www.plos.org).<br />
▸ 2002 gewinnt Open Access mit der Budapest<br />
Open Access IniCaCve über die Naturwissen-‐<br />
schagen hinaus Konturen auch im Sinne einer<br />
Wendung gegen den „Digital Divide“<br />
(hhp://www.soros.org/openaccess/).<br />
▸ 2003 iniCiert die Max-‐Planck-‐Gesellschag die<br />
Berlin DeclaraCon on Open Access to Knowledge<br />
in the Sciences and HumaniCes, die auch auf den<br />
Zugang zum kulturellen Erbe abhebt und der sich<br />
viele wichCge InsCtuConen und Fördereinrich-‐<br />
tungen weltweit anschließen.<br />
(hhp://oa.mpg.de/lang/de/berlin-‐prozess/)<br />
▸ 2005 startet die „PeCCon for Guaranteed Public<br />
Access to Publicly-‐funded Research Results“ mit<br />
erheblicher Breitenwirkung insbesondere in<br />
Europa (hhp://www.ec-‐peCCon.eu/).
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
In der Praxis : Die Zeitschrift „Forum Qualitative Sozialforschung / Forum: Qualitative Social Research“<br />
QualitaCve Forschungsmethoden kommen in unterschied-‐<br />
lichsten Disziplinen zum Einsatz. Als 1999 die Idee entstand,<br />
ein Journal zu gründen, das hilg, qualitaCve Forschung trans-‐<br />
disziplinär und internaConal sichtbar zu machen und Wissen-‐<br />
schagler/innen aus aller Welt auf diese Weise zu vernetzen,<br />
winkten die Verlage ab – eine elektronische Zeitschrig? Die<br />
Wissenschagler/innen nahmen dies darauuin selbst in die<br />
Hand. Heute ist die Zeitschrig "Forum QualitaCve Sozialfor-‐<br />
schung / Forum: QualitaCve Social Research" – mit über<br />
13.000 registrierten Leser/innen die weltweit größte Res-‐<br />
source für qualitaCve Forschung.<br />
Sichtbarmachen (neuer) Themen (besonders wichtig<br />
bei Randthemen; Zawacki-Richter et al., 2010). Insgesamt<br />
trägt Open Access wesentlich zur Förderung<br />
internationaler und interdisziplinärer Zusammenarbeit<br />
und von Forschungseffizienz durch die rasche<br />
Diskussion von Forschungsergebnissen bei.<br />
Mittlerweile beschränkt sich die Forderung nach<br />
Open Access nicht mehr nur auf wissenschaftliche<br />
Fachzeitschriften, sondern es geht zunehmend auch<br />
um Open Access zu Monografien, zu Daten und<br />
prinzipieller zu kulturellem Erbe (Deutsche<br />
UNESCO-Kommission, 2007). Mit einigem Recht<br />
kann für einige Länder wie Großbritannien, Holland,<br />
aber auch die Bundesrepublik Deutschland gesagt<br />
werden, dass Open Access wissenschaftspolitisch<br />
mehr und mehr zum herrschenden Paradigma geworden<br />
ist: die Hochschulrektorenkonferenz, große<br />
Forschungseinrichtungen sowie Fördereinrichtungen<br />
wie die Volkswagenstiftung, die Deutsche Forschungsgemeinschaft<br />
(DFG) unterstützen Open<br />
Access. Letztere treiben die Verbreitung von Informationen<br />
über Open Access sowie von Open-<br />
Access-Publikationsmodellen aktiv voran, indem sie<br />
die freie Verfügbarkeit in ihre Förderrichtlinien aufnehmen<br />
oder sich um ein wissenschaftsfreundlicheres<br />
Urheberrecht bemühen. Diese Bemühungen haben<br />
zwischenzeitlich auch positive Resonanz bei allen<br />
!<br />
Für Wissenschagler/innen bedeutet Open Access eine<br />
wesentliche SelbstermächCgung: "Science back to the<br />
ScienCsts". Eine wissenschagliche Zukung, in der<br />
E-‐Learning, E-‐Publishing, E-‐Science, Datenaustausch<br />
usw. integriert am Bildschirm Tagesgeschäg werden,<br />
setzt die freie Verfügbarkeit aller relevanten Res-‐<br />
sourcen unmihelbar voraus.<br />
ArCkel werden in deutsch, englisch oder spanisch begut-‐<br />
achtet und muhersprachlich lektoriert, RedakCon und Beirat<br />
kommen aus 10 Disziplinen und 13 Ländern, alle ca. 1.350<br />
bisher veröffentlichten ArCkel sind frei online zugänglich<br />
(Mruck & Mey, 2008). Eine gerade veröffentlichte empirische<br />
Untersuchung zu qualitaCver Forschung in der Psychologie<br />
zeigt, dass FQS-‐Veröffentlichungen nicht nur maximal<br />
sichtbar sind, sondern sich auch durch eine überdurch-‐<br />
schnihlich hohe Qualität auszeichnen (Ilg & Boothe, 2010).<br />
URL: hhp://www.qualitaCve-‐research.net/index.php/fqs<br />
Bundestagsfraktionen gefunden. Und auch zum Beispiel<br />
in Österreich und der Schweiz haben die nationalen<br />
Fördereinrichtungen Open Access in ihre<br />
Richtlinien aufgenommen.<br />
5. Open Educa1onal Resources: Frei verwendbare Lern-‐<br />
und Lehrmaterialien<br />
Unabhängig hiervon, aber sicher von der Open-<br />
Access-Bewegung auf der einen Seite sowie auf der<br />
anderen Seite auch von Erfolgen der Open-Source-<br />
Entwicklungen wie das Betriebssystem „Linux“ beeinflusst,<br />
hat sich Anfang des 21. Jahrhunderts eine<br />
Bewegung formiert, die die freie Verwendung, den<br />
Austausch und die Modifikation von Bildungsressourcen<br />
im Web einfordert und unterstützt.<br />
Frei verwendbare Lern- und Lehrmaterialien<br />
werden auch in der deutschsprachigen Diskussion<br />
häufig als „Open Educational Resources“ oder kurz<br />
„OER“ bezeichnet. Solche frei verwendbaren digitalen<br />
Materialien zeichnen sich nicht nur dadurch aus,<br />
dass sie im Web zugänglich sind, sondern sie sollen<br />
!<br />
Open EducaConal Resources (OER) sind Materialien<br />
für Lernende und Lehrende, die kostenlos im Web zu-‐<br />
gänglich sind, entsprechend zur Verwendung und<br />
auch ModifikaCon freigegeben, das heißt lizensiert<br />
wurden. In einigen DefiniConen wird zusätzlich die<br />
Verwendung von offenen Sogware-‐Standards als Kri-‐<br />
terium – das jedoch häufig nicht erfüllt wird – einge-‐<br />
fordert (Geser, 2007).<br />
auch dezidiert frei nutzbar sein.<br />
Damit ist auch hier die Frage des Urheberrechts<br />
berührt. Es gilt generell, dass die Urheberrechtsinhaber/innen<br />
– also die Autorinnen und Autoren von<br />
Lern- und Lehrmaterialien – um Erlaubnis gefragt
werden müssen, bevor die Materialien im Unterricht<br />
verwendet, an anderer Stellen zur Verfügung gestellt<br />
oder sogar modifiziert werden.<br />
Es liegen unterschiedliche Lizenzmodelle vor, die<br />
es ermöglichen, eindeutig zu regeln, unter welchen<br />
Voraussetzungen Bildungsressourcen oder auch<br />
andere Materialien weiterverwendet werden dürfen.<br />
Im deutschsprachigen Raum ist der Einsatz der<br />
„Creative-Commons-Lizenzen“ verbreitet. Dabei<br />
stehen Lizenzformulierungen für viele europäische<br />
Länder zur Verfügung, die von Juristinnen und Juristen<br />
geprüft wurden, aber auch in einfacher, klarer<br />
Sprache Rechte von Autorinnen und Autoren sowie<br />
Benutzerinnen und Benutzern beschreiben.<br />
Urheber/innen können mit diesen Creative-<br />
Commons-Lizenzen beispielsweise festlegen, ob (a)<br />
der Name des Urhebers genannt werden muss, ob (b)<br />
das Werk modifiziert werden darf oder ob (c) alle<br />
Werke, die auf den Inhalten aufbauen, unter der<br />
gleichen Lizenz veröffentlich werden müssen (als<br />
„Copyleft“ bezeichnet).<br />
In einigen Sammlungen von OER werden entsprechende<br />
Lizenzierungen als Standard vorgegeben,<br />
das heißt Nutzer/innen müssen ihre Materialien<br />
unter einer solchen liberalen Lizenz veröffentlichen.<br />
Zu solchen Angeboten gehören unter anderem<br />
OERcommons.org, Wikieducator.org (englischsprachig,<br />
für Hochschulen) oder auch das deutschsprachige<br />
ZUM.wiki.de mit Lehr- und Lernmaterialien<br />
für Schulen. Gleichzeitig ermöglichen Such-<br />
Offener Zugang. Open Access, Open EducaConal Resources und Urheberrecht — 5<br />
In der Praxis : Umgang mit Internetressourcen in Unterricht und Lehre<br />
Das Urheberrecht war ursprünglich so angelegt, dass es Au-‐<br />
torinnen und Autoren erfolgreicher Werke eine Finanzierung<br />
und einen Anreiz zum weiteren kreaCven Schaffen bieten<br />
sollte (vgl. Steinhauer, 2010). Dem Recht auf alleinige Her-‐<br />
ausgabe der eigenen Werke standen immer Beschränkungen<br />
entgegen – beispielsweise die zeitliche Begrenzung des Urhe-‐<br />
berrechts (ursprünglich 14 Jahre) – die sicherstellen sollten,<br />
dass private und öffentliche Interessen im Gleichgewicht<br />
stehen. Dieser gesellschagliche Interessenausgleich hat sich<br />
in den letzten 50 Jahren vor allem zugunsten der Rechteinha-‐<br />
ber/innen verändert.<br />
Lehrende an einer Schule oder Universität hahen bisher<br />
jedoch kaum mit Problemen zu rechnen: Die Nutzung aller<br />
möglichen Medienartefakte war normalerweise durch<br />
„Schrankenregelungen“ gedeckt, die explizite Ausnahmen für<br />
Zwecke des Unterrichts und Forschung vorsahen. In diesem<br />
Sinne können alle im Internet oder auf legalem Wege erstan-‐<br />
denen Medien in der Lehre eingesetzt werden, ohne dass<br />
mit Konsequenzen zu rechnen ist. Auch gilt hier: „Wo kein<br />
Kläger, da kein Richter“: Was im Klassenzimmer, Semi-‐<br />
narraum oder in nicht öffentlich zugänglichen virtuellen Lern-‐<br />
räumen passiert, wird kaum ausreichend Aufregung und<br />
wirkliche Probleme erzeugen können.<br />
Mehr und mehr finden wir uns aber in SituaConen wieder, in<br />
denen die Verwendung von Materialien technisch erschwert<br />
wird oder man in rechtlich unsicheres Fahrwasser gerät. Bei-‐<br />
spielsweise dürfen gefundene Lernmaterialien (Bilder,<br />
Screenshots, Texte) nicht einfach in eigene Materialien inte-‐<br />
griert und wieder veröffentlicht werden. Hier sind es also die<br />
durch die neuen Medien und Technologien ermöglichten<br />
Formen der Veröffentlichung und Verteilung sowie die damit<br />
möglichen neuen Lern-‐ und Lehrformen, die Lehrende – und<br />
auch Lernende – auf Kollisionskurs mit dem Gesetz bringen<br />
können.<br />
funktionen vieler Anwendungen (beispielsweise bei<br />
Flickr.com) auch gezielt die Recherche nach liberal lizenzierten<br />
Inhalten.<br />
!<br />
Ausgewählte Meilensteine der Open-‐EducaConal-‐Re-‐<br />
sources-‐Bewegung sind:<br />
▸ 2002: Die UNESCO-‐IniCaCve „Free EducaConal Re-‐<br />
sources“ weckt erstmal breites Interesse für das<br />
Thema.<br />
▸ 2003: Das Massachusehs InsCtute of Technology<br />
startet die Veröffentlichung von Kursunterlagen<br />
(MIT OpenCourseWare).<br />
▸ 2007: Die OECD veröffentlicht eine Studie zu OER,<br />
die William and Flora Hewleh FoundaCon analy-‐<br />
siert die OER-‐Bewegung (Atkins et al., 2007), und<br />
die Europäische Kommission ko-‐finanziert erstmals<br />
Projekte zu OER (zum Beispiel OLCOS, BAZAAR)<br />
Argumente, die für die Einführung von OER<br />
sprechen, sind (Geser, 2007): OER ermöglichen potenziell<br />
einfacheren und kostengünstigeren Zugang<br />
zu Ressourcen, die einigen Lernenden sonst nicht zugänglich<br />
wären. Auch werden Steuergelder rentabler<br />
eingesetzt, da Ressourcen wiederverwendet werden<br />
können. Auch für Lehrende werden Möglichkeiten<br />
der effektiveren Erstellung von Materialien beziehungsweise<br />
Gestaltung des Unterrichts als Vorteile<br />
genannt. Oft steht dabei auch die Kooperation und<br />
Kollaboration von Lehrenden und Lernenden im<br />
Vordergrund, beispielsweise bei der Open University<br />
im Vereinigten Königreich (Lane, 2008). Hochschulen<br />
wie das Massachusetts Institute of Tech-
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
nology, die OER-Strategien einführen, bringen<br />
darüber beispielsweise auch offen Argumente wie die<br />
Möglichkeit positiver Public Relations oder Neukundengewinnung<br />
an (Schaffert, 2010).<br />
?<br />
Literatur<br />
Auf der Website Wikieducator.org werden gemein-‐<br />
schaglich OER erstellt, die überwiegend um Themen<br />
des technologiegestützten Lernens kreisen. Dort gibt<br />
es auch ein Tutorium in mehreren Sprachen, das unter<br />
anderem das Recherchieren, die Erstellung und das<br />
Publizieren von OER themaCsiert. Welche Tipps er-‐<br />
halten Sie dort? Sind die Hinweise aktuell? Falls Sie<br />
wollen, ändern und aktualisieren Sie die Beiträge!<br />
▸ Atkins, D. E.; Brown, J. S. & Hammond, A. L. (2007). A<br />
Review of the Open Educational Resources (OER) Movement:<br />
Achievements, Challenges and New Opportunities. Report to<br />
The William and Flora Hewlett Foundation. URL: http://cohesion.rice.edu/Conferences/Hewlett/emplibrary/A%20Review%20of%20the%20Open%20Educational%20Resources%20%28OER%29%20Movement_BlogLink.pdf<br />
[2010-12-06].<br />
▸ Deutsche Forschungsgemeinschaft (2005). Publikationsstrategien<br />
im Wandel? Ergebnisse einer Umfrage zum Publikations-<br />
und Rezeptionsverhalten unter besonderer Berücksichtigung<br />
von Open Access. Weinheim: Wiley-VCH Verlag, URL:<br />
http://www.dfg.de/dfg_profil/evaluation_statistik/programm<br />
_evaluation/studien/studie_publikationsstrategien [2010-12-<br />
06], 31.<br />
▸ Deutsche UNESCO-Kommission (Hrsg.) (2007). Open<br />
Access. Chancen und Herausforderungen. Ein Handbuch.<br />
Bonn, URL: http://openaccess.net/fileadmin/downloads/Open-Access-Handbuch.pdf<br />
[2010-12-06].<br />
▸ Geser, G. (2007). Open Educational Practices and Resources.<br />
OLCOS Roadmap 2012. Salzburg: Salzburg Research, URL:<br />
http://www.salzburgresearch.at/research/publications_detail.php?pub_id=357<br />
[2010-12-06].<br />
▸ Ilg, S. & Boothe, B. (2010). Qualitative Forschung im psychologischen<br />
Feld: Was ist eine gute Publikation?. In: Forum Qualitative<br />
Sozialforschung / Forum: Qualitative Social Research,<br />
11(2), Art. 27, URL: http://nbn-resolving.de/urn:nbn:de:0114fqs1002256<br />
[2010-12-06].<br />
▸ Informationsplattform Open Access. URL: http://open-access.net/<br />
[2010-12-06]; URL:<br />
http://www.dfg.de/download/programme/sachbeihilfe/abschlussberichte/2_01/2_01.pdf<br />
[2010-12-06], 21-22.<br />
▸ Koch, L.; Mey, G. & Mruck, K. (2009). Erfahrungen mit Open<br />
Access – ausgewählte Ergebnisse aus der Befragung zum<br />
Nutzen und Nutzung von FQS. In: Information, Wissenschaft,<br />
Praxis, 60(3), URL: http://eprints.rclis.org/16860 [2012-12-06],<br />
291-299.<br />
▸ Lane, A. (2008). Reflections on Sustaining Open Educational<br />
Resources: An Institutional Case Study. In: eLearning Papers,<br />
10, URL: http://www.elearningeuropa.info/files/media/media16677.pdf<br />
[2010-12-06].<br />
▸ Mruck, K. & Mey, G. (2002). Peer Review Between Printed<br />
Past and Digital Future. In: Research in Science Education,<br />
32(2), 257-268.<br />
▸ Mruck, K. &. Mey, G. (2008). Using the Internet for Scientific<br />
Publishing. In: Poiesis Praxis, 5, 113-123.<br />
▸ Mruck, K.; Gradmann, S. & Mey, G. (2004). Open Access: Wissenschaft<br />
als Öffentliches Gut. In: Forum Qualitative Sozialforschung<br />
/ Forum: Qualitative Social Research, 5(2), 14, URL:<br />
http://nbn-resolving.de/urn:nbn:de:0114-fqs0402141 [2010-<br />
12-06].<br />
▸ OECD (2007). Giving Knowledge for Free. The Emergence of<br />
Open Educational Resources. Paris, URL:<br />
http://213.253.134.43/oecd/pdfs/browseit/9607041E.PDF<br />
[2010-12-06].<br />
▸ Open Society Foundation (2010). Budapest: Open Access Initiative,<br />
URL: http://www.soros.org/openaccess/g/read.shtml<br />
[2010-12-12].<br />
▸ Schaffert, S. (2010). Strategic Integration of Open Educational<br />
Resources in Higher Education. Objectives, Case Studies, and<br />
the Impact of Web 2.0 on Universities. In: U.-D. Ehlers & D.<br />
Schneckenberg (Hrsg.), Changing Cultures in Higher Education<br />
– Moving Ahead to Future Learning. New York: Springer, 119-<br />
131.<br />
▸ Steinhauer, E. W. (2010). Das Recht auf Sichtbarkeit. Überlegungen<br />
zu Open Access und Wissenschaftsfreiheit. URL:<br />
http://fiz1.fh-potsdam.de/volltext/aueintrag/10497.pdf<br />
[2010-12-06].<br />
▸ Zawacki-Richter, O.; Anderson, T. & Tuncay, N. (2010) .The<br />
Growing Impact of Open Access Distance Education Journals:<br />
A Bibliometric Analysis. In: The Journal of Distance Education<br />
/ Revue de l'Éducation à Distance, 24(3), URL:<br />
http://auspace.athabascau.ca:8080/dspace/handle/2149/2770<br />
[2010-12-06]..
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Entwicklung von Videokonferenzen<br />
Seit der Verbreitung des Telefons gab es immer<br />
wieder die Vision und den Wunsch, das Gegenüber<br />
nicht nur zu hören, sondern auch zu sehen. Bereits in<br />
der 30er Jahren des letzten Jahrhunderts gab es mit<br />
der Einführung der Fernsehsprechzelle erste Versuche,<br />
Bild- und Tonübertragungen vorzunehmen,<br />
die dann in den späten 1960er Jahren mit der Einführung<br />
des Picturephones fortgeführt wurden –<br />
wirklich erfolgreich waren beide Ansätze nicht. Erst<br />
mit der Verbreitung des Internets Ende der 1990er<br />
Jahre erlebt die Videokonferenz einen neuen Aufschwung<br />
– insbesondere seitdem die Übertragung<br />
von Bild und Ton auch über die Web-Standards<br />
möglich geworden ist und ausreichend Bandbreiten<br />
zur Verfügung stehen (Flessner, 2000).<br />
!<br />
„Eine Videokonferenz ist eine Besprechung mehrerer<br />
Personen an unterschiedlichen Orten, die per Video-‐<br />
kamera oder Webcam und Datenleitungen mit hoher<br />
Bandbreite, beispielsweise über das Internet, über-‐<br />
tragen wird, wobei sich alle Teilnehmenden über Mo-‐<br />
nitor sowie Sprachein-‐ und -‐ausgabegeräte sehen und<br />
hören können.“ (DefiniQon von „Videokonferenz“ im<br />
Glossar von e-‐teaching.org)<br />
2. Szenarien des Lernens in Videokonferenzen<br />
Betrachtet man Lernszenarien in Videokonferenzen,<br />
dann stellt sich die Frage, inwieweit sich diese vom<br />
Lernen Face-to-Face (das heißt Lernende und Lehrende<br />
befinden sich an einem gemeinsamen Ort)<br />
oder von anderen Formen des E-Learnings unterscheiden.<br />
Diese Frage lässt sich sowohl auf einer<br />
technischen, als auch auf einer didaktischen Ebene<br />
beantworten. Technisch fokussiert diese Frage auf<br />
Aspekte wie den Aufwand, mit dem sich Lernen in<br />
Videokonferenzen realisieren lässt, und wie einfach<br />
der Zugang der Lernenden zu solchen Lernszenarien<br />
ist. Die Beantwortung dieser Frage ist von der verwendeten<br />
Infrastruktur abhängig und kann daher erst<br />
in der konkreten Anwendung berücksichtigt werden<br />
(Hinweise dazu finden Sie am Ende des Kapitels). An<br />
dieser Stelle liegt der Fokus auf dem didaktischen<br />
Aspekt, das heißt wie sich charakteristische Eigenschaften<br />
von Videokonferenzen so einsetzen lassen,<br />
dass die Lernenden davon besonders profitieren:<br />
Synchrone sprachliche Kommunikation, durch die<br />
elaborierte Erklärungen und interaktive Diskussionen<br />
ermöglicht werden, und Application-Sharing, wodurch<br />
die Lernenden gleichzeitig auf einen gemeinsam<br />
sichtbaren Arbeitsbereich zugreifen<br />
können. Dadurch eignen sich Videokonferenzen be-<br />
sonders für kooperative Lernszenarien, die von interaktiver<br />
Kommunikation wie Tutoring oder Coaching<br />
profitieren, und für Szenarien, die eine gemeinsame<br />
Lösungs- oder Entscheidungsfindung beinhalten.<br />
Aspekte beider Szenarien sollen im Folgenden kurz<br />
charakterisiert werden:<br />
Tutoring- und Coaching-Szenarien zeichnen<br />
sich durch unterschiedlich hohe Expertise der Teilnehmer/innen<br />
aus. Dabei leitet eine Person mit<br />
hoher Expertise eine oder mehrere Personen mit geringerer<br />
Expertise über Videokonferenz an. Der besondere<br />
Beitrag der Videokonferenz in solchen Situationen<br />
besteht in der Möglichkeit, zusätzliche Anwendungen<br />
oder Werkzeuge in den Lernprozess zu integrieren<br />
und dadurch gemeinsame Referenzpunkte zu<br />
schaffen (Ertl, 2007).<br />
Bei der kooperativen Lösungs- oder Entscheidungsfindung<br />
diskutieren Lernende mit vergleichbarer<br />
Expertise gemeinsam Fragestellungen oder erarbeiten<br />
gemeinsam eine Problemlösung. Hier stehen<br />
die gemeinsame Diskussion und Problemreflexion im<br />
Vordergrund. Der spezifische Beitrag der Videokonferenz<br />
besteht in solchen Szenarien aus dem Bereitstellen<br />
eines hoch interaktiven Kommunikationsmediums<br />
und gemeinsamer Arbeitsdokumente für die<br />
Lerngruppe (Paechter et al., 2010).<br />
Weitere didaktische Szenarien können Vorlesungen<br />
über Videokonferenzen umfassen. Beispielsweise<br />
haben sich die Universitäten Freiburg, Heidelberg,<br />
Karlsruhe und Mannheim in einem Projekt<br />
zur virtuellen Hochschule zusammengeschlossen.<br />
Die vier Universitäten tauschen Vorlesungen über<br />
Datenleitungen aus, führen gemeinsam Televorlesungen<br />
und -seminare durch und tauschen multimediale<br />
Lernmodule. So wurde über Videokonferenz die<br />
Vorlesung „Rechnernetze“ der Universität Mannheim<br />
an die Partneruniversitäten übertragen. Die Übertragung<br />
von Vorlesungen erfolgt in speziellen, technisch<br />
entsprechend ausgestatteten Hörsälen. Interaktive<br />
Whiteboards (die technisierte Form der Wandtafel),<br />
spezielle Softwareprogramme und eine ausreichend<br />
hohe Übertragungsrate der Netzwerke gehören<br />
zur Standardausstattung in diesem Projekt. Die<br />
Lerninhalte werden zudem archiviert. Vorlesungen<br />
werden aufgezeichnet und ins Netz gestellt oder Dozierende<br />
erstellen Präsentationen ausschließlich für<br />
das Netz (vgl. VCC, siehe Literaturverzeichnis). Ergänzend<br />
dazu gibt es Ansätze, dass sich die einzelnen<br />
Teilnehmer/innen vom eigenen Computer aus an<br />
einem Videokonferenz-Seminar beteiligen; Gestaltungsvorschläge<br />
für das Design solcher Seminare und<br />
konkrete Anforderungen an Tutoren von Videokonferenz-Seminaren<br />
finden sich unter anderem bei
Keller (2009). Er beschreibt auch Spezifika der Seminarsituation<br />
Videokonferenz. Insgesamt ist die Kommunikation<br />
beim Lernen mit Hilfe von Videokonferenzen<br />
der Face-to-Face-Kommunikation eher<br />
ähnlich; dennoch gibt es Unterschiede. Diese sollen<br />
im Folgenden näher betrachtet werden.<br />
3. Kommunika>on in Videokonferenzen<br />
Kommunikation kann man als einen fortlaufenden<br />
Prozess der gemeinsamen Verständigung von zwei<br />
oder mehreren Personen beschreiben (Clark &<br />
Brennan, 1996), in dem unterschiedliche Ziele erfüllt<br />
werden: Personen entwickeln zum Beispiel einen Eindruck<br />
voneinander, tauschen sachbezogene oder<br />
emotionale Information aus, koordinieren Arbeitstätigkeiten.<br />
Man kann Kommunikation als gemeinsames<br />
Handeln beschreiben, in dem die Kommunikationspartner/innen<br />
die Gesprächsinhalte und den<br />
Gesprächsverlauf koordinieren. In diesem Prozess<br />
versuchen sie fortlaufend eine gemeinsame Verständigungsbasis,<br />
einen „Common Ground“, zu gewährleisten<br />
(Clark & Brennan, 1996). Dazu müssen sie<br />
sich an die Besonderheiten des jeweils verwendeten<br />
Kommunikationsmediums anpassen.<br />
Videokonferenzkommunikation und Face-to-Face-<br />
Kommunikation haben zunächst einige Gemeinsamkeiten:<br />
Sichtbarkeit, Hörbarkeit, Synchronizität (das<br />
heißt ein Beitrag wird zur selben Zeit produziert, zu<br />
der er von der Kommunikationspartnerin oder vom<br />
Kommunikationspartner empfangen wird; dies trifft<br />
zum Beispiel auf E-Mail nicht zu), Sequenzialität (das<br />
heißt es bleibt die von den Sprechenden intendierte<br />
Abfolge der Beiträge erhalten; dies trifft zum Beispiel<br />
auf Chats nicht zu). Dennoch unterscheidet sich die<br />
Videokonferenz- von der Face-to-Face-Kommunikation:<br />
So fehlt die Kopräsenz, da sich die Kommunikationspartner/innen<br />
nicht denselben Raum teilen.<br />
Gerade dieses Merkmal ist jedoch wesentlich für das<br />
Erfahren von emotionaler Nähe und sozialer<br />
Präsenz. Videokonferenzen schränken zudem die<br />
Sichtbarkeit von Personen ein, wenn zum Beispiel in<br />
Desktop-Videokonferenzen nur ein Porträtausschnitt<br />
der Kommunikationspartner/innen auf dem Monitor<br />
angezeigt wird. Eine wesentliche Einschränkung der<br />
Sichtbarkeit betrifft die fehlende Möglichkeit, Blickkontakt<br />
herzustellen. Damit fehlt ein wichtiges Mittel<br />
für die non-verbale Koordination der Abfolge von<br />
Gesprächsbeiträgen (Paechter et al., 2010).<br />
Diese Besonderheiten machen es notwendig, dass<br />
die Kommunikationspartner/innen ihr Verhalten an<br />
das Setting „Videokonferenz“ anpassen. Dazu ein<br />
Beispiel: In einer Studie von Paechter et al. (2010)<br />
wurden über mehrere Teamtreffen hinweg die Kom-<br />
Lernen mit Videokonferenzen. Szenarien, Anwendungen und PraxisQpps — 3<br />
munikation und die Leistung von Gruppen in Videokonferenz-<br />
und Face-to-Face-Kommunikation untersucht.<br />
Achtundvierzig Teams zu je vier Personen<br />
trafen sich dreimal entweder Face-to-Face oder in<br />
einer Videokonferenz und bearbeiteten komplexe<br />
Aufgaben. Alle Gruppenmitglieder sollten ihr Wissen<br />
austauschen, einen gemeinsamen Lösungsvorschlag<br />
entwickeln und sich auf diesen einigen. Bei der<br />
Analyse der Leistung zeigten sich keine Unterschiede<br />
zwischen den Videokonferenz- und den Face-to-Face-Gruppen.<br />
Allerdings kommunizierten die Gruppenmitglieder<br />
in den beiden Settings unterschiedlich:<br />
Videokonferenzteams verbalisierten wesentlich häufiger<br />
die Koordination der gemeinsamen Arbeit und<br />
die Ausführung der Aufgaben. Sie machten häufiger<br />
Äußerungen dazu, welches Gruppenmitglied eine<br />
(Teil-) Aufgabe durchführt, über welches Wissen oder<br />
über welche zeitlichen Ressourcen bestimmte Gruppenmitglieder<br />
verfügen. Dieses Ergebnis kann dadurch<br />
erklärt werden, dass in der Videokonferenz<br />
Mittel zur Gesprächskoordination, wie der Blickkontakt,<br />
nicht zur Verfügung stehen.<br />
Die Bedeutung der Koordination in Videokonferenzen<br />
wird durch weitere Studien bestätigt: In einer<br />
Studie von Paechter et al. (2010) wurde ein Training<br />
für das gemeinsame Arbeiten in Videokonferenzen<br />
entwickelt und untersucht. Arbeitsgruppen lernten,<br />
die Koordination der gemeinsamen Arbeit explizit zu<br />
verbalisieren, aufgabenbezogene Information im Gespräch<br />
wiederaufzugreifen und mit der Aufgabe in<br />
Bezug zu setzen. In einer empirischen Untersuchung<br />
wurden Gruppen, die dieses Training erhalten hatten,<br />
mit Gruppen verglichen, die kein Training erhalten<br />
hatten. Es zeigte sich, dass die Trainingsgruppen<br />
bessere Leistungen erzielten.<br />
4. Unterstützung des Lernens in Videokonferenzen<br />
Auch wenn sich durch Trainings die Kommunikation<br />
in Videokonferenzen verbessern lässt, bleibt die<br />
Frage offen, inwieweit die Lernpartner/innen über<br />
die notwendigen Fähigkeiten zur erfolgreichen Bearbeitung<br />
kooperativer Aufgaben verfügen. Da dies oft<br />
nicht in ausreichendem Maße der Fall ist, ist didaktische<br />
Unterstützung für das Lernen in Videokonferenzen<br />
notwendig. Es lassen sich verschiedene<br />
Arten der didaktischen Unterstützung des<br />
Lernens in Videokonferenzen klassifizieren, deren<br />
Anwendung entweder vor oder während der Videokonferenz<br />
stattfindet und deren Fokus auf der Verbesserung<br />
der Kooperation oder auf der Unterstützung<br />
der Inhaltsbearbeitung liegt.<br />
Unterstützungsmöglichkeiten vor der Kooperation<br />
zielen darauf ab, die Lernenden besser auf die
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Kooperation in der Videokonferenz vorzubereiten.<br />
Hierunter fallen die schon beschriebenen Trainings<br />
für den Umgang mit der spezifischen Kommunikationssituation<br />
„Videokonferenz“, Kooperationstrainings<br />
und das Zirkulieren von Agenden oder von<br />
Unterlagen zur individuellen inhaltlichen Vorbereitung<br />
(siehe dazu auch den Teil „Leitfäden für erfolgreiche<br />
Videokonferenzen“).<br />
Während der Kooperation kann die Unterstützung<br />
durch Strukturvorgaben umgesetzt werden.<br />
Kooperationsspezifische Unterstützung unterteilt den<br />
Kooperationsprozess in spezifische Phasen, die unterschiedliche<br />
Aspekte der Aufgabenbearbeitung hervorheben.<br />
So lassen sich zum Beispiel der Austausch<br />
von Informationen, das Sammeln von Aspekten und<br />
die Diskussion der Lösung fokussieren (siehe auch<br />
das Anwendungsbeispiel am Ende des Kapitels). Auf<br />
inhaltlicher Ebene können Wissensschemata und<br />
Mapping-Methoden die Teilnehmenden auf spezifische<br />
Inhaltsbereiche aufmerksam machen und Zusammenhänge<br />
visualisieren. Studien haben gezeigt,<br />
dass Lernende von einer Kombination beider Unterstützungsmethoden<br />
am meisten profitieren (Ertl et<br />
al., 2006).<br />
In der nun folgenden Übungsaufgabe werden Sie<br />
die Gelegenheit haben, die Methoden des Kooperationsskripts<br />
und des Wissensschemas selbst in einer<br />
Videokonferenz zu erproben.<br />
5. Anwendung von Videokonferenzen<br />
Fokus<br />
Inhalt KooperaQon<br />
Inhalt vor der Ko-‐<br />
operaQon<br />
Agenden Trainings<br />
während der Wissens-‐ KooperaQons-‐<br />
KooperaQon schemata skripts<br />
Tabelle 1: Unterstützungsmöglichkeiten für Lernen und<br />
Kooperation in Videokonferenzen.<br />
Es gibt eine Vielzahl an frei und kostenlos verfügbaren<br />
sowie kommerziellen internetbasierten Anwendungen<br />
und Software für die Einrichtung einer Videokonferenz,<br />
mit und ohne Application-Sharing-<br />
Funktionalität. Auch die gängigen Instant-Messaging-<br />
Anwendungen bieten zusätzlich zur Chat-Funktion<br />
häufig die Möglichkeiten zur Kommunikation über<br />
einen Audio- und Videokanal.<br />
?<br />
In diesem AbschniX werden Sie eine Videokonferenz<br />
einrichten und in einem Lernkontext anwenden. Auf<br />
Basis der eigenen Erfahrungen reflekQeren Sie dabei<br />
den Einsatz dieser Technologie und die didakQschen<br />
ImplikaQonen, die sich daraus ergeben.<br />
Hinweise zur Technologieentscheidung<br />
Die Internationale Fernmeldeunion ITU klassifiziert<br />
Videokonferenz-Endgeräte in Desktopsysteme,<br />
Kompaktsysteme oder Raumsysteme, die sich hinsichtlich<br />
Leistungsspektrum und Einsatzgebiet unterscheiden.<br />
Bei einer Point-to-Point-Desktop-Videokonferenz<br />
werden Bild und Ton von einem PC auf einen<br />
anderen übertragen. Dazu benötigt man eine Videokamera<br />
oder Webcam und ein Mikrofon. Die Verbindung<br />
kann über Internet oder mindestens zwei<br />
ISDN-Telefonleitungen hergestellt werden.<br />
Wenn mehrere Personen gleichzeitig miteinander<br />
verbunden sind, spricht man von einer Multipoint-<br />
Destop-Konferenz. Für die Organisation einer<br />
solchen Konferenz werden eine Multipoint-Control-<br />
Unit (MCU) oder ein Videokonferenz-Server benötigt.<br />
Diese verbinden drei und mehr PC-Arbeitsplätze<br />
gleichzeitig. In der Regel nutzen ISDNbasierte<br />
MCUs den international etablierten Videokonferenzstandard<br />
H.320 oder wenn es sich um eine<br />
IP-basierte Übertragung handelt, wird das Protokoll<br />
H.323 verwendet. Die Basisfunktion von H.323 bzw.<br />
H.320 ist die Übertragung von Audio, Video und<br />
Daten von einem Standort zum anderen.<br />
Für den Einsatz von Videokonferenzen in<br />
großen Räumen, zum Beispiel um einen Vortragenden<br />
oder eine Vortragende aus Übersee in die<br />
Vorlesung per Videokonferenzübertragung einzuladen,<br />
empfiehlt sich die Anschaffung von eigens<br />
dafür konzipierten Raumsystemen. Dazu gehören<br />
eine hochwertige Kamera, ein Beamer für die Projektion<br />
des Bildes auf eine größere Fläche, eventuell<br />
eine Dokumentenkamera sowie ein PC. Üblicherweise<br />
sind Raumsysteme fix installiert.<br />
Schließlich gibt es auch portable Systeme.<br />
Laptops und Netbooks verfügen heute standardmäßig<br />
über Webkameras. Auch die mobile Telefonie<br />
bietet Geräte, in die Webcams integriert sind. Webportale,<br />
die Schnittstellen zu mobilen Endgeräten wie<br />
Handys, Smartphones und Handheld-Geräten anbieten,<br />
ermöglichen unabhängig von Zeit und Ort die<br />
audio-visuelle Kommunikation zwischen Personen<br />
und damit kooperatives Lernen.
In der Praxis: Leitfäden für erfolgreiche Videokonferenzen<br />
Im folgenden AbschniX werden praxisnahe Ratschläge für<br />
den Einsatz von Videokonferenzsystemen in der alltäglichen<br />
Lern-‐ sowie Lehrpraxis angeführt. Die Verwendung der Vi-‐<br />
deokonferenztechnologie bringt in der Regel einen gewissen<br />
Mehraufwand für die Lehrenden mit sich. Dieser wird jedoch<br />
mit einer Bereicherung der Lernerfahrung sowie erhöhtem<br />
MoQvaQonspotenzial der Lernenden belohnt. Die nachfol-‐<br />
genden praxisorienQerten Empfehlungen gliedern sich in un-‐<br />
terschiedliche Punkte und sollen als Anleitung oder als<br />
Checkliste für die Gewährleistung einer effekQven Appli-‐<br />
kaQon dienen (vgl. Gyorke,2006; Pepper, 2003; publicare;<br />
Rakoczi et al., 2010; Salmon, 2010).<br />
Technologie<br />
Im Rahmen der Technologieentscheidung sind pladormun-‐<br />
abhängige Lösungen zu präferieren, um opQmale KonnekQ-‐<br />
vität der unterschiedlichen (Betriebs-‐)Systeme gewähren zu<br />
können. Weiters ist die Bandbreite der Netzwerkverbindung<br />
zu beachten, da die Übertragung von Videokanälen mitunter<br />
sehr datenintensiv ausfallen kann. Bei der Internet-‐ver-‐<br />
bindung sollte der Kabelzugang gegenüber dem EinsQeg<br />
über WLAN bevorzugt werden, da dieser in der Regel sta-‐<br />
bilere Übertragungen garanQert. Es ist auf eine opQmale Be-‐<br />
lichtung beim Videobild zu achten, um bestmögliche<br />
Videoqualität zu ermöglichen. Den Lernenden sollten für das<br />
Üben im Vorhinein Testzugänge zur Verfügung gestellt<br />
werden. In diesem Zusammenhang ist es sinnvoll für un-‐<br />
geübte Teilnehmer oder Teilnehmerinnen kurze Anleitungen<br />
oder Checklisten anzuferQgen.<br />
Tipps für die didak>sche Organisa>on<br />
Lehrende sollten auf ihre Zielgruppe achten und überlegen<br />
in welcher Form Videokonferenzen opQmal eingesetzt<br />
werden können (als PräsentaQonstool, als diskursives<br />
Werkzeug etc.) Zahlreiche Videokonferenzlösungen bieten<br />
erweiterte (in das System integrierte) KommunikaQonswerk-‐<br />
zeuge (Whiteboards, Chat, File-‐Sharing) an – diese können<br />
für erweiterte didakQsche AkQvitäten genutzt werden. Leh-‐<br />
rende sollten die Beteiligung fördern und belohnen, zum Bei-‐<br />
spiel mit einem Preis für die akQvsten Teilnehmer/innen.<br />
Lehrende sollten auch den PerspekQvenwechsel einplanen,<br />
6. Technische Anforderungen und Umsetzungen<br />
Für erfolgreiche Videokonferenzen werden höchste<br />
Anforderungen an die Netzanbindung und die Datenübertragung<br />
gelegt. Die für Videokonferenzen benötigte<br />
Bandbreite beginnt bei 128 kbps für eine geringe<br />
Videoqualität und endet bei 4 Mbps. Üblicher-<br />
Lernen mit Videokonferenzen. Szenarien, Anwendungen und PraxisQpps — 5<br />
indem sie Lernende durch Vergabe von ModeraQonsrechten<br />
als Lehrende einsetzen! Es sind etwaige Hemmschwellen der<br />
Teilnehmer/innen zu beachten – erste Konferenzsitzungen<br />
sollten daher im universitären Rahmen (Campus) durchge-‐<br />
führt werden, und es sollte erst im Anschluss eine Mit-‐<br />
wirkung von unterschiedlichen Senngs aus ermöglicht<br />
werden (zu Hause, Büro).<br />
Kommunika>on<br />
Ganz besonders ist die Bedeutung von definierten Kommuni-‐<br />
kaQonsregeln zu betonen. Ein rechtzeiQger Hinweis auf et-‐<br />
waige NeQqueXe-‐Regeln ist zu empfehlen. Bei der<br />
Bildübertragung sollte auf die Körpersprache geachtet<br />
werden – die Lehrenden sollen ihren Blick direkt in die<br />
Kamera richten und sich dem Zweck entsprechend kleiden!<br />
Untersuchungen zeigen zudem, dass die Begeisterung der<br />
Lehrenden wichQg ist, um Lernende zu moQvieren (Paechter<br />
et al., 2010). Auch dies wird über die Körpersprache ver-‐<br />
miXelt! Wesentlich ist, dass gegen Ende einer Videokonfe-‐<br />
renzsitzung die besprochenen Inhalte zusammengefasst<br />
werden und den Teilnehmerinnen und Teilnehmern<br />
Feedback gegeben wird. Bei Konferenzen auf dem Campus<br />
sind persönlich und unmiXelbar nach der Sitzung durchge-‐<br />
führte Treffen mit den Lernenden überaus hilfreich. Essen-‐<br />
ziell ist im Rahmen der KommunikaQon, dass fortlaufend auf<br />
Verständlichkeit geachtet wird – daher sollten wesentliche<br />
Aussagen der Konferenz wiederholt werden! Körperbewe-‐<br />
gungen sollten stets langsam ausgeführt werden, da schnelle<br />
Bewegungen ruckarQge Artefakte im Videobild erzeugen<br />
können.<br />
Zeitmanagement<br />
Videokonferenzen sind anspruchsvoll und ermüdend – Mo-‐<br />
derator/innen sollten daher regelmäßig Pausen einplanen!<br />
Gegebenenfalls ist zudem zu Beginn der Sitzungen Zeit für<br />
die Einrichtung der technischen Infrastruktur vorzusehen. In<br />
der Einleitung sollte stets eine kurze zeitliche Strukturierung<br />
bekanntgegeben werden und auf ihre Einhaltung geachtet<br />
werden. Abschließend sei darauf verwiesen, dass eine klare<br />
Adressierung der KommunikaQonsteilnehmer/innen Zeit<br />
spart!<br />
weise werden Bandbreiten zwischen 384 und 1920<br />
kbps benutzt, welche für eine gute bis sehr gute Videoqualität<br />
ausreichen. Die zur Übertragung eingesetzten<br />
Videokomprimierungen (H.263, H.264) sind<br />
sehr effektiv und werden sowohl für ruhende Teile<br />
als auch für den Bewegtanteil im Video genutzt.
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Nicht nur um sicher zu stellen, dass ausreichend<br />
Bandbereite gewährleistet ist, ist unbedingt die IT-<br />
Abteilung bei der Auswahl und Installation der VC-<br />
Anlage einzubinden. Mit dieser ist auch zu klären, wie<br />
Sicherheitsfragen und Integration in die Firewall<br />
gelöst werden können, da das H.323-Protokoll nicht<br />
von allen Firewalls unterstützt wird.<br />
Optimal ist es, wenn alle Konferenzteilnehmer das<br />
gleiche System verwenden. Bei der Auswahl ist jedenfalls<br />
darauf zu achten, welche Kompatibilitäten die<br />
Hersteller für das jeweilige Produkt garantieren.<br />
Die Auswahl einer Video- oder Webkonferenz-Anwendung<br />
für den Einsatz in einem Lehr-<br />
Lernkontext muss mit den spezifischen didaktischen<br />
Zielsetzungen abgestimmt werden und ist zusätzlich<br />
von technischen und organisatorischen Rahmenbedingungen<br />
abhängig. Insbesondere ist bei der<br />
Auswahl von Videokonferenz-Equipment (Hard- und<br />
Soft-ware) neben der Abklärung, wie viel Budget zur<br />
Verfügung steht, zu klären, ob und in welcher Qualität<br />
die Rahmenbedingungen für eine erfolgreiche<br />
Videokonferenz vorhanden sind oder geschaffen<br />
werden müssen.<br />
!<br />
Video- und Webkonferenz-Software erfordert in<br />
der Regel die Installation eines Programms auf dem<br />
Computer. Es gibt auch Online-Applikationen, bei<br />
denen lediglich die Anmeldung und Einrichtung eines<br />
Accounts erforderlich ist. Die Ausstattung des Computers<br />
mit einer Webcam und Lautsprecher/Mikrofon<br />
(Headset) ist in jedem Fall erforderlich; Breitbandinternetverbindung<br />
wird empfohlen.<br />
7. Fazit<br />
Tools in der Praxis Beispiele für Werkzeuge, mit<br />
denen sich Videokonferenzen abhalten lassen, sind<br />
unter anderem:<br />
Kommerzielle webbasierte Konferenzsysteme:<br />
▸ Adobe Connect Spreed,<br />
▸ Netviewer,<br />
▸ NetMeeQng (oder Windows-‐Besprechungsraum<br />
ab Windows Vista) oder<br />
▸ Vitero.<br />
Kostenlose webbasierte Konferenzsysteme:<br />
▸ fast alle Messaging-‐Systeme wie Skype, DimDim<br />
oder Windows Live Messenger sowie<br />
▸ Open Source Web Conferencing: openmeeQngs,<br />
vmukQ<br />
Videokonferenzen sind eine vielversprechende Möglichkeit,<br />
kooperativ und hoch interaktiv über Entfernungen<br />
hinweg zu lernen. Allerdings, auch wenn Videokonferenzen<br />
der Face-to-Face Kommunikation<br />
sehr ähnlich sind, gibt es Unterschiede in den Kom-<br />
?<br />
munikations- und Kooperationsprozessen. Deswegen,<br />
und auch weil den Lernenden oft wichtige<br />
Fertigkeiten zur Kooperation fehlen, kann didaktische<br />
Unterstützung in Videokonferenzen hilfreich<br />
sein, zum Beispiel durch Skripts und Wissensschemata.<br />
Für den Einsatz von Videokonferenzen<br />
beim Lernen gilt es, neben den pädagogischen<br />
Aspekten, technische, organisatorische und finanzielle<br />
Rahmenbedingungen zu beachten, um die Videokonferenz<br />
für alle Beteiligten erfolgreich zu gestalten.<br />
!<br />
Literatur<br />
Wir haben Ihnen eine umfangreiche Übungsaufgabe<br />
(für zwei Personen) vorbereitet, die Ihnen die Mög-‐<br />
lichkeit gibt, Ihre Kompetenz im Umgang mit Web-‐<br />
und Videokonferenzen prakQsch zu entwickeln und zu<br />
reflekQeren. Die Übungsaufgabe ist als ZIP-‐Datei unter<br />
hXp//:l3t.eu bei diesem Kapitel zugänglich (#video-‐<br />
konferenz). Sollten Sie keine KooperaQonspartnerin<br />
oder keinen KooperaQonspartner finden oder sollten<br />
technische Probleme die Einrichtung der Videokon-‐<br />
ferenz verhindern, können Sie die Aufgabenstellung<br />
auch eigenständig bearbeiten.<br />
▸ Bevor Sie mit der Bearbeitung der Übungsaufgabe<br />
beginnen, lesen Sie biXe alle InformaQonen genau<br />
durch, um einen Überblick über den gesamten<br />
Lernprozess und die erforderlichen SchriXe zu be-‐<br />
kommen.<br />
▸ Im AbschniX zur Unterstützung des Lernens in Vi-‐<br />
deokonferenzen wurden Ihnen zwei Möglichkeiten<br />
zur Unterstützung des Lernens in Videokonfe-‐<br />
renzen vorgestellt: Strukturierungen mit Fokus auf<br />
die KooperaQon oder auf den Inhalt. Sie ver-‐<br />
wenden selbst ein KooperaQonsskript und eine in-‐<br />
haltspezifische Strukturierung für die Kommuni-‐<br />
kaQon mit Ihrer Partnerin oder Ihrem Partner.<br />
Folgen Sie dem KooperaQonsskript!<br />
Die häufigsten Fehler, die bei Videokonferenzen auf-‐<br />
treten können, werden im Video der University of<br />
Washington „The Videoconferencing Zone“ auf hu-‐<br />
morvolle Weise dargestellt. Verfügbar auf: hXp://you-‐<br />
tu.be/ccMZ_NWhkf4.<br />
▸ Clark, H. H. & Brennan, S. E. (1996). Grounding in communication.<br />
In: L. B. Resnick; J. M. Levine & S. D. Teasley (Hrsg.),<br />
Perspectives on socially shared cognition. Washington DC:<br />
American Psychological Association, 127-149.<br />
▸ Ertl, B. (2007). Kooperatives Lernen in Videokonferenzen.<br />
Einflussmöglichkeiten didaktischer Strukturierungen. Saarbrücken:<br />
VDM Verlag Dr. Müller.
▸ Ertl, B.; Fischer, F. & Mandl, H. (2006). Conceptual and sociocognitive<br />
support for collaborative learning in videoconferencing<br />
environments. Computers & Education, 47(3), 298-<br />
315.<br />
▸ e-teaching.org. URL: http://www.e-teaching.org/glossar/videokonferenz<br />
[2010-10-09].<br />
▸ Flessner, B. (2000). Fernsprechen als Fernsehen. Die Entwicklung<br />
der Bildtelefonie und die Bildtelefonprojekte der<br />
Deutschen Reichspost. In: J. Bräunlein & B. Flessner (Hrsg.),<br />
Der sprechende Knochen. Perspektiven von Telefonkulturen.<br />
Wiesbaden: Königshausen und Neumann, 29-46.<br />
▸ Gyorke, A. (2006). Faculty guide to teaching through videoconferencing.<br />
URL: http://clc.its.psu.edu/Classrooms/Help/Videoconferencing.pdf<br />
[2010-07-20].<br />
▸ Keller, R. (2009). Live e-learning im virtuellen Klassenzimmer.<br />
Eine qualitative Studie zu den Besonderheiten beim Lehren<br />
und Lernen. Hamburg: Verlag Dr. Kovac.<br />
▸ König, P. (2007). Blickkontakt. c’t, 07(1), URL: http://www.heise.de/ct/artikel/Blickkontakt-290814.html<br />
[2010-09-16].<br />
▸ Paechter, M.; Kreisler, M. & Maier, B. (2010). Supporting collaboration<br />
and communication in videoconferences. In: B. Ertl<br />
(Hrsg.), E-collaborative knowledge construction: Learning<br />
from computer-supported and virtual environments, Hershey,<br />
PA: IGI Global, 195-212.<br />
Lernen mit Videokonferenzen. Szenarien, Anwendungen und PraxisQpps — 7<br />
▸ Paechter, M.; Maier, B. & Macher, D. (2010). Students’ expectations<br />
of, and experiences in e-learning: Their relation to<br />
learning achievements and course satisfaction. Computers and<br />
Education, 54(1), 222-229.<br />
▸ Pepper, C. (2003). Digital handbook - a videoconferencing<br />
guide for teachers and students. URL:<br />
http://www.d261.k12.id.us/VCing/intro.htm [2010-07-20].<br />
▸ publicare. Weltweit einzigartig: Herstellerunabhängiger Vergleich<br />
von Software für Webkonferenzen. URL: http://www.webconferencing-test.com/de/webkonferenz_home.html<br />
[2010-07-06].<br />
▸ Rakoczi, G.; Herbst, I. & Reichl, F. (2010). Nine recommendations<br />
for enhancing e-moderation skills by utilisation of videoconferencing<br />
within an e-tutoring curriculum. In: Proceedings<br />
of ED-Media World Conference on Educational Multimedia,<br />
Hypermedia & Telecommunication, Chesapeake, VA: AACE,<br />
2258-2266.<br />
▸ Salmon, G. (2000). E-moderating: The key to teaching and<br />
learning online. London: Kogan Page Limited.<br />
▸ VCC: Kompetenzzentrum für Videokonferenzen. URL:<br />
http://vcc.zih.tu-dresden.de [2010-09-10].<br />
▸ Virtuelle Hochschule Oberrhein. URL: http://www.viror.de<br />
[2010-09-10].
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Einführung<br />
Virtuelle Welten sind eine spezielle Art sozialer Netzwerke,<br />
in denen die Benutzer als sogenannte Avatare<br />
(eine Art Spielfigur) in einer virtuellen, dreidimensionalen<br />
Umgebung dargestellt werden. Mittels Chat<br />
oder Voice Chat kommunizieren diese Avatare in<br />
Echtzeit miteinander. Sie können mit der virtuellen<br />
Umgebung interagieren (zum Beispiel einen Raum<br />
betreten oder sich auf einen Stuhl setzen) und in<br />
manchen Systemen auch die Umgebung modifizieren<br />
(zum Beispiel Geräte bedienen).<br />
Im Gegensatz zu den meisten anderen sozialen<br />
Netzwerken bleiben die Benutzer hinter den Avataren<br />
üblicherweise anonym. Von den sogenannten<br />
MMOG (Massively Multiplayer Online Games), die<br />
eine ähnliche Technologie verwenden, unterscheiden<br />
sich virtuelle Welten darin, dass sie offener im Verwendungszweck<br />
sind, mit einem gewissen Fokus auf<br />
Interaktion und Kreativität. Sie sind also kein Spiel<br />
mit vordefinierten Zielen, Gewinnern und Verlierern.<br />
Dadurch wird es möglich, sie als Lernumgebung zu<br />
verwenden.<br />
Kommerziell betriebene virtuelle Welten erfreuen<br />
sich vor allem bei jungen Menschen großer Beliebtheit.<br />
Die Marktforschungs-Firma KZero zählte<br />
Ende 2009 etwa 800 Millionen Benutzer/innen in<br />
etwa 300 verschiedenen virtuellen Welten. Die<br />
meisten davon haben Kinder und Jugendliche als<br />
Zielgruppe, aber es gibt auch virtuelle Welten mit<br />
einem Zielpublikum über 30 Jahren (zum Beispiel<br />
Second Life).<br />
Es existieren Open-Source-Software-Projekte, mit<br />
denen man selbst eine virtuelle Welt erstellen kann.<br />
Für den Fall einer virtuellen Lernumgebung ist dies<br />
natürlich von Vorteil, weil man die volle Kontrolle<br />
über das System hat und die Kosten geringer sind.<br />
Das bekannteste dieser Projekte ist das OpenSimulator-Projekt,<br />
welches im Wesentlichen die Funktionalität<br />
von Second Life nachbildet.<br />
!<br />
?<br />
Weiterführende Links finden Sie in der L3T Gruppe bei<br />
Mister Wong unter Verwendung der Hashtags #l3t<br />
#virtuellewelt #einfuehrung<br />
Reflek
hungsweise Edu-Worlds und ab circa 2005 in Second<br />
Life, erforscht. Begründen lässt sich das Interesse am<br />
Lernen in dreidimensionalen Umgebungen sicherlich<br />
dadurch, dass Lernplattformen beziehungsweise<br />
Lernmanagementsysteme (LMS) nicht in dem Maße<br />
attraktive und interaktive Lernumgebungen sind, wie<br />
sie versprechen.<br />
Eine These bei der Verwendung dreidimensionaler<br />
virtueller Welten ist die mögliche unterstützende<br />
Wirkung sogenannter Immersion auf Lernprozesse.<br />
Immersionseffekte hängen mit Flow-Erleben (Csikszentmihalyi,<br />
1993) zusammen, werden aber auch im<br />
Zusammenhang mit Computerspielsucht genannt<br />
(Grunewald, 2009).<br />
Immersion bezeichnet den Grad, in dem Individuen<br />
wahrnehmen, dass sie mehr mit ihrer virtuellen<br />
als mit ihrer realen Umgebung interagieren<br />
(Guadagno et al., 2007) und beschreibt somit das individuelle<br />
Gefühl des „sense of being there“. Bezüglich<br />
einer virtuellen Realität scheint Immersion<br />
durch den Grad der Repräsentation der Lernenden<br />
und ihrer Präsenz (Presence) bestimmt zu sein (Davis<br />
et al., 2009; Bredl & Herz, 2010). Ihre Repräsentation<br />
ist dabei geprägt von den Zuständen und dem Erscheinungsbild<br />
ihrer virtuellen Repräsentanten sowie<br />
ihrer Interaktionsmöglichkeiten (Bouras et al., 2001).<br />
?<br />
▸ Disku
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
on, die Tiefe der Informationsverarbeitung und den<br />
Lernerfolg (weitere Techniken und Verweise auf<br />
Studien zum Beispiel bei De Jong & van Joolingen,<br />
1998).<br />
?<br />
▸ Was sind die Prinzipien des Lernens mit Simula-‐<br />
In der Praxis: Virtuelles Teamtraining<br />
Fahrzeuge und Maschinen sind ohmals von mehreren Per-‐<br />
sonen zu bedienen. Doch auch Teamarbeit kann in simu-‐<br />
lierten Welten gelernt und geübt werden. Vorgestellt wird<br />
hier eine Methode zum virtuellen Teamtraining (Virtual-‐<br />
Reality-‐Team-‐Training-‐System, VTTS, www.vr-‐team-‐trai-‐<br />
ner.com), welche die Bremer szenaris GmbH entwickelt hat<br />
und mit der eine Gruppe von Lernenden in einer simulierten<br />
Welt vorkonfigurierte Übungen ausführen kann. Im virtuellen<br />
Teamtrainingssystem sind dazu mehrere Arbeitsplätze in<br />
einem Netzwerk miteinander verbunden, was den Ler-‐<br />
nenden das gleichzei
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
▸ praxisnahe, realistische Ausbildungssituation und<br />
▸ Modifikation von Umgebungsvariablen (Wetter,<br />
Lichtverhältnisse, Fehlermeldungen von Geräten).<br />
Die möglichen Nachteile beim Einsatz von Simulationen<br />
sollen nicht unerwähnt bleiben. So können<br />
beispielsweise Schwindelgefühle auftreten, wenn<br />
sichtbare Bewegungen nicht den wahrgenommenen<br />
entsprechen (die so genannte „Simulatorkrankheit“).<br />
Da die Technik aber inzwischen so weit fortgeschritten<br />
ist, dass neben Sehen und Hören auch die<br />
haptische Wahrnehmung angesprochen wird, findet<br />
man sich noch realer in das virtuelle Geschehen<br />
hinein. So wird dieses „spürbar“ und das Risiko physischer<br />
Einschränkungen noch weiter minimiert.<br />
!<br />
?<br />
Durch Simula
▸ Heeter, C. (1992). Being There: The Subjective Experience of<br />
Presence. URL:<br />
http://commtechlab.msu.edu/randd/research/beingthere.html<br />
[2010-07-10].<br />
▸ Hofmann, J. (2002). Raumwahrnehmung in virtuellen Umgebungen:<br />
Der Einfluss des Präsenzempfindens in Virtual<br />
Simula
Andréa Belliger, David Krieger, Erich Herber und Stephan Waba<br />
Die Akteur-Netzwerk-Theorie<br />
Eine Techniktheorie für das Lernen und Lehren mit Technologien<br />
Zwischen den entgegen gesetzten Entwürfen von Technik-‐ und Sozialdeterminismus stellt die Akteur-‐<br />
Netzwerk-‐Theorie (ANT) einen MiEelweg des Verständnisses der Beziehung von Mensch und Technik dar.<br />
Technik ist für die ANT weder bloßes Instrument, noch eine Determinante, die das soziale Leben und<br />
damit auch die didakCsche KommunikaCon von Lehren und Lernen besCmmt. Vielmehr bilden Mensch<br />
und Technik hybride Akteur-‐Netzwerke. Diese Akteur-‐Netzwerke sind Formen des Zusammenschlusses von<br />
Menschen, Technologien, OrganisaConen, Regeln, Infrastrukturen und vielem mehr, mit dem Ziel, relaCv<br />
stabile Gefüge von Wissen, KommunikaCon und Handeln ins Leben zu rufen. Alle Akteure – Menschen,<br />
Medien, Maschinen oder sonsCge Artefakte – sind gleichermassen in der Lage, Beziehungen und Ver-‐<br />
halten der Akteure in einem Netzwerk zu beeinflussen. Im Bildungskontext bietet die ANT Erklärungen und<br />
mögliche Herangehensweisen bei der Analyse und Beschreibung komplexer Bildungsprozesse und Innova-‐<br />
Conen im technologiegestützten Unterricht. Wenn Menschen, Technologien aber auch Artefakte aus dem<br />
Bildungsumfeld als handlungstragende Akteure im technologiebasierten Unterricht verstanden und in<br />
ihrem Zusammenspiel betrachtet werden, gelingt es uns, die Realitäten des Unterrichts-‐ und Lernver-‐<br />
haltens zu verstehen und in didakCschen Einsatzszenarien zu berücksichCgen. ModellhaHe Akteur-‐Netz-‐<br />
werke könnten dazu beitragen, ein besseres Verständnis für die sozialen Wirklichkeiten des Zusammen-‐<br />
spiels von Akteur-‐Netzwerken in der Bildungspraxis zu erzielen.<br />
Jetzt Pate werden!<br />
Quelle: dospaz, hEp://www.flickr.com/photos/59195512@N00/4964496706 [2011-‐01-‐10]<br />
#ant<br />
#spezial<br />
#theorieforschung<br />
Version vom 1. Februar 2011<br />
Für dieses Kapitel wird noch ein Pate gesucht,<br />
mehr InformaConen unter: hEp://l3t.eu/patenschaH
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
!<br />
1. Eine Einführung in die Akteur-‐Netzwerk-‐Theorie<br />
(von Andréa Belliger und David Krieger)<br />
Einleitung<br />
Anmerkung zur gewünschten ZitaCon dieses Beitrags:<br />
Auf ausdrücklichen Wunsch der Autorin und Autoren<br />
wird darum gebeten, diesen Beitrag abschniEsweise<br />
zu ziCeren und die entsprechenden Urheber/innen<br />
aufzuführen (vgl. AbschniE 1 und AbschniE 2).<br />
Seit sich das Internet als bestimmendes Medium für<br />
die meisten Formen von Kommunikation durchgesetzt<br />
hat, gilt der Netzwerkbegriff als Schlüssel zum<br />
Verständnis vieler verschiedener Phänomene. So<br />
spricht man etwa von einer „Netzwerkgesellschaft“<br />
und Sozialen Netzwerken. Im Kontext eines in vielen<br />
Disziplinen entstehenden Netzwerkparadigmas bietet<br />
die in den 1980er Jahren entwickelte Akteur-<br />
Netzwerk-Theorie (ANT) eine vielversprechende<br />
Grundlagentheorie für ein zukunftsweisendes Verständnis<br />
von Lehren und Lernen, da sie als eine der<br />
wenigen Theorien die Technik als gleichberechtigten<br />
Akteur in sozialer Kommunikation beschreibt. Im<br />
ersten Teil dieses Kapitels wird die Akteur-Netzwerk-<br />
Theorie in groben Zügen skizziert. Im zweiten Teil<br />
wird das Prinzip der ANT am Beispiel des Schulunterrichts<br />
näher erläutert. Als konkretes Szenario<br />
ziehen wir den Unterricht mit Netbooks heran. Es<br />
wird der Frage nachgegangen, welche Rolle menschliche<br />
und nicht-menschliche Akteure beim Unterricht<br />
mit Netbooks spielen, wie das Zusammenspiel dieser<br />
Akteure die Gestaltung von Lehr-Lern-Aktivitäten<br />
beeinflusst, und wie die Entwicklungen von Akteur-<br />
Netzwerk-Konstellationen beobachtet werden<br />
können.<br />
Techniktheorien in Bildungsprozessen<br />
Trotz der enormen Fülle an Literatur zu Themen wie<br />
Mediendidaktik, E-Learning und Computer im Unterricht,<br />
sucht man fast vergebens nach tiefer greifenden<br />
theoretischen Überlegungen zur Rolle der<br />
Technik im Bildungssystem. Wirft man einen Blick<br />
auf andere Bereiche und Disziplinen, wie etwa die<br />
Wissenschafts- und Technikforschung, fällt hingegen<br />
unweigerlich die rege Tätigkeit und differenzierte<br />
Fülle an anspruchsvollen Modellen auf. Schon allein<br />
aus diesem Grund lohnt es sich für Forscherinnen<br />
und Forscher, aber auch Anwenderinnen und Anwender<br />
von E-Learning, in diesen Bereichen nach<br />
neuen, innovativen Ideen Ausschau zu halten.<br />
Viele Diskussionen über den Einsatz und die Anwendung<br />
digitaler Medien in Lernprozessen sind<br />
Grundlagendiskussionen über die Art und Weise wie<br />
Menschen mit Technik umgehen und wie Technik soziale<br />
Prozesse bestimmt beziehungsweise bestimmen<br />
sollte. Aus diesem Grund ist die Frage nach adäquaten<br />
Techniktheorien für alle Entscheidungsträger<br />
im Bildungssystem von Bedeutung. Grundlagentheorien<br />
sind für Transformationen sozialer Prozesse<br />
wichtig und die Diskussion über sie ist Bestandteil<br />
jeder verantwortungsvollen Auseinandersetzung<br />
mit der Praxis und der Zukunft von Bildung.<br />
Wie die Rolle der Technik in Bildung konzeptualisiert<br />
wird, ist entscheidend, da je nach Verständnis dieser<br />
Rolle unterschiedliche Handlungsprogramme und<br />
Strategien auf Seite der sozialen Akteure resultieren:<br />
Ziele werden anders gesetzt; menschliche, technische<br />
und finanzielle Ressourcen zugesprochen oder nicht;<br />
künftige Entwicklungen durch strategische Entscheidungen<br />
initiiert; Rahmenbedingungen für gesellschaftliche<br />
Änderungen gesetzt und entsprechende<br />
Forderungen an alle Beteiligten im Bildungssystem<br />
gestellt.<br />
Ein theoretisches Modell, das uns zur Beschreibung<br />
der Rolle von Technik in Bildungsprozessen<br />
zur Verfügung steht, ist die Akteur-Netzwerk-<br />
Theorie. Die Akteur-Netzwerk-Theorie, oder kurz<br />
ANT, wurde vor allem von Bruno Latour und Michel<br />
Callon während der 1970er und 80er Jahre in Frankreich<br />
entwickelt. Die beiden Soziologen untersuchten<br />
in einer Reihe wegweisender Studien, wie Wissenschaftler<br />
im Labor arbeiten und nach welchen Bedingungen<br />
wissenschaftliche Erkenntnisse entstehen und<br />
in Technologien angewendet werden. Die ANT ist<br />
somit in der soziologischen Wissenschafts- und Technikforschung<br />
verwurzelt, hat sich aber durch weitreichende<br />
theoretische Arbeiten (Latour, 1998, 2000) in<br />
den 1990er Jahren zu einer umfassenden Theorie von<br />
Kultur, Gesellschaft und Kommunikation weiterentwickelt.<br />
!<br />
Die Hauptaussage der Akteur-‐Netzwerk-‐Theorie, auf<br />
die wir gleich differenzierter eingehen, ist, dass Men-‐<br />
schen, Technik und GesellschaH sich gegenseiCg be-‐<br />
dingen und zusammen hybride, heterogene Netz-‐<br />
werke bilden.<br />
Die Tatsache, dass die ANT, welche das Zusammengehen<br />
von Menschen und Technologien, so genannte<br />
sozio-technische Netzwerke, ins Zentrum ihres Interesses<br />
rückt, in den letzten Jahren zunehmend Beachtung<br />
findet, lässt sich auf verschiedene Gründe<br />
zurückführen. Einer der Gründe liegt in der Verwis-
Die Akteur-‐Netzwerk-‐Theorie. Eine Techniktheorie für das Lernen und Lehren mit Technologien— 3<br />
senschaftlichung und Technisierung der Gesellschaft.<br />
Die globale Wissensgesellschaft ist bis in die meisten<br />
Lebensbereiche hinein von Wissenschaft und<br />
Technik geprägt. Die neuen Informations- und Kommunikationstechnologien<br />
haben alle gesellschaftlichen<br />
Subsysteme, das Bildungssystem eingeschlossen,<br />
verändert. Theoretische Überlegungen zur<br />
Rolle von Mensch und Technik in diesem neuen<br />
Kontext greifen - das zeigt auch ein Blick in die E-<br />
Learning-Literatur – noch häufig auf gängige technikdeterministische<br />
oder sozialdeterministische Annahmen<br />
zurück.<br />
Der Technikdeterminismus geht davon aus,<br />
dass die Gesellschaft durch technologische Entwicklungen<br />
bestimmt ist. Die Technik beeinflusst<br />
menschliches Verhalten und soziale Kommunikation.<br />
So behauptet der Technikdeterminismus beispielsweise,<br />
dass Steinwerkzeuge, die Schrift, die Dreifelderwirtschaft,<br />
Massenmedien und vergleichbare<br />
Schlüsseltechnologien soziale und kulturelle Anpassungen<br />
hervorgerufen und ganze Epochen geprägt<br />
haben (White, 1962; Innis, 1972). Aus technikdeterministischer<br />
Sicht wird Technik oft als „Sachzwang“<br />
oder als sich verselbständigte Entäußerung beziehungsweise<br />
Erweiterung des Menschen betrachtet<br />
(Schelsky, 1965; Gehlen, 1986). Modelle technischer<br />
Rationalität wie zum Beispiel die Kybernetik und<br />
Künstliche Intelligenz-Forschung (du Boulay & Mizoguchi,<br />
1997), welche etwa die Entwicklung von<br />
Lernmaschinen maßgeblich beeinflussten (Pask,<br />
1975; Pask, 1976), verstehen kognitive Prozesse und<br />
Lernen als etwas, das technisch nachgebaut und optimiert<br />
werden kann. Aus der Perspektive des Technikdeterminismus<br />
gibt es keinen Grund, Technik als<br />
etwas Fremdartiges oder den Bildungszielen der<br />
Schule Entgegengesetztes zu betrachten.<br />
!<br />
Der Technikdeterminismus erachtet es als sinnvoll, die<br />
InterakCon mit Systemen wie etwa Lernprogrammen,<br />
Tutoring-‐Systemen oder Lernumgebungen zu fördern<br />
und diese in Bildungsprozesse einzubinden.<br />
Im Gegensatz dazu setzt der Sozialdeterminismus<br />
den Menschen in den Mittelpunkt. Der Mensch bestimmt,<br />
wie Technik entwickelt und eingesetzt wird.<br />
Wissenschaft und Technik haben kein Eigenleben, sie<br />
sind bloße Werkzeuge, deren Gebrauch von gesellschaftlichen<br />
Entscheidungen abhängt. Neuere soziologische<br />
und erziehungswissenschaftliche Studien<br />
über Technik in Bildung (Luhmann & Schorr, 1986,<br />
1990, 1992; Luhmann, 2002) warnen davor, eine<br />
technologische Rationalität und Instrumentalisierung<br />
des Menschen durch Technik im Bildungssystem zu<br />
institutionalisieren. Aus der sozialdeterministischen<br />
Perspektive gibt es gute Gründe, dem Einfluss der<br />
Technik auf Bildung zu misstrauen. Obwohl das Bildungssystem<br />
die Aufgabe hat, aus Nicht-Wissenden<br />
Wissende, aus Nicht-Kompetenten Kompetente zu<br />
„machen“, sollte im Sinne des kategorischen Imperativs<br />
der Mensch immer als Selbstzweck behandelt<br />
werden. Dies verlangt, dass didaktische Instrumente<br />
oder erzieherische „Techniken“ in Frage gestellt<br />
werden und deren Wirkung und Einfluss auf Bildungsprozesse<br />
Grenzen gesetzt werden.<br />
!<br />
Dem Sozialdeterminismus zufolge ist Bildung grund-‐<br />
sätzlich nicht mit technischem Denken vereinbar, da<br />
Menschen nicht instrumentalisiert werden dürfen.<br />
Technik ist kein Partner im System Bildung, sondern<br />
ein Instrument, das nur dann eingesetzt werden<br />
sollte, wenn es die zwischenmenschliche Kommunikation<br />
nicht hindert oder gar ersetzt.<br />
Die Akteur-‐Netzwerk-‐Theorie<br />
Zwischen diesen entgegen gesetzten Alternativen<br />
stellt die Akteur-Netzwerk-Theorie einen Mittelweg<br />
des Verständnisses der Beziehung zwischen Mensch<br />
und Technik dar. Die Technik ist weder ein bloßes<br />
Instrument, noch eine Determinante, die das soziale<br />
Leben bestimmt. Vielmehr bilden Mensch und<br />
Technik zusammen Akteur-Netzwerke. Personen,<br />
Gruppen, Organisation, Institutionen, aber auch Artefakte,<br />
Bücher, Infrastrukturen, Gebäude, Maschinen<br />
und vieles mehr gelten als „Akteure“, die sich<br />
zu Netzwerken zusammenschliessen. Eine wichtige<br />
theoretische Innovation der ANT liegt in der Akzeptanz<br />
nicht-menschlicher Akteure. Als Akteur gilt<br />
grundsätzlich alles, was in der Lage ist, das Verhalten<br />
und die Ziele eines Netzwerkes zu beeinflussen. Jeder<br />
Akteur hat eigene Ziele, ein eigenes „Handlungsprogramm“.<br />
Er versucht, die Handlungsprogramme<br />
anderer Akteure in sein Programm zu „übersetzen“,<br />
um diese Akteure in ein Netzwerk einzubinden, das<br />
seinen Zielen entspricht. Ein Akteur, welcher erfolgreich<br />
in ein Netzwerk eingebunden wird, übernimmt<br />
eine bestimmte Rolle im Netzwerk und wird zu dem,<br />
was die ANT eine „Black Box“ nennt, das heißt er<br />
übernimmt eine fixierte Funktion im Ganzen. Je<br />
mehr Akteure in ein Netzwerk eingebunden werden<br />
können, desto stärker wird das Netzwerk.<br />
Im Kontext von Bildung bedeutet dies: Lernende<br />
können nicht als Individuen betrachtet werden, die<br />
entweder mittels Lerntechnologien oder bewusst
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
ohne solche in institutionalisierte und formalisierte<br />
Lernprozesse integriert werden müssen, Lernende<br />
sind vielmehr immer schon in größeren oder kleineren<br />
Netzwerken eingebunden, die bereits aus<br />
vielen verschiedenen Akteuren wie Büchern, Schulhäusern,<br />
Lehrpersonen, Eltern, Mitschülern, Smartphones,<br />
Lehrplänen, Bibliotheken, Medien, bildungspolitischen<br />
Instanzen, Reglementen, Wandtafeln,<br />
Computern und Budgets bestehen. Es gäbe keine<br />
Schülerinnen und Schüler und kein Bildungssystem,<br />
wäre da nicht bereits ein Netzwerk aus verschiedenen<br />
heterogenen Akteuren.<br />
!<br />
Akteur-‐Netzwerke werden als hybrid bezeichnet, da<br />
sie immer aus menschlichen und nicht-‐menschlichen<br />
Akteuren bestehen. Sie sind skalierbar, da sie so klein<br />
wie ein einzelner Lernender oder so groß wie das<br />
ganze Bildungssystem sein können.<br />
Aus der Perspektive der Akteur-Netzwerk-Theorie<br />
besteht die Aufgabe von Bildung also nicht darin,<br />
einzelnen Personen Wissen und Kompetenzen zu<br />
vermitteln und diese zu zertifizieren, sondern vor<br />
allem darin, diese kleinen und großen Netzwerke optimal<br />
miteinander zu verbinden. Lehren und Lernen<br />
sind Formen von Akteur-Netzwerken und Bildung ist<br />
Netzwerkarbeit.<br />
Kommunikationsprozesse, die entweder zum<br />
Erfolg oder Scheitern dieser Netzwerkarbeit führen,<br />
werden von der ANT detailliert analysiert und beschrieben.<br />
Die ANT geht dabei empirisch vor und<br />
legt großes Gewicht auf die vorurteilslose Beschreibung<br />
reeller Kommunikationsabläufe der verschiedenen<br />
Akteure. Kommunikation wird dabei als<br />
Handlung betrachtet, die etwas bewirkt. Akteure<br />
handeln durch Beeinflussung, Suggestion, Disposition<br />
und Forderungen, die von ihnen ausgehen. Ein<br />
Beispiel: Printmedien erfordern helle Umgebungen,<br />
digitale Medien hingegen zwingen Schulen dazu,<br />
Dimmer, Vorhänge oder Sonnenstoren in den Schulzimmern<br />
einzubauen. Die ANT folgt dem Prinzip<br />
der „methodischen Symmetrie“ in der Beschreibung<br />
von menschlichen und nicht-menschlichen<br />
Akteuren. Es spielt also keine Rolle, ob Menschen,<br />
Medien, Maschinen oder sonstige Artefakte<br />
die Beziehungen und das Verhalten der Akteure in<br />
einem Netzwerk zu beeinflussen versuchen. Technische<br />
Artefakte sind Akteure, die durchaus auch in<br />
der Lage sind, die Handlungsprogramme von Menschen<br />
zu beeinflussen und zu bestimmen.<br />
Akteur-Netzwerke sind also Formen des Zusammenschlusses<br />
von Menschen, Technologien, Organisationen,<br />
Regeln, Infrastrukturen und vielem mehr,<br />
mit dem Ziel, relativ stabile Gefüge von Wissen,<br />
Kommunikation und Handeln ins Leben zu rufen.<br />
Ein Beispiel, wie die Interaktion von Menschen mit<br />
digitalen Medien das Verhalten und die Einstellungen<br />
von Menschen bestimmen kann, zeigt sich am Phänomen<br />
Web 2.0. Während traditionelle Methoden<br />
und organisationale Strukturen in Wirtschaft, Wissenschaft<br />
und Bildung oft nicht in der Lage sind, eine<br />
Kultur des Vertrauens, der Offenheit und der Zuverlässigkeit<br />
im Austausch und der Nutzung von Wissen<br />
zu schaffen, wirken Web-2.0-Technologien ganz<br />
anders. Auf Basis dieser Technologien entstehen, jenseits<br />
formeller Informationssysteme, Communitys<br />
und Wissensnetzwerke, in denen Freiheit im Umgang<br />
mit Information, Individualisierung in der Gestaltung<br />
von Wissen, Überprüfbarkeit und Integrität als anerkannte<br />
Verpflichtungen, Flexibilität bei Problemlösungen,<br />
multiple Identitäten und gleichzeitiges Verfolgen<br />
diverser Zielsetzungen sowie Geschwindigkeit<br />
bei Entscheidungen und Innovationsoffenheit prägende<br />
Merkmale sind. Diese Eigenschaften sind<br />
weder ausschließlich den darin involvierten menschlichen,<br />
noch den technischen Akteuren zuzuschreiben.<br />
Sie sind vielmehr Netzwerkeigenschaften,<br />
die nur aus dem Zusammenschluss heterogener Akteure<br />
entstehen können. Die Akteur-Netzwerk-<br />
Theorie beschreibt heutige Entwicklungen wie das<br />
Web 2.0 als das Entstehen von hybriden, heterogenen<br />
Konstellationen menschlicher und nicht-menschlicher<br />
Akteure und erklärt damit die heutigen gesellschaftlichen<br />
Entwicklungen, ohne dabei einem Technikenthusiasmus<br />
oder einem Misstrauen aller Technik<br />
gegenüber zu verfallen.<br />
Seit sich das Internet als bestimmendes Medium<br />
aller Formen von Kommunikation durchgesetzt hat,<br />
gilt der Netzwerkbegriff als Schlüssel zum Verständnis<br />
vieler verschiedener Phänomene. So spricht<br />
man etwa von einer „Netzwerkgesellschaft“ (Castells,<br />
1996) und Sozialen Netzwerken. Im Kontext eines in<br />
vielen Disziplinen entstehenden Netzwerkparadigmas<br />
ist die Akteur-Netzwerk-Theorie aufgrund ihrer Anerkennung<br />
von Technik als Akteur in sozialer Kommunikation<br />
eine vielversprechende Grundlagentheorie<br />
für ein zukunftsweisendes Verständnis von<br />
Lehren und Lernen.<br />
?<br />
Überlegen Sie, welche Akteure-‐Netzwerke im Sinne<br />
der ANT Sie aus Ihrem Unterrichtsalltag kennen, und<br />
versuchen Sie zu beschreiben, welche Akteure das<br />
Verhalten des Netzwerkes besCmmen und wie sie dies<br />
tun. Achten Sie dabei insbesondere auf die Rolle der<br />
Technologie (technologische Akteure).
Die Akteur-‐Netzwerk-‐Theorie. Eine Techniktheorie für das Lernen und Lehren mit Technologien— 5<br />
2. Die Akteur-‐Netzwerk-‐Theorie am Beispiel von Net-‐<br />
books im Unterricht<br />
(von Erich Herber und Stephan Waba)<br />
Einen Praxisbezug im Bildungskontext bekommt die<br />
Akteur-Netzwerk-Theorie beim Einsatz mobiler<br />
Lerntechnologien im Schulunterricht. Als konkretes<br />
Szenario kann man den Unterricht mit Netbooks<br />
heranziehen.<br />
Akteur-‐Netzwerke beim Unterricht mit Netbooks<br />
Die Vernetzung der Lehrenden und Lernenden über<br />
die digitalen Medien, Web-2.0-Anwendungen und sozialen<br />
Netzwerke, die durch den Einsatz von Netbooks<br />
erzielt wird, erweitert die didaktischen Möglichkeiten<br />
im Unterricht, beispielsweise indem Lehrende<br />
und Lernende Inhalte mit Blogs, Wikis oder<br />
Online-Werkzeugen gemeinsam entwickeln (Herzig<br />
et al., 2010). Die dabei neu entstehenden kollektiven<br />
Wissensbasen im Web 2.0 sind wichtige Handlungsträgern<br />
(Akteure) im Sinne der ANT, die maßgeblich<br />
beeinflussen, wann, wo und wie Wissen erworben,<br />
verfügbar gestellt und verarbeitet wird. Dabei betrachtet<br />
die ANT als Akteure nicht mehr nur die einzelnen<br />
Lernenden oder Lehrenden selbst, sondern<br />
das komplexe Umfeld, in dem der Unterricht mit<br />
Netbooks stattfindet. Indem Lernende die didaktischen<br />
Möglichkeiten nutzen, die ihnen diese Wissensbasen<br />
zur Verfügung stellen, nehmen sie sie als<br />
Akteur in ihr Akteur-Netzwerk auf. Diese neu entstandenen<br />
Wissensbasen stellen ein Beispiel für Akteure<br />
dar, die den Zusammenschluss von Mensch<br />
und Technologie im Akteur-Netzwerk eines<br />
Netbook-Unterrichts bilden.<br />
Betrachtet man Mensch und Technologie, aber<br />
auch andere Artefakte aus dem Umfeld, im Sinne der<br />
ANT als handlungstragende Akteure im Netzwerk<br />
der Lehrenden und Lernenden, so bedeutet das am<br />
Beispiel des Netbook-Unterrichts, folgende wichtige<br />
Akteure zu erkennen und in den Unterricht zu integrieren:<br />
▸ Technologien (wie Netbooks, Beamer, Schulnetzwerke,<br />
Content-Filter, private IT-Infrastrukturen),<br />
▸ Wissensbasen (wie Web-2.0-Tools, freie Bildungsressourcen,<br />
persönliche Lernumgebungen),<br />
▸ Menschen (wie Lehrende, Lernende, Schulleitung,<br />
Eltern, Technologieanbieter, Serviceprovider),<br />
▸ Lehr- und Lernorte (wie Raum- und Schulorganisation,<br />
Bibliothek, Labor, private Lernumgebung)<br />
und<br />
▸ institutionelle Artefakte (wie organisatorische,<br />
rechtliche Rahmenbedingungen).<br />
Die didaktischen Möglichkeiten im Unterricht erweitern<br />
sich, wenn institutionelle Rahmenbedingungen<br />
existieren, die ein offenes Zusammenwirken<br />
der Akteure zulassen (zum Beispiel flexible Raumund<br />
Unterrichtsgestaltung, Möglichkeiten zur Computernutzung<br />
außerhalb des Unterrichts, Zieldefinitionen<br />
mit der Schulleitung, Nutzungsvereinbarungen<br />
mit Schülerinnen und Schülern) (Schaumburg et al.,<br />
2007).<br />
Indem Technologie selbst als Akteur agiert und<br />
den Lehrenden und Lernenden gewisse Handlungsprogramme<br />
aufgrund ihrer Eigenschaften anbietet,<br />
übernimmt sie bei der Stabilisierung der Akteur-<br />
Netzwerke eine wichtige Funktion. Beispielsweise<br />
nimmt auch die Prozessor- und Akkuleistung eines<br />
Netbooks Einfluss darauf, wie gerne, wie intensiv,<br />
oder für welche Lern- und Unterrichtszwecke das<br />
Netbook verwendet wird. Die Verfügbarkeit eines<br />
Beamers und die Abdunkelungsmöglichkeit im Klassenraum<br />
bestimmen, ob und in welchem Ausmaß Arbeitsaufträge<br />
elektronisch bearbeitet und präsentiert<br />
werden können. Schließlich beeinflusst auch die<br />
Netzwerkgestaltung in- und außerhalb der Schule, in<br />
welchen Formen kollaborative oder webbasierte Arbeitsaufträge<br />
im Unterricht sinnvoll bearbeitet<br />
werden können. Technische Artefakte wie Netbook,<br />
Beamer oder Schulnetzwerke werden somit zu entscheidenden<br />
Akteuren im technologiebasierten Unterricht,<br />
die die didaktischen Einsatzszenarien der<br />
Lehrenden und Lernenden beeinflussen beziehungsweise<br />
mitbestimmen.<br />
Handlungsspielräume nutzen<br />
Die ANT geht davon aus, dass sich Lehrende und<br />
Lernende laufend in ihren Akteur-Netzwerken bewegen<br />
und die Handlungsprogramme anderer Akteure<br />
nutzen, um ihr Lehr- und Lerninteresse zu verfolgen.<br />
Auf den Unterricht mit Netbooks umgelegt bedeutet<br />
das, dass beispielsweise Lehrende, Lernende<br />
oder Mitschülerinnen und Mitschüler kontinuierlich<br />
Akteure in ihr Netzwerk einbringen (zum Beispiel<br />
neue Web-2.0-Anwendungen, Communitys) und die<br />
Handlungsprogramme im Unterricht dadurch neu gestalten.<br />
Es entstehen neue didaktische Szenarien im<br />
Unterricht (zum Beispiel Internetrecherchen, Bildungsexkursionen),<br />
neue schulische und außerschulische<br />
Lernorte (zum Beispiel Bibliothek, Pausenräume,<br />
schulexterne Orte) können für das Unterrichten<br />
und Lernen mit Netbooks nutzbar gemacht<br />
werden, und kollaboratives Lernen kann über das<br />
Klassenzimmer hinaus mittels Web 2.0 (zum Beispiel<br />
Wiks, Blogs, Microblogs) verwirklicht werden. Es
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
kommt zu Synergien und Phänomen, die zu neuen<br />
sozialen und mediendidaktischen Auseinandersetzungen<br />
im Unterricht führen und neue Chancen<br />
sowie Herausforderungen im Unterricht mit mobilen<br />
Lerntechnologien bedingen können.<br />
Der Unterricht mit Netbooks bedeutet somit kontinuierliche<br />
Netzwerkarbeit. Es ist wichtige Aufgabe<br />
der Lehrenden und Lernenden, Akteure und ihre potenziellen<br />
Möglichkeiten im Unterricht zu erkennen<br />
und diese in ihr Akteur-Netzwerk aufzunehmen, das<br />
heißt sie in den Unterricht zu integrieren. In der<br />
Komplexität von Akteur-Netzwerken besteht zugleich<br />
aber auch eine Unsicherheit in Form der Unkontrollierbarkeit<br />
von Entwicklungen und Innovationen<br />
im Unterricht, da nicht mehr der einzelne<br />
Akteur (zum Beispiel die/der Lehrende, die/der Lernende)<br />
entscheidet, wie der Unterricht gestaltet wird,<br />
sondern die Summe an Eigenschaften und Handlungen<br />
aller Akteure Einfluss nimmt (zum Beispiel<br />
der Netbooks, der Lehrenden, der Lernenden, der jeweiligen<br />
Raum- oder Technologieausstattung, der<br />
Service Provider, Internetverfügbarkeit).<br />
Wichtig ist es daher, zu verstehen, wie diese Handlungsprogramme<br />
tatsächlich genutzt werden. Es stellt<br />
sich unter anderem die Frage, welche Qualitäten im<br />
Sinne von Handlungsmöglichkeiten der Akteur<br />
Netbook (auf Grund seiner technischen Gegebenheiten<br />
wie der geringen Größe, des geringen Gewichts<br />
und der eingebauten UMTS-Karte für mobilen<br />
Internetzugang) für das inner- und außerschulische<br />
Lernen tatsächlich bietet. Für den Unterricht in<br />
der Schule ist auch von Bedeutung, in welcher Form<br />
Lernende Netbooks als dafür geeignet empfinden,<br />
ihre Lerninteressen in der unterrichtsfreien Zeit<br />
weiter zu verfolgen. Mit diesem Wissen können Unterrichtsszenarien<br />
und Lernprozesse entwickelt<br />
werden, die in der Schule begonnen und mit dem<br />
Gerät in der unterrichtsfreien Zeit zu Hause oder unterwegs<br />
sinnvoll fortgesetzt werden. Lernende<br />
könnten im Netbook ein neues Kommunikationsmittel<br />
entdecken, das es ihnen erlaubt, sich mit Mitschülerinnen<br />
und Mitschülern auszutauschen und<br />
etwa gemeinsam an Projekten zu arbeiten. Das mit<br />
mobilem Internet ausgestattete Netbook könnte auch<br />
im Alltag (während Wartezeiten, in öffentlichen Verkehrs-<br />
mitteln etc.) neue Zugänge zu Wissen schaffen<br />
und einen neuen Lifestyle beim Lernen ermöglichen<br />
Soziale Wirklichkeiten erforschen<br />
Indem wir den Akteuren und ihrer Netzwerkarbeit<br />
möglichst unvoreingenommen folgen und ihr Zusammenspiel<br />
beobachten, gelingt es uns, die Realitäten<br />
dieses Lernverhaltens abzubilden. Ziel dabei ist<br />
es, festzustellen, was im bestehenden Akteur-<br />
Netzwerk der Lernenden real und relevant beziehungsweise<br />
was unwirklich und zu vernachlässigen<br />
ist. Die ANT hilft uns bei der Erörterung dieser Fragestellung.<br />
!<br />
Die ANT stellt eine mögliche Herangehensweise an<br />
Forschungsfragen dar, die beabsichCgen, die sozialen<br />
Wirklichkeiten und Entwicklungen innerhalb eines<br />
Akteur-‐Netzwerkes zu analysieren und zu be-‐<br />
schreiben.<br />
Ein Beispiel für diese Herangehensweise bietet eine<br />
im Rahmen eines Netbook-Pilotprojekts an österreichischen<br />
Schulen der Sekundarstufe 2 durchgeführte<br />
Untersuchung durch die Autoren. Ziel dieser Untersuchung<br />
war es, die Realitäten beim Einsatz der Netbooks<br />
während des Unterrichts, aber auch in der unterrichtsfreien<br />
Zeit abzubilden. Um ein reales Bild<br />
der Akteur-Netzwerk-Beziehungen zu zeichnen,<br />
wurde eine webbasierte Microblogging-Seite eingerichtet,<br />
über die die Lernenden ihr tatsächliches Nutzungsverhalten<br />
mit den Netbooks mittels Kurznachrichten<br />
von max. 140 Zeichen laufend dokumentieren<br />
sollten. Wichtig war es, die Beobachtung der Akteure<br />
in ihrem persönlichen Umfeld – ihrem persönlichen<br />
Akteur-Netzwerk – zu gewährleisten und ein möglichst<br />
umfassendes Bild darüber zu erlangen, wann,<br />
wo und wofür das Netbook Anwendung findet.<br />
Basierend auf der durchgeführten Untersuchung<br />
konnte festgestellt werden, dass Schülerinnen und<br />
Schüler ihre Netbooks außerhalb des Unterrichts<br />
sehr unterschiedlich für Lernzwecke einsetzen und<br />
ihre Akteur-Netzwerke daher sehr differenziert<br />
nutzen beziehungsweise ändern. Beispielsweise<br />
konnte festgestellt werden, dass Schülerinnen und<br />
Schüler<br />
▸ durch die Mobilität, die ihnen das Netbook bietet,<br />
diese gerne an unterschiedlichsten Orten nutzen<br />
(im Schulgebäude, aber auch in der Wohnumgebung<br />
oder öffentlichen Verkehrsmitteln) und<br />
der Ort Einfluss auf die Art der Nutzung nimmt<br />
(zum Beispiel zeitlich begrenzte Tätigkeiten wie<br />
das kurze Abrufen von E-Mails im Bus; zeitlich<br />
offene Tätigkeiten wie das Durchführen einer Internetrecherche<br />
zuhause, etc.),<br />
▸ mit ihren Netbooks sehr unterschiedlich auf internetbasierte<br />
Informations- und Serviceangebote<br />
zugreifen beziehungsweise Internetrecherchen<br />
verschiedenartig durchführen (selten nutzen Schülerinnen<br />
und Schüler lokal installierte Software),
Die Akteur-‐Netzwerk-‐Theorie. Eine Techniktheorie für das Lernen und Lehren mit Technologien— 7<br />
▸ mit ihren Netbooks regelmäßig an sozialen Netzwerken<br />
wie Facebook, Twitter oder MySpace teilnehmen<br />
und dass<br />
▸ gerne mehrere Tätigkeiten auf dem Netbook parallel<br />
ausführen („Multi Tasking“).<br />
Die Untersuchung zeigte ebenfalls, dass sich Schülerinnen<br />
und Schüler mit ihren Netbooks laufend in<br />
sozialen Online-Netzwerken bewegen und dadurch<br />
ihre Akteur-Netzwerke gewissen Veränderungen aussetzen,<br />
die ihre Handlungsspielräume bei der Gestaltung<br />
der persönlichen Lehr-Lern-Aktivitäten sehr<br />
unterschiedlich beeinflussen können.<br />
Mit Hilfe dieser Microblogging-Untersuchung<br />
folgten wir der Zielsetzung, ein möglichst vorurteilsloses<br />
Bild des Verhaltens von Lernenden mit Netbooks<br />
zu zeichnen. Das Netbook verstanden wir<br />
dabei als Akteur, der in der Lage ist, auf das Handeln<br />
der lernenden Person (beispielsweise situations-, ortsoder<br />
kontextbezogen) sehr unterschiedlich Einfluss<br />
zu nehmen. Aufgrund der Möglichkeiten, die den<br />
Lernenden jeweils von ihrem Netbook geboten<br />
wurden, nutzten sie diese sehr unterschiedlich. Indem<br />
wir den Akteuren möglichst unvoreingenommen<br />
folgten, wurde es möglich, ein reales Bild der Akteur-<br />
Netzwerk-Beziehungen zu erkennen und im Sinne<br />
der Akteur-Netzwerk-Theorie zu untersuchen.<br />
?<br />
Literatur<br />
Betrachten Sie eine konkrete Technologie, die Sie in<br />
Ihrem Unterrichtsalltag verwenden. Überlegen Sie, in<br />
welcher Form diese Technologie die Lehr-‐/Lern-‐Arran-‐<br />
gements Ihres Unterrichts beeinflusst. Welche Mög-‐<br />
lichkeiten bieten sich an, die Technologie noch besser<br />
oder effizienter zu nutzen beziehungsweise den Ein-‐<br />
fluss dieser Technologie zu ändern?<br />
▸ Belliger, A. & Krieger, D. (2006). ANThology Ein einführendes<br />
Handbuch zur Akteur-Netzwerk-Theorie. Bielefeld:<br />
Transcript Verlag.<br />
▸ Castells, M. (1996). The Information Age: Economy, Society,<br />
and Culture, Volume 1: The Rise of the Network Society.<br />
Oxford: Blackwell.<br />
▸ Du Boulay, B. & Mizoguchi, R. (1997). Artificial Intelligence in<br />
Education.<br />
▸ Gehlen, A. (1986). Anthropologische und sozialpsychologische<br />
Untersuchungen. Reinbeck: Rowohlt.<br />
▸ Herzig, B.; Meister, D.; Moser, H. & Niesyto, H. (2010).<br />
Jahrbuch Medienpädagogik 8: Medienkompetenz und Web 2.0.<br />
Wiesbaden: VS Verlag für Sozialwissenschaften.<br />
▸ Innis, H.A. (1972). Empire and Communication. Toronto: University<br />
of Toronto Press.<br />
▸ Latour, B. (1998). Wir sind nie modern gewesen. Versuch einer<br />
symmetrischen Anthropologie. Frankfurt am Main: Fischer<br />
Verlag.<br />
▸ Kerres, M. (2006). Potenziale von Web 2.0 nutzen. In: A. Hohenstein<br />
& K. Wilbers (Hrsg.), Handbuch E-Learning, Köln:<br />
Deutscher Wirtschaftsdienst, 4.26, 1-16.<br />
▸ Kerres, M.; Kalz, M.; Stratmann, J. & De Witt, C . (2004). Didaktik<br />
der Notebook-Universität. Münster: Waxmann.<br />
▸ Latour, B. (2000). Die Hoffnung der Pandora. Frankfurt am<br />
Main: Suhrkamp.<br />
▸ Luhmann, N. & Schorr, K. E. (1986). Zwischen Intransparenz<br />
und Verstehen. Fragen an die Pädagogik. Frankfurt am Main:<br />
Suhrkamp.<br />
▸ Luhmann, N. & Schorr, K. E. (1990). Zwischen Anfang und<br />
Ende. Fragen an die Pädagogik. Frankfurt am Main: Suhrkamp.<br />
▸ Luhmann, N. & Schorr, K. E. (1992). Zwischen Absicht und<br />
Person. Fragen an die Pädagogik. Frankfurt am Main:<br />
Suhrkamp.<br />
▸ Luhmann. N. (2002). Das Erziehungssystem der Gesellschaft.<br />
Frankfurt am Main: Suhrkamp.<br />
▸ Pask, G. (1975). Conversation Cognition and Learning. Amsterdam:<br />
Elsevier.<br />
▸ Pask, G. (1976). Conversation Theory: Applications in Education<br />
and Epistemology. Amsterdam: Elsevier.<br />
▸ Schaumburg, H.; Prasse, D.; Tschackert, K. & Blömeke, S.<br />
(2007). Lernen in Notebook-Klassen. Endbericht zur Evaluation<br />
des Projekts „100mal1000: Notebooks im<br />
Schulranzen“. Bonn.<br />
▸ Schelsky, H. (1965). Auf der Suche nach der Wirklichkeit. Gesammelte<br />
Aufsätze. Düsseldorf: Diederichs.<br />
▸ White, L. (1962). Medieval Technology and Social Change.<br />
Oxford: University Press.
Klaus Reich und Klaus Miesenberger<br />
Barrierefreiheit<br />
Grundlage gerechter webbasierter Lernchancen<br />
E-‐Learning-‐Technologien verfügen über ein großes PotenCal um pädagogische Konzepte zu realisieren,<br />
welche individuelle Anforderungen und Interessen unterstützen. Leider behindert mangelndes Be-‐<br />
wusstsein und fehlendes Know-‐How auf Seiten von Lehrenden, Entwickler/innen und Administrator/innen<br />
die Möglichkeiten auszuschöpfen, um Barrieren in Lernmaterialien und Lernumgebungen abzubauen.<br />
Dieses Kapitel stellt grundlegende InformaConen und Hinweise zur Barrierefreiheit von webbasierten In-‐<br />
formaCons-‐ und KommunikaConstechnologien zusammen und gibt konkrete Hinweise für die Ver-‐<br />
wendung assisCver Technologien in Lehr-‐ und Lernkontexten.<br />
Quelle: Ell Brown,<br />
URL: hEp://www.flickr.com/photos/ell-‐r-‐brown/4365581799/ [2011-‐01-‐01]<br />
Jetzt Pate werden!<br />
#barrierfrei<br />
#spezial<br />
#theorieforschung<br />
Version vom 1. Februar 2011<br />
Für dieses Kapitel wird noch ein Pate gesucht,<br />
mehr InformaConen unter: hEp://l3t.eu/patenschaH
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Grundsätzliches Verständnis von Barrierefreiheit:<br />
„equality = e-‐quality“<br />
Informations- und Kommunikationstechnologien<br />
(IKT) zeichnen sich durch die Multimedialität der<br />
Darstellung und die Multimodalität der Bedienungsschnittstellen<br />
aus: Bei einem digitalen Dokument<br />
werden erst in dem Moment, in dem auf das Dokument<br />
zugegriffen wird, die medialen Qualitäten<br />
(Darstellung) und die Modalitäten der Steuerung<br />
(Handhabung) des Dokuments entschieden. Durch<br />
diese Trennung von Inhalt und Layout entsteht die<br />
Möglichkeit, auf ein und dasselbe Dokument auf unterschiedliche<br />
Art und Weise zuzugreifen, es in individueller<br />
Form zu medialisieren und die Handhabung<br />
an persönlichen Bedürfnissen auszurichten.<br />
Zu allen Bereichen, in denen IKT zum Einsatz<br />
kommt, können Menschen mit Behinderung mittels<br />
assistierender Technologien selbständig(er)en und<br />
selbstgesteuert(er)en Zugang finden. Das gilt aber<br />
nur unter der Voraussetzung, dass die IKT-basierten<br />
Systeme Grundsätze und Standards des barrierefreien<br />
Zugangs befolgen (Miesenberger, 2004).<br />
Assistierende Technologien bezeichnen Ausstattungen<br />
oder Software-Produkte, die verwendet<br />
werden, um die funktionalen Fähigkeiten von Menschen<br />
mit Behinderungen zu erhöhen, zu erhalten<br />
oder zu fördern. Darunter fallen Computertechnologien<br />
wie Screenreader, Spracheingaben, Vergrößerungssoftware<br />
oder Bildschirmtastatur. Sie helfen<br />
Menschen, selbständig und unabhängig ihre Ziele in<br />
der Gesellschaft zu erreichen. Es existieren beinahe<br />
für jede Art einer Behinderung Ansatzpunkte, um<br />
über assistierende Technologien die Nutzung von<br />
IKT und über diese die Teilnahme an lebensweltlichen<br />
Prozessen zu ermöglichen.<br />
In der Praxis : Benutzung einer Braillezeile<br />
Auch SehbeeinträchCge und Blinde können Beiträge aus dem<br />
Internet lesen. Dazu wird der Text in einem Online-‐Foren-‐<br />
beitrag miEels einer Braillezeile, also einem Computer-‐Aus-‐<br />
gabegerät für Blinde, in BrailleschriH umgewandelt. Die auf<br />
der Braillezeile erzeugten Erhöhungen in BlindenschriH<br />
können dann mit den Fingerspitzen abgegriffen werden. Der<br />
gleiche Text könnte durch ein „Screenreader-‐Programm“ al-‐<br />
ternaCv laut vorgelesen oder miEels VergrößerungssoHware<br />
größer dargestellt werden.<br />
Für den Zugang zu Informationen auf Websites<br />
und Lernumgebungen stehen sowohl für die Ein- als<br />
auch die Ausgabe zahlreiche Geräte zur Verfügung,<br />
die über Bildschirm, Tastatur, Maus und Drucker<br />
hinausgehen. Assistierende Technologien benutzen<br />
die Kodierung sowie den Inhalt einer Website und<br />
machen sie zugänglich.<br />
In der weitreichenden Um- und Neugestaltung<br />
nahezu aller Bereiche der Lebenswelt durch IKT<br />
liegen vielfältige Anknüpfungspunkte für die Teilhabe<br />
behinderter Menschen an der Lebenswelt mittels assistierende<br />
Technologien. Die Realisierung von Chancengleichheit<br />
(engl. „equality“) in der Gesellschaft für<br />
Menschen mit Behinderungen ist in immer größerem<br />
Maße von der Qualität der IKT, also von „E-Quality“<br />
abhängig – daraus erwächst für die Gestaltung besonders<br />
im Bildungsbereich eine besondere Verantwortung<br />
(Miesenberger, 2008).<br />
?<br />
Verschaffen Sie sich auf hEp://www.barrierekom-‐<br />
pass.de/tools einen Überblick über die breite PaleEe<br />
von assisCerenden Technologien.<br />
Bereits in der Gestaltung von webbasierten Lernumgebungen<br />
und -materialien müssen die Anpassung<br />
an und die Optimierung für die Nutzbarkeit für die<br />
Einzelnen in ihrer jeweiligen Situation und mit seinen<br />
jeweiligen Voraussetzungen beziehungsweise. Schnittstellengeräten<br />
beachtet werden. Anstatt der Gestaltung<br />
einer starren, an „durchschnittlichen“<br />
Nutzer/innen orientierten Benutzerschnittstelle („Interface“)<br />
treten Individualisierbarkeit und Adaptivität<br />
in den Vordergrund, welche letztendlich die Akzeptanz<br />
und die Nutzbarkeit der Systeme für alle unterstützen.<br />
Abbildung 1: Benutzung einer Braillezeile<br />
Quelle: Andreas Markt-‐Huter, via hEp://bilder.Cbs.at<br />
(Abdruckerlaubnis eingeholt)
Jede/r, der/die über eine Sinneswahrnehmung (zum<br />
Beispiel visuell, auditiv, taktil) verfügt, kann mit dieser<br />
die Informationsausgabe eines Computers wahrnehmen,<br />
beziehungsweise die Informationseingabe<br />
steuern - unabhängig von seiner/ihrer Behinderung<br />
(Miesenberger, 2005).<br />
!<br />
Barrierefreiheit bedeutet letztlich, dass Menschen<br />
unabhängig von Behinderung, Alter und technischer<br />
Infrastruktur auf Inhalte zugreifen können.<br />
Da dies aufgrund der unzähligen, auch individuell<br />
geprägten Barrieren nicht vollständig erreicht werden<br />
kann, spricht man auch von barrierearm oder zugänglich<br />
(engl. „accessible“).<br />
2. Zahl der Menschen mit Behinderung<br />
Im Behindertenbericht 2008 werden behinderte Menschen<br />
als sehr heterogene Gruppe charakterisiert,<br />
die sich hinsichtlich zahlreicher Dimensionen differenziert<br />
(Bundesministerium für Arbeit, Soziales und<br />
Konsumentenschutz, 2009). Laut einer im Auftrag<br />
des Sozialministeriums von der Statistik Austria<br />
durchgeführten Mikrozensus-Erhebung (Oktober<br />
2007 bis Februar 2008) gaben 20,5 Prozent aller Befragten<br />
an, eine dauerhafte Beeinträchtigung zu<br />
haben; das sind hochgerechnet 1,7 Millionen Personen<br />
der österreichischen Wohnbevölkerung. Darin<br />
sind sowohl Menschen mit psychischen Problemen<br />
oder vollständig immobile Menschen als auch Menschen<br />
mit leichten Sehbeeinträchtigungen enthalten.<br />
Die im Behindertenbericht 2008 zitierten Ergebnisse<br />
der von der EU vorgeschriebenen jährlichen „Erhebung<br />
zu den Einkommen und Lebensbedingungen“<br />
(EU-Statistics on Income and Living Conditions<br />
- EU-SILC) fokussieren auf subjektiv wahrgenommene<br />
starke Beeinträchtigung bei der Verrichtung<br />
alltäglicher Arbeiten, die mindestens schon<br />
sechs Monate andauert. Hochgerechnet wären das<br />
auf dieser Basis circa 630.000 Personen Menschen<br />
mit Behinderungen. Die Anzahl der Personen die<br />
eine Behinderung im Sinne des Gesetzes in Österreich<br />
haben, liegt bei circa 330 000. EU-Schätzungen<br />
gehen von einem 10-Prozent-Anteil der Menschen<br />
mit Behinderungen an der Bevölkerung im EU-Raum<br />
aus. Sie stellen also auch 10 Prozent der<br />
Wähler/innen, der Konsument/innen, der Arbeitskräfte<br />
und auch der potenziellen Bildungsteilnehmer/innen<br />
dar (Grill, 2005).<br />
Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 3<br />
3. Arten der Behinderung und spezielle Bedürfnisse hin-‐<br />
sichtlich Barrierefreiheit<br />
Jeder Mensch kann in der Nutzung von webbasierten<br />
Lehr- und Lerntechnologien auf eine oder mehrere<br />
Barrieren stoßen. Wird bei Inhaltserstellung und Administration<br />
auf die speziellen Bedürfnisse behinderter<br />
Benutzer/innen geachtet, lassen sich diese Barrieren<br />
beseitigen oder zumindest minimieren. Dazu<br />
sind Kenntnisse unterschiedlicher Formen von Behinderungen<br />
und deren Effekte auf die Nutzung von<br />
IKT und insbesondere des World Wide Web nötig.<br />
Im Folgenden lernen Sie die vier Hauptkategorien<br />
von Behinderungen kennen: Sehbehinderungen,<br />
Hörbehinderungen, Mobilitätsbehinderungen sowie<br />
Wahrnehmungs- und Lernbehinderungen.<br />
Sehbehinderung<br />
Menschen mit Sehbehinderungen verfügen entweder<br />
über eine eingeschränkte Sehleistung, Farbenblindheit<br />
oder Blindheit. Die Anforderungen an die Gestaltung<br />
von webbasierten Lernumgebungen können abhängig<br />
von der Form der Sehbehinderung sehr unterschiedlich<br />
sein.<br />
Sehbehinderte Menschen arbeiten mit einem in<br />
Größe, Farbe (Kontrast), Schriftart (serifenlose<br />
Schriften), Linienart (durchgezogenen, strichliiert,<br />
punktiert, strichpunktiert), Schraffierung, Abstand<br />
und Anordnung angepassten Bildschirminhalt. Bei<br />
leichten Sehbehinderungen entsteht kein großer<br />
Bedarf einer Spezialisierung. Anpassungen der Einstellungen<br />
für die Darstellung im Betriebssystem<br />
führen zu der gewünschten Verbesserung der Nutzbarkeit.<br />
Erst bei schwerer Beeinträchtigung der Sehleistung,<br />
die eine Vergrößerung um das mehr als 3bis<br />
5fache erfordert, werden die Navigation und die<br />
Orientierung am Bildschirm stark eingeschränkt.<br />
Zusätzlich wird bei stärkeren Sehbehinderungen<br />
das Verwenden der Maus schwierig (zum<br />
Beispiel Hand- und Augenkoordination, Verfolgen<br />
des Mauscursors). Daher ist ein direktes Erreichen<br />
der Interface Elemente mittels Short-Cuts (bestimmte<br />
Tastaturbefehle um schneller zu navigieren<br />
beziehungsweise Befehle auszuführen) effizienter.<br />
Dementsprechend müssen sowohl Unterlagen zum<br />
Arbeiten am Computer, als auch Informationssysteme<br />
adaptiert und diese sonst oft ausgelassenen<br />
Steuerungsmechanismen berücksichtigt werden.<br />
F ü r Farbblinde und sehschwache Menschen<br />
ist die Verwendung von stark kontrastierenden<br />
Farben hilfreich und wichtig. Informationen sollten<br />
nicht durch eine Eigenschaft alleine (zum Beispiel<br />
Kontrast, Farbtiefe, Größe, Lage oder Schriftart) dargestellt<br />
werden.
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Blinde Computernutzer/innen können die Maus<br />
nicht verwenden. Sie verwenden die Pfeiltasten oder<br />
spezielle Maus-Emulationen (Funktionen einer Maus<br />
werden mittels anderer Möglichkeiten nachgestellt)<br />
auf dem Braille-Display, um den Cursor oder Systemfokus<br />
zu navigieren. Für blinde Menschen sind daher<br />
Short-Cuts und Tastaturbefehle sehr wichtig.<br />
Informationen, die nur visuell wahrnehmbar sind<br />
(zum Beispiel Bilder, Videos, Flash-Animationen),<br />
benötigen Alternativtexte, damit die Inhalte erst dadurch<br />
von Screenreaders ausgelesen und für die<br />
blinden Nutzer/innen aufbereitet werden können.<br />
Als Alternative zur Ausgabe auf dem Bildschirm<br />
verwenden blinde Menschen:<br />
▸ Braille: Braille ist eine Notation, mittels derer Zeichensätze<br />
als Punktmuster dargestellt und über<br />
den Tastsinn ertastet werden können. Braille-Displays<br />
sind Geräte, die den Text und textliche Beschreibungen<br />
der Inhalte des Bildschirms in Blindenschrift<br />
darstellen. Zusätzlich kann Braille mit<br />
speziellen Druckern auch auf Papier gestanzt<br />
werden.<br />
▸ Sprachausgabe: Die Texte bzw. textlichen Beschreibungen<br />
des Bildschirminhaltes werden über<br />
Lautsprecher ausgegeben. Die auditiven Inhalte<br />
können dabei aufgenommen sein oder mittels<br />
Sprach-Syntheziser erzeugt werden.<br />
Hörbehinderung<br />
Menschen mit Hörbehinderung und gehörlose Menschen<br />
können weitestgehend ungehindert am Computer<br />
arbeiten, da sie Informationen visuell vom Bildschirm<br />
ablesen und gegebenenfalls Lautstärke und<br />
Töne an ihre Bedürfnisse anpassen können. Das Verstehen<br />
und Verarbeiten von komplexen sprachlichen<br />
Zusammenhängen stellt ein größeres<br />
Problem dar und sollte durch ikonische Darstellung,<br />
das heißt mit Bildern, Videos oder Animationen und<br />
guter Lesbarkeit und Strukturierung von Texten, unterstützt<br />
werden. Gebärdensprache ist eine eigenständige<br />
Sprache, die von gehörlosen Menschen verwendet<br />
wird. Übersetzungen in Gebärdensprache<br />
sind teilweise notwendig, aber ressourcenintensiv,<br />
zum Beispiel die Übersetzung und die Aufbereitung<br />
von Lernunterlagen als Gebärdensprachvideos.<br />
?<br />
Für gehörlose Menschen ist es nicht immer einfach,<br />
Texte zu verstehen, die sich an die Sprachkonven-‐<br />
Conen der Hörenden anlehnen. Versuchen Sie umge-‐<br />
kehrt, einige Begriffe der deutschen Gebärdensprache<br />
zu erlernen und einen einfachen Satz zu bilden.<br />
Mobilitätsbehinderungen<br />
Bei Menschen mit Mobilitätsbehinderungen können<br />
Bewegung und Feinmotorik beeinträchtigt sein. Spezielle,<br />
leicht handzuhabende Eingabegeräte (zum Beispiel<br />
Tastaturen, Schalter, Bedienelemente) ermöglichen<br />
die Bedienung eines Computers. Für eine barrierefreie<br />
Gestaltung ist darauf zu achten, dass die<br />
Steuerung über Spracheingabe erfolgen kann, die Geschwindigkeit<br />
(zum Beispiel bei erforderlichen Tastatureingaben)<br />
individuell einstellbar ist und Tastenkombinationen<br />
auch hintereinander eingegeben<br />
werden können.<br />
Wahrnehmungs-‐ und Lernbehinderungen<br />
Menschen mit Wahrnehmungs- und Lernbehinderungen<br />
(zum Beispiel Dyslexie, Störungen des Kurzzeitgedächtnisses)<br />
können durch eine einheitliche<br />
Strukturierung der (Lern-)Inhalte und der Navigation,<br />
gleichem Layout und Design sowie vor allem<br />
eine den Nutzern und den Nutzerinnen angepasste<br />
Textwahl – „leichte Sprache“ - unterstützt werden.<br />
Einfachere Sprache wird für Menschen mit geringen<br />
sprachlichen Fähigkeiten verwendet, ist jedoch auch<br />
eine Forderung für die verständliche Darstellung wissenschaftlicher<br />
Inhalte (Freyhoff et al., 1998). Das<br />
Angebot von gleichen, aber unterschiedlich aufbereiteten<br />
Informationen, zum Beispiel als Text und als<br />
Sprachaufzeichnung, kann für Menschen mit Wahrnehmungs-<br />
und Lernbehinderungen hilfreich sein,<br />
um das Material besser zu verstehen.<br />
?<br />
Für ein verCeHes Verständnis der Internetnutzung<br />
durch Menschen mit Behinderung lesen Sie biEe<br />
„How People with DisabiliCes Use the Web“:<br />
hEp://www.w3.org/WAI/intro/people-‐use-‐web<br />
[2011-‐01-‐21]<br />
4. Gesetzliche Rahmenbedingungen und Richtlinien<br />
oder Standards zur Umsetzung<br />
Von wesentlicher Bedeutung für die Regelungen zur<br />
Barrierefreiheit in den europäischen Mitgliedsstaaten<br />
ist das Gemeinschaftsrecht der Europäischen Union.<br />
Besondere Bedeutung kommt dabei den Antidiskrim<br />
i n i e r u n g s r i ch t l i n i e n 2 0 0 0 / 4 3 / E G u n d<br />
2000/78/EG zu. Diese wirken prägend auf die nationale<br />
Gesetzgebung ein. In den DACH-Staaten<br />
(also Deutschland, Österreich, Schweiz) wird die<br />
gleichberechtigte Teilhabe von Menschen mit Behinderung<br />
in der Gesellschaft, darunter fällt auch die<br />
Anteilnahme an Bildungsangeboten, durch verschiedene<br />
Gesetzgebungen geregelt: In Deutschland<br />
durch das Behindertengleichstellungsgesetz (zum Bei-
spiel § 11 BGG) und in der Schweiz durch das Bundesgesetz<br />
über die Beseitigung von Benachteiligungen<br />
von Menschen mit Behinderungen (BehiG).<br />
In Österreich fällt „barrierefreies E-Learning“ unter<br />
zwei Gesetzestexte: das Bundes-Behindertengleichstellungsgesetz<br />
(BGStG) sowie das E-Government-<br />
Gesetz (E-GovG). Das BGStG definiert in § 6 Abs. 5<br />
BGStG unter anderem, wann von Diskriminierung<br />
gesprochen wird, und welche Bereiche in Österreich<br />
auch vom Gesetz wegen barrierefrei zugänglich sein<br />
müssen. In §5 BGStG wird noch speziell auf die<br />
kommunikationstechnischen Barrieren eingegangen.<br />
Für Gröblinger (2007) hat die gesetzliche Verankerung<br />
eines Diskriminierungsverbots, das explizit<br />
sich an die Öffentlichkeit richtende Angebote behandelt,<br />
die Konsequenz, dass insbesondere Vorlesungen<br />
(gegebenenfalls mit E-Learning-Anteilen) an<br />
Hochschulen berücksichtigt werden müssen, da diese<br />
ebenfalls für die Öffentlichkeit zugänglich sind. Im<br />
Jahr 2002 unternahm Deutschland einen weitaus<br />
massiveren Schritt in der Gesetzgebung als Österreich,<br />
indem die Barrierefreie Informationstechnik-<br />
Verordnung (kurz BITV) als Ergänzung des bestehenden<br />
Behindertengleichstellungsgesetzes herausgegeben<br />
wurde. In Österreich gibt es Empfehlungen<br />
für die Anwendung der WCAG (2.0) auf Stufe AA<br />
(das heißt alle für die Konformitätsstufe AA notwendigen<br />
Erfolgskriterien müssen erfüllt sein). Tesar et<br />
al. (2009) übertragen die Anforderungen auf webbasierte<br />
Lernumgebungen im Bildungsbereich und<br />
fordern auf der Basis der gesetzlichen Regelungen<br />
die barrierefreie Gestaltung von interaktiven und<br />
webbasierten Lernangeboten.<br />
Abbildung 2: Zugangsrichtlinien und technische Spezifikationen (mit Änderungen von<br />
http://www.w3.org/WAI/intro/components.php)<br />
Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 5<br />
5. Grundlegende Anforderungen – Zugangsrichtlinien<br />
Die Barrierefreiheit von Lehr- und Lerntechnologien<br />
wird von vier Aspekten wesentlich beeinflusst (Abbildung<br />
2):<br />
▸ Die Inhalte, einerseits zum Beispiel in Form von<br />
Webseiten, Textdokumenten, PDF-Dateien, Audio<br />
und Videodateien, andererseits in Form der richtig<br />
verwendeten Auszeichnungssprachen und validen<br />
Codes, zum Beispiel für Struktur und Darstellung,<br />
müssen zugänglich sein.<br />
▸ Die verwendeten Technologien müssen zugänglich<br />
sein, zum Beispiel barrierefreie Webbrowser,<br />
synchrone Kommunikationswerkzeuge<br />
und anderen Benutzeragenten.<br />
▸ Gerade im Bereich E-Learning spielen Autorenwerkzeuge<br />
zur Erstellung von Lernmaterialien<br />
(zum Beispiel auch die Administrationsoberflächen<br />
von Lernmanagementsystemen) eine<br />
wichtige Rolle bei der Barrierefreiheit. Auch sie<br />
müssen für die Benutzer/innen zugänglich sein<br />
bzw. die Erstellung von barrierefreien Inhalten unterstützen.<br />
▸ Die korrekte Verwendung der vom World Wide<br />
Web Consortium (W3C) entwickelten technischen<br />
Spezifikationen wie zum Beispiel HTML,<br />
XHTML, XML, SMIL, SVG, CSS und RDF. Die<br />
Vermeidung proprietärer Technologien wird in der<br />
Tendenz die Zugänglichkeit von Seiten verbessern.
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
!<br />
Für eine verCefende Übersicht über die einzelnen<br />
Komponenten und wie diese in der Webentwicklung<br />
und -‐interakCon zusammen arbeiten, lesen Sie:<br />
▸ EssenCal Components of Web Accessibility (Eng-‐<br />
lisch):<br />
URL: hEp://www.w3.org/WAI/intro/components<br />
[2011-‐01-‐21]<br />
▸ User Agent Accessibility Guidelines (UAAG)<br />
Overview (Englisch):<br />
URL: hEp://www.w3.org/WAI/intro/uaag.php<br />
[2011-‐01-‐21]<br />
▸ Authoring Tool Accessibility Guidelines (ATAG)<br />
Overview (Englisch):<br />
URL: hEp://www.w3.org/WAI/intro/atag.php<br />
[2011-‐01-‐21]<br />
Die grundlegenden Anforderungen an Barrierefreiheit<br />
von webbasierten Dokumenten werden in der<br />
Web Content Accessibility Guidelines (WCAG) 2.0<br />
festgelegt. Die WCAG werden von der Web Accessibility<br />
Initative (WAI) des World Wide Web Consortiums<br />
(W3C) herausgegeben und stellen eine der<br />
wichtigsten Richtlinien zur barrierefreien Gestaltung<br />
von webbasierten Umgebungen dar. Sie definieren,<br />
wie Webinhalte für alle Menschen – nicht nur für<br />
Menschen mit Behinderungen (einschließlich visueller,<br />
auditiver, motorischer, sprachlicher, kognitiver,<br />
Sprach-, Lern- und neurologischer Behinderungen)<br />
und ältere Menschen – barrierefreier gestalten<br />
werden können. Die Zugangsrichtlinien der WCAG<br />
2.0 orientieren sich an vier grundlegenden Prinzipien,<br />
die im Verständnis der WAI die Grundlage<br />
der der Barrierefreiheit im Web darstellen: Wahrnehmbarkeit,<br />
Bedienbarkeit, Verständlichkeit und Robustheit.<br />
Mit der Formulierung der WCAG 2.0 unter<br />
diesen Gesichtspunkten wird angestrebt, die Prinzipien<br />
der Barrierefreiheit unabhängig von heutigen<br />
und zukünftigen Techniken zu formulieren (W3C,<br />
2008). Eine Übersetzung finden Sie auf der nächsten<br />
Seite in der Textbox „In der Praxis“.<br />
Wird eine oder mehrere der vier Prinzipien verletzt,<br />
wird die Zugänglichkeit der Inhalte für Menschen<br />
mit Behinderung ganz oder teilweise unmöglich<br />
gemacht. Unter jedem der Prinzipien werden<br />
Richtlinien und Erfolgsfaktoren für die Anwendung<br />
definiert. Es gibt eine große Zahl von allgemeinen<br />
Usability-Richtlinien (siehe auch Kapitel #usability),<br />
in den WCAG 2.0 werden nur jene angeführt, die<br />
sich speziell auf Problembereiche für Menschen mit<br />
Behinderung beziehen (W3C, 2008).<br />
6. Zentrale Problema/ken hinsichtlich webgestützten<br />
Lehren und Lernens<br />
Konzep/on<br />
Im konkreten Design von webbasiertem Lernen sind<br />
nach Arrigo (2005) technologische und methodologische<br />
Aspekte zur Sicherstellung der vollständigen<br />
Zugänglichkeit von Online-Lernumgebungen und<br />
-materialien zu berücksichtigen.<br />
I n methodischer Hinsicht steht an erster Stelle<br />
die Identifizierung der Ansprüche an Barrierefreiheit<br />
der Nutzergruppe und in einem zweiten Schritt die<br />
Identifizierung der Eigenschaften der Lernobjekte<br />
hinsichtlich Barrierefreiheit. Letztere sollten in standardisierten<br />
Beschreibungen formalisiert werden, um<br />
ein Matching der Lerninhalte mit den bevorzugten<br />
Einstellungen der Lernenden zu ermöglichen.<br />
Jeschke et al. (2008) empfehlen mittels semantischer<br />
Enkodierung die Auszeichnung nicht nur von Inhalten,<br />
sondern auch aller inhaltsverbundenen<br />
Aspekte, wie etwa der Navigation. Ziel ist es, präsentationsorientierte<br />
Informationen für die von den Benutzer/innen<br />
verwendeten Technologien zur Verfügung<br />
zu stellen, um die Inhalte passend darzustellen.<br />
Zur Umsetzung wird von ihnen die modellgetriebene<br />
Entwicklung von barrierefreien Lernangeboten,<br />
zum Beispiel auf der Basis der Unifying Modeling<br />
Language 2 (UML 2), vorgeschlagen.<br />
In technischer Hinsicht identifizieren Karampiperis<br />
und Sampson (2005) zwei grundsätzliche<br />
Aspekte, die es bei der Umsetzung von webbasiertem<br />
Lernen zu berücksichtigen gilt: Einerseits die Entwicklung<br />
von zugänglichen Lerninhalten und andererseits<br />
die Entwicklung von zugänglichen Schnittstellen<br />
und Interfaces, um die Inhalte aufrufen zu<br />
können. Letzteres beinhaltet auch das Design des<br />
Lernmanagementsystems und seine Zugänglichkeit.<br />
Technologisch gesehen sind Webseiten die am häufigsten<br />
genutzte Möglichkeit, Informationen und<br />
webbasierte Lernmaterialien im Internet zur Verfügung<br />
zu stellen. Trotz WAI-Richtlinien, Design-for-<br />
All, Universal-Design-Prinzipien, ISO-Standards und<br />
Verordnungen beziehungsweise Richtlinien sind viele<br />
Webseiten aber noch immer unzugänglich für Menschen<br />
mit Behinderung (Arrigo, 2005).<br />
!<br />
Das Projekt VIP-‐Learn hat Leitlinien zur Begutachtung<br />
von Lernmanagement SoHware erstellt, die für eine<br />
erste Begutachtung von Lernplaqormen herange-‐<br />
zogen werden können:<br />
URL: hEp://www.e-‐learn-‐<br />
vip.org/files/products/c4ea_gl_lms_de.zip [2011-‐01-‐<br />
21]
Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 7<br />
In der Praxis : Prinzipien und Leitlinien der Web Content Accessibility Guidelines 2.0<br />
Vorbemerkung: Übersetzung der folgenden Prinzipien und<br />
Leitlinien der Web Content Accessibility Guidelines 2.0 von:<br />
URL: hEp://www.barrierefreies-‐webdesign.de/wcag2/in-‐<br />
dex.html [2011-‐01-‐21]<br />
Prinzip 1: Wahrnehmbarkeit<br />
Mit dem Prinzip Wahrnehmbarkeit soll sichergestellt werden,<br />
dass alle FunkConen und InformaConen so präsenCert<br />
werden, dass sie von jeder Nutzerin und jedem Nutzer wahr-‐<br />
genommen werden können.<br />
Konkret bedeutet das: Stellen Sie TextalternaCven für alle<br />
Nicht-‐Text-‐Inhalte zur Verfügung, so dass diese in andere<br />
vom Benutzer benöCgte Formen geändert werden können,<br />
wie zum Beispiel GroßschriH, Braille, Symbole oder einfa-‐<br />
chere Sprache. Stellen Sie AlternaCven für zeitbasierte<br />
Medien zur Verfügung. Erstellen Sie Inhalte, die auf ver-‐<br />
schiedene Arten dargestellt werden können (zum Beispiel<br />
anderes Layout), ohne dass InformaConen oder Struktur ver-‐<br />
loren gehen.<br />
PrakCsche Anwendungsbeispiele: Keine rein graphischen Na-‐<br />
vigaConselemente verwenden, schriHliche AlternaCve zu<br />
allen akusCschen Geräuschen anbieten, skalierbare SchriH-‐<br />
größen, Möglichkeit der individuellen Farbeinstellungen, aus-‐<br />
reichender Kontrast, zum Beispiel von Text und<br />
Hintergrundfarbe keine InformaCon alleine durch Farb-‐<br />
wechsel transporCeren.<br />
Prinzip 2: Bedienbarkeit<br />
Zur Sicherstellung der Bedienbarkeit müssen die InterakC-‐<br />
onselemente der Anwendung von jeder Nutzerin und jedem<br />
Nutzer bedienbar sein.<br />
Richtlinien: Sorgen Sie dafür, dass alle FunkConalitäten per<br />
Tastatur zugänglich sind. Geben Sie den Benutzern ausrei-‐<br />
chend Zeit, Inhalte zu lesen und zu benutzen. Gestalten Sie<br />
Inhalte nicht auf Arten, von denen bekannt ist, dass sie zu<br />
Anfällen führen. Stellen Sie MiEel zur Verfügung, um Be-‐<br />
nutzer dabei zu unterstützen zu navigieren, Inhalte zu finden<br />
und zu besCmmen, wo sie sich befinden.<br />
PrakCsche Anwendungsbeispiele: Für die Verwendung sollen<br />
keine speziellen Eingabegeräte benöCgt werden. Alle Funk-‐<br />
Conen sind über die Tastatur (ohne Maus) steuerbar. Es gibt<br />
keine Zeitbeschränkungen. Die NavigaConsbereiche sind aus-‐<br />
reichend groß bzw. weit genug auseinander posiConiert. Zur<br />
Bedienung sollten keine bewegten Elemente (zum Beispiel<br />
Flash-‐AnimaConen) verwendet werden.<br />
Prinzip 3: Verständlichkeit<br />
Das Prinzip Verständlichkeit besagt, dass in einer Website die<br />
Inhalte so einfach wie möglich angeboten werden sollen. Zu-‐<br />
sätzlich sollen diese in einer intuiCv erfassbaren Struktur, in<br />
der die OrienCerung leicht fällt, eingebunden werden.<br />
Richtlinien: Machen Sie Inhalte lesbar und verständlich.<br />
Sorgen Sie dafür, dass Webseiten vorhersehbar aussehen<br />
und funkConieren. Helfen Sie den Benutzern dabei, Fehler zu<br />
vermeiden und zu korrigieren.<br />
PrakCsche Anwendungsbeispiele: Komplexität der Inhalte an<br />
den Nutzer/innen ausrichten – möglichst „einfache“ Sprache<br />
verwenden. Visuelles Rauschen, zum Beispiel durch Farben,<br />
Ausrufezeichen, besCmmten SchriHtypen, vermeiden. Auf<br />
die wesentlichen FunkConen beschränken sowie auf umfang-‐<br />
reiche Verwendung von HintergrundinformaConen und Zu-‐<br />
satzfunkConen verzichten. Auf Fachausdrücke, Jargon,<br />
Anglizismen verzichten. Auf übersichtlichen Satzbau achten.<br />
IntuiCve, logische Strukturierung der Inhalte oder der<br />
(Lern-‐)Umgebung vorsehen. SuchfunkCon und Verlinkungen<br />
sinnvoll einsetzen. Symbole und Grafiken unterstützend ein-‐<br />
setzen. Gegebenenfalls Gebärdensprachvideos anbieten.<br />
Prinzip 4: Robustheit<br />
Inhalte müssen robust genug sein, damit sie zuverlässig von<br />
einer großen Auswahl an Benutzeragenten einschließlich as-‐<br />
sisCerender Techniken interpreCert werden können.<br />
Richtlinie: Maximieren Sie die KompaCbilität mit aktuellen<br />
und zukünHigen Benutzeragenten, einschließlich assisCe-‐<br />
render Techniken.<br />
PrakCsche Anwendungsbeispiele: Interoperabilität und Kom-‐<br />
paCbilität zu gängigen Produkten (zum Beispiel Vorlese-‐ oder<br />
VergrößerungssoHware berücksichCgen. In der Planungs-‐<br />
phase, zum Beispiel von Lernszenarien, Online-‐Seminaren<br />
auf möglichen Zugang für assisCve Technologien achten. Auf<br />
Weiterentwicklungen von Technologien achten, zum Beispiel<br />
hat sich die Zugänglichkeit von einigen Lernmanagementsys-‐<br />
temen in den letzten Jahren stark verbessert .
8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
LernplaHormen und Lernumgebungen<br />
Entwickler/innen von Lernplattformen und Lernumgebungen<br />
haben in vielen Fällen in den letzten Jahren<br />
große Anstrengungen hinsichtlich der Barrierefreiheit<br />
der von ihnen betreuten Produkte unternommen.<br />
Spezialfälle bei bes/mmten Dateiformaten/Mul/media<br />
Um die Vorteile von multimedialen Lernelementen<br />
auch für Menschen mit Behinderung zugänglich<br />
zu machen, sind Zugänglichkeitsüberlegungen<br />
schon beim Design und der Implementierung<br />
von multimedialen Inhalten zu berücksichtigen.<br />
CANnect, ein kanadisches Konsortium von Schulen<br />
und Philanthropen, identifiziert vier Aspekte, welche<br />
die Zugänglichkeit von multimedialen Inhalten negativ<br />
beeinflussen: unzugängliche Formate, fehlende<br />
Transkription von Audioinhalten, fehlende synchronisierte<br />
Untertitelung für Videodateien und fehlende<br />
Audiobeschreibung von Videodateien (CANnect,<br />
2010). Darüber hinaus muss die Steuerung der<br />
Audio- und Videowiedergabe mittels Tastatur<br />
möglich und der Zugriff sowie die Verständlichkeit<br />
für Personen, die einen Screenreader verwenden, gegeben<br />
sein. Als Alternative zu kommerziellen Formaten<br />
bietet sich die Synchronized Multimedia Integration<br />
Language (SMIL) an. SMIL ist ein auf XML<br />
basierender, vom W3C entwickelter Standard für eine<br />
Auszeichnungssprache für zeitsynchronisierte, multimediale<br />
Inhalte und ermöglicht die Einbindung und<br />
Steuerung von Multimedia-Elementen wie Audio,<br />
Video, Text und Grafik in Webseiten.<br />
CANnect nimmt einen klaren Standpunkt zu den<br />
folgenden Technologien ein: Flash, Silverlight und<br />
JavaFX sind Plattformen für die Entwicklung von<br />
Rich Internet Applications (RIAs) und beim derzeitigen<br />
Stand keine geeigneten Instrumente, um Textinhalte<br />
webbasiert anzubieten. Keine dieser Plattformen<br />
verfügt über die Möglichkeiten von HTML,<br />
Inhalte zu strukturieren und barrierefrei darzustellen<br />
(URL: http://projectone.cannect.org/advice/nonhtml-dynamic.php<br />
[2011-01-21]).<br />
Die Konzeption des Portable Document<br />
Format (PDF), das Erscheinungsbild eines Dokuments<br />
auf allen Plattformen gleich aussehen zu<br />
lassen, widerspricht einem wichtigen Element von<br />
Barrierefreiheit: Die Darstellung von Inhalten sollte<br />
von Nutzer/innen an ihre individuellen Bedürfnisse<br />
angepasst werden können. Es empfiehlt sich vor der<br />
Erstellung eines PDF-Dokuments zu überlegen, ob<br />
nicht ein anderes Format, beziehungsweise bei Verwendung<br />
im Internet XML, die bessere Alternative<br />
ist. Falls das PDF-Format verwendet werden muss,<br />
sollte „tagged PDF“ verwendet werden (erst dadurch<br />
wird das Dokument besser zugänglich), beziehungsweise<br />
eine Nachbesserung mit dem Softwareprogramm<br />
Adobe Acrobat vorgenommen werden. Gute<br />
Ergebnisse hinsichtlich der Zugänglichkeit von PDF-<br />
Dokumenten lassen sich beispielsweise bei der Gestaltung<br />
des Dokuments in OpenOffice mit korrekter<br />
Strukturauszeichnung und dem PDF-Export erzielen.<br />
Die Verwendung von Lesezeichen fördert darüber<br />
hinaus die Navigation mit der Tastatur.<br />
!<br />
PraxisCpp: Mit dem PDF Accessibility Checker (PAC)<br />
können Sie PDF-‐Dateien rasch bezüglich Barriere-‐<br />
freiheit testen:<br />
URL: hEp://www.access-‐for-‐all.ch/ch/pdf-‐<br />
werkstaE/pac-‐pdf-‐accessibility-‐checker.html [2011-‐01-‐<br />
21]<br />
7. Werkzeuge und Methoden zur Überprüfung und Op-‐<br />
/mierung<br />
Barrieren im Bereich Informationstechnik lassen sich<br />
durch vielfältige Maßnahmen aufspüren und beseitigen.<br />
Bitte beachten Sie, dass die barrierefreie Umsetzung<br />
von webbasiertem Lehren und Lernen Spezialwissen<br />
benötigt, was eventuell die Einbeziehung<br />
von Expertinnen und Experten, zum Beispiel in der<br />
Anpassung von Learning Management Systemen, benötigt.<br />
Ausprobieren<br />
Eine grundlegende Methode die Zugänglichkeit zu<br />
testen, ist das Ausprobieren der Website mit verschiedenen<br />
Browsern, Betriebssystemen, Aus- und Eingabegeräten<br />
sowie Übertragungsraten unter Einbeziehung<br />
möglichst unterschiedlicher Nutzer/innen, in<br />
unterschiedlichen Situationen und mit unterschiedlichen<br />
Voraussetzungen. Als sehr effektiv hat sich die<br />
Verwendung eines Text-Browsers (zum Beispiel Lynx<br />
URL: http://lynx.browser.org/[2011-01-21]) oder die<br />
Verwendung des WebFormators (URL: http://www.webformator.de<br />
[2011-01-21], stellt den Inhalt einer<br />
Internetseite in einem separaten Textfenster dar) erwiesen.<br />
Für Firefox gibt es die Erweiterung Fangs,<br />
die einen Screen Reader emuliert (via URL:<br />
http://addons.mozilla.org/ [2011-01-21]).<br />
Kriterienkataloge<br />
Die Biene-Kriterien (Barrierefreies Internet Eröffnet<br />
Neue Einsichten) stellen einen laufend aktualisierten<br />
und übersichtlich dargestellten Katalog von<br />
Zugänglichkeitskriterien dar, der auch für technisch<br />
weniger Versierte leicht nachvollziehbar formuliert ist<br />
(Biene Wettbewerb, 2009). Die WCAG 2.0 (W3C,<br />
2008) stehen im Zentrum zahlreicher Richtlinien und
Spezifikationen. Sie decken einen großen Bereich von<br />
Empfehlungen ab, um Webinhalte barrierefreier zu<br />
machen. Von Universitäten und anderen Einrichtungen<br />
wurden Checklisten zur barrierefreien Gestaltung<br />
von Webanwendungen und Webauftritten erstellt.<br />
?<br />
Hier zwei Beispiele:<br />
▸ Universität Erlangen<br />
URL: hEp://www.vorlagen.uni-‐erlangen.de/regeln/<br />
checkliste.shtml [2011-‐01-‐21]<br />
▸ Universität Innsbruck<br />
URL:hEp://www.uibk.ac.at/elearning/barriere-‐<br />
freiheit/ [2011-‐01-‐21].<br />
Automa/sierte Prüfverfahren<br />
Automatisierte Prüfverfahren sind eine nützliche<br />
Hilfe für die Evaluierung bestehender und die Erstellung<br />
neuer Websites. Mit ihnen lassen sich<br />
Schnelltests in kurzen Zeitabständen wiederholen,<br />
um auch die laufenden Aktualisierungen oder letzten<br />
Versionen auf formale Richtigkeit zu überprüfen.<br />
Automatische Prüfprogramme können nur unterstützende<br />
Werkzeuge sein, weil durch sie lediglich das<br />
Vorhandensein zum Beispiel von Alternativtexten,<br />
Struktur- und Metadaten im Quelltext geprüft wird,<br />
nicht aber deren (Un-) Sinn oder Qualität überprüft<br />
wird (Zapp, 2004).<br />
Hier einige Beispiele für Browser-Erweiterungen<br />
und Online-Werkzeuge, welche die Einhaltung von<br />
Webstandards und Accessibility-Kriterien überprüfen<br />
und das Verhalten einer Webseite unter verschiedenen<br />
Anzeige- und Rezeptionsbedingungen simulieren:<br />
▸ W3C-MarkUp-Validator:<br />
URL: http://validator.w3.org/ [2011-01-21] überprüft<br />
den Code von HTML, XHTML, SVG,<br />
MATHML, SMIL, etc. Dokumenten<br />
▸ W3C-CSS-Validator:<br />
URL: http://jigsaw.w3.org/css-validator/ [2011-<br />
01-21] überprüft den CSS-Code<br />
▸ HTML-Validator für Firefox:<br />
URL: https://addons.mozilla.org/de/firefox-<br />
/addon/249/ [2011-01-21]<br />
Das Firefox-Addon fügt der Quellcode-Anzeige<br />
des Browsers den Tidy-Validator von W3C hinzu.<br />
Sehr nützlich und informativ: In einem Icon in der<br />
Statuszeile des Browsers werden fehlerfreie Seiten<br />
mit einem grünen Haken gekennzeichnet, bzw. mit<br />
einem Warnhinweis oder einem roten Symbol bei<br />
Fehlern.<br />
Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 9<br />
▸ Total Validator – http://www.totalvalidator.com<br />
HTML, Zugänglichkeit (WCAG 1.0 und 2.0;<br />
Section 508), Link-Checker, Screenshots mit sehr<br />
vielen Browsern<br />
Good-‐/Best-‐Prac/ce-‐Beispiele<br />
Vorbilder findet man zum Beispiel unter den Preisträgern<br />
des BIENE-Wettbewerbs der Aktion<br />
Mensch. Aufschlussreich ist auch ein Blick in den<br />
Quelltext der Webseiten von Blindenbibliotheken.<br />
Professionelle Exper/se und Beratung<br />
?<br />
Die Komplexität der Umsetzung barrierefreier Informationstechnik<br />
erfordert in vielen Fällen professionelle<br />
Beratung begleitend zur Projektplanung und zur<br />
Qualitätskontrolle. Universitäten, Verbände und Initiativen<br />
bieten darüber hinaus Lehrgänge und Workshops<br />
zu einzelnen Aspekten barrierefreier Informationstechnik<br />
an (siehe Kapitel #telweiterbildung).<br />
8. Ausblick<br />
Installieren Sie den Textbrowser Lynx (URL:<br />
hEp://lynx.browser.org/ [2011-‐01-‐21]) und versuchen<br />
Sie in einer beliebigen Online-‐Zeitung oder einer Lern-‐<br />
plaqorm zu navigieren.<br />
Jede Seite im Intra- oder Internet, jeder im Netz publizierte<br />
Text, jeder Beitrag oder Kommentar in einer<br />
Mailingliste, einem Weblog oder öffentlichen Chat,<br />
jedes auf einschlägige Plattformen hochgeladene<br />
Lernobjekt, Foto, Video oder Podcast, jeder Wiki-<br />
Eintrag und jeder Microlearning-Inhalt ist eine elektronische<br />
Publikation und sollte so barrierearm wie<br />
möglich gestaltet bzw. präsentiert werden.<br />
Durch die zunehmend interaktive Internetnutzung<br />
(Stichwort „Web 2.0“) verlagert sich die Verantwortung<br />
für die Zugänglichkeit der so erstellten<br />
(Lern-)Inhalte zunehmend von Webdesigner/innen<br />
und Content-Entwickler/innen auf breite, im Bereich<br />
Webstandards unkundige Nutzer/innenkreise und<br />
auf die Hersteller/innen von Autorenwerkzeugen<br />
und Anwendungsprogrammen.<br />
Der Umsetzung des W3C-Standards für Accessible<br />
Rich Internet Applications (WAI-ARIA) und<br />
der Anwendung der Authoring Tool Acessibility Guidelines<br />
(ATAG) kommt so noch stärkere Bedeutung<br />
zu. Ein barrierearmer Webauftritt unter Verwendung<br />
der W3C-Standards ist zeitgemäß und zukunftssicher<br />
bezüglich der eingesetzten Technologien, da die<br />
W3C-Empfehlungen auch zukünftig Kompatibilität<br />
mit neuen Technologien und Weiterentwicklungen<br />
gewährleisten. Der höhere Aufwand, der sich zunächst<br />
ergeben kann, wird durch die Verbesserung
10 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
der Nutzbarkeit ausgeglichen und ermöglicht einigen<br />
Menschen überhaupt erst die Nutzung der Anwendung<br />
(Krüger, 2007).<br />
!<br />
!<br />
Zur VerCefung – Literaturempfehlungen<br />
▸ Hellbusch, J.E. & Mayer (2006). Barrierefreies<br />
Webdesign. Webdesign für Menschen mit körper-‐<br />
lichen Einschränkungen. Osnabrück: Know-‐Ware.<br />
▸ Radtke, A. & Charlier, M. (2006). Barrierefreies<br />
Webdesign. AErakCve Websites zugänglich ge-‐<br />
stalten. Addison-‐Wesley, München.<br />
Webseitenempfehlungen<br />
▸ Einfach für Alle – AkCon Mensch IniCaCve für ein<br />
barrierefreies Web<br />
URL: hEp://www.einfach-‐fuer-‐alle.de [2011-‐01-‐21]<br />
▸ Web ohne Barrieren -‐ gemäß Paragraph 11 des<br />
Bundesbehindertengleichstellungsgesetzes Infor-‐<br />
maConsportal des "AkConsbündnisses für barrie-‐<br />
refreie InformaConstechnik -‐ AbI".<br />
URL: hEp://www.wob11.de [2011-‐01-‐21]<br />
▸ Barrierefrei informieren und kommunizieren – BIK<br />
online GemeinschaHsprojekt des Deutschen<br />
Blinden-‐ und Sehbehindertenverbands e.V. (DBSV),<br />
des Deutschen Vereins für Blinde und Sehbehin-‐<br />
derte in Studium und Beruf e.V. (DVBS) und der<br />
DIAS GmbH<br />
URL: hEp://www.bik-‐online.info [2011-‐01-‐21]<br />
Literatur und Quellen<br />
▸ Antidiskriminierungsrichtlinie 2000/43/EG (2000). URL:<br />
http://eurlex.europa.eu/LexUriServ/LexUriServ.do?<br />
uri=CELEX:32000L0043:DE:NOT [2010-12-01].<br />
▸ Antidiskriminierungsrichtlinie 2000/78/EG (2000). URL:<br />
http://eurlex.europa.eu/LexUriServ/LexUriServ.do?<br />
uri=CELEX:32000L0078:DE:HTML [2010-12-01]<br />
▸ Arrigo, M. (2005). E-Learning Accessibility for blind students.<br />
In: Proceeding of the 3rd International Conference on ICT’s in<br />
Education- ICTE2005 Cáceres, Extremadura (Spanien). URL:<br />
http://www.formatex.org/micte2005/143.pdf [2010-07-05].<br />
▸ Biene Wettbewerb (2009). Kriterien der BIENE 2009. URL:<br />
http://www.einfach-fuer-alle.de/biene-2009/kriterien/ [2010-<br />
10-12].<br />
▸ Bundesministerium für Arbeit, Soziales Und Konsumentenschutz<br />
(2009). Behindertenbericht 2008. Bericht der Bundesregierung<br />
über die Lage von Menschen mit Behinderungen in<br />
Österreich 2008. URL: http://www.bmsk.gv.at/cms/site/attachments/9/5/7/CH0092/CMS1237382655079/behindertenbericht_09-03-17.pdf<br />
[2010-06-29].<br />
▸ CANnect (2010). Accessible Video and Audio. URL:<br />
http://projectone.cannect.org/advice/video-audio.php [2010-<br />
12-12].<br />
▸ European Commission (2009). Study on Web accessibility in<br />
European countries: level of compliance with latest international<br />
accessibility specifications, notably WCAG 2.0, and approaches<br />
or plans to implement those specifications. URL:<br />
http://ec.europa.eu/information_society/activities/einclusion<br />
/library/studies/docs/access_comply_main.pdf [2010-06-29].<br />
▸ Freyhoff, G.; Hess, G.; Kerr, L.; Menzel, E.; Tronback, B. &<br />
Van Der Veken, K. (1998). Make it Simple. European Guidelines<br />
for the Production of Easy-to-Read Information for<br />
People with Learning Disability for authors, editors, information<br />
providers, translators and other interested persons.<br />
URL: http://www.inclusion-europe.org/uploads/doc/99.pdf<br />
[2010-06-29].<br />
▸ Grill, I. (2005). Inklusive Bildung. Erste Schritte zu einer gemeinsamen<br />
Erwachsenenbildung für behinderte und nichtbehinderte<br />
Menschen. URL:<br />
http://bidok.uibk.ac.at/library/handbuch-inklusiv.html<br />
[27.6.2010].<br />
▸ Gröblinger, O. (2007). Barrierefreies E-Learning?!: Impulse zur<br />
Integration Web Accessibility Standards im Hochschul-E-<br />
Learning-Kontext. In: Forum Neue Medien in der Lehre<br />
Austria (Hrsg.), fnma-Austria Strategie 2010, 15. fnm-austria<br />
Tagung, URL: http://www.fnmaustria.at/tagung/FileStorage/view/tagungsbaende<br />
%5C/fnma-tagungband_final_print.pdf [2010-07-13].<br />
▸ Jeschke, S.; Pfeiffer, O. & Vieritz, H. (2008). Accessibility and<br />
Model-Based Web Application Development for eLearning-<br />
Environments. In: Proceedings of the International Conference<br />
on Technology Communication and Education, 218-222.<br />
▸ Karampiperis, P. & Sampson, D. (2005). Designing learning<br />
systems to provide accessible service. In: Proceedings of the<br />
2005 International Cross-Disciplinary Workshop on Web Accessibility<br />
(W4A), 72-80.<br />
▸ Krüger, M. (2007). Barrierefreie Gestaltung für Blinde im E-<br />
Lernen am Beispiel einer Flash-basierten Anwendung. Berlin:<br />
Fachhochschule für Technik und Wirtschaft Berlin, URL:<br />
http://www.f4.fhtw-berlin.de/~s0508091/diplom.pdf [2010-<br />
06-29].<br />
▸ Miesenberger, K. (2004). „equality = e-quality“ 'design for all'<br />
und 'accessibility' als Grundlage für eine demokratische, offene<br />
und inklusive Gesellschaft. In: E. Feyerer; W. Pammer (Hrsg.),<br />
Qual-I-tät und Integration, Beiträge zum 8. PraktikerInnenforum,<br />
Linz: Universitätsverlag Rudolf Trauner.<br />
▸ Miesenberger, K. (2005). Grundlagen der Assistierenden Technologien<br />
(AT). Handreichung zur Lehrveranstaltung „Assistierende<br />
Technologien“. Linz.<br />
▸ Miesenberger, K. (2008). „equality = e-quality“ - Wie Chancengleichheit<br />
(equality) in der Informationsgesellschaft von Barrierefreiheit<br />
als Qualitätsmerkmal neuer Technologien (e-Quality)<br />
abhängt. In: A. Bretterebner-Ziegerhofer (Hrsg.) Lebenswerte<br />
Lebenswelten, Graz.<br />
▸ Nevile, L.; Cooper, M.; Heath, A.; Rothberg, M. & Treviranus,<br />
J. (2005). Learner-centred Accessibility for Interoperable Web-
ased Educational Systems. Paper presented at the 14th International<br />
World Wide Web Conference in Chiba, Japan. URL:<br />
http://citeseerx.ist.psu.edu/viewdoc/download?<br />
doi=10.1.1.59.9932&rep=rep1&type=pdf [2010-06-29].<br />
▸ Tesar, M.; Feichtinger, R. & Kirchweger, A. (2009). Evaluierung<br />
von Open Source Lernmanagementsystemen in Bezug auf eine<br />
barrierefreie Benutzerschnittstelle. In: A. Schwill & N. Apostolopoulos<br />
(Hrsg.), Lernen im Digitalen Zeitalter. DeLFI 2009 -<br />
Die 7. E-Learning-Fachtagung Informatik. URL: http://www.waxmann.de/index.php?id=20&cHash=1&buchnr=2199<br />
[2010-07-13].)<br />
▸ W3C - World Wide Web Consortium (2008). Richtlinien für<br />
barrierefreie Webinhalte (WCAG) 2.0. URL:<br />
http://www.w3.org/Translations/WCAG20-de [2010-06-29].<br />
Barrierefreiheit. Grundlage gerechter webbasierter Lernchancen — 11<br />
▸ W3C - World Wide Web Consortium (2008). Understanding<br />
WCAG 2.0. A guide to understanding and implementing Web<br />
Content Accessibility Guidelines 2.0. URL:<br />
http://www.w3.org/TR/UNDERSTANDING-<br />
WCAG20/Overview.html [2010-06-29].<br />
▸ Zapp, M. (2004). Automatische Tests auf Barrierefreiheit.<br />
URL: http://www.bitvtest.de/infothek/artikel/lesen/automatische-tests.html<br />
[2010-12-12].
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Mo%va%on<br />
Die Frage, woher in der Pädagogik und Didaktik<br />
konzeptionelle Innovation kommt und wie diese generiert<br />
wird, haben Akteurinnen und Akteure der E-<br />
Learning-Szene viel zu lange unbeantwortet gelassen.<br />
Wir haben in Bezug auf die Generierung konzeptioneller<br />
Innovation im Lernen und Lehren mit<br />
digitalen/vernetzten Medien lange keinen unserer<br />
Disziplin eigenen Zugang entwickelt und die Frage<br />
der Zugangsweisen anderen Disziplinen überlassen,<br />
obwohl die Didaktik, beziehungsweise das didaktische<br />
Design eine gestalterische Disziplin ist. Zum<br />
einen erscheint es als geeignete Strategie auf Innovationen<br />
aus anderen Disziplinen zu setzen (hier: der<br />
Entwicklung digitaler vernetzter Medien wie Wikis,<br />
Social Media) und zu hoffen, dass der Einsatz innovativer<br />
Technologien auch das Lernen und Lehren<br />
gewinnbringend verändert. Zum anderen haben wir<br />
uns in unserem Forschungszugang oft und gerne an<br />
deskriptive analytische Wissenschaften wie der Psychologie<br />
angepasst – dies zeigt sich sogar oftmals in<br />
der Lehre, wenn wir Vorlesungen zum Thema<br />
„Lernen und Lehren mit Technologien“ anhand der<br />
lerntheoretischen (siehe Kapitel #lerntheorie) und<br />
kognitionspsycholologischen Grundlagen aufbauen<br />
(siehe Kapitel #gedaechtnis).<br />
Ob elektronische, vernetzte und soziale Medien<br />
Einzug in Schule, Unterricht und Lehre halten<br />
sollten, ob die Risiken schwerer wiegen als die<br />
Chancen und wie man jeweils neu zur Verfügung stehende<br />
Technologien und Applikationen, vom<br />
Newsforum über Lernmanagementsysteme, Weblogs<br />
und Wikis zu mobilen Geräten in Lehr- und Lernprozessen<br />
einsetzen kann – solche Fragen bestimmen<br />
immer wieder Debatten um das Lernen und Lehren<br />
mit Technologien. Wortbildungen wie E-Learning,<br />
M-Learning und E-Learning-Szenarien deuten begrifflich<br />
darauf hin, dass der Einsatz elektronischer<br />
und mobiler Technologien oft als prägend, als treibende<br />
Kraft oder sogar als Ziel in sich wahrgenommen<br />
wird. Fast scheint es, dass bei der Suche<br />
nach pädagogisch-didaktischer Innovation die Übernahme<br />
von Innovationen anderer Disziplinen, wie<br />
zum Beispiel der Informatik, zum Mittel der Wahl geworden<br />
ist (siehe auch Kapitel #innovation). Dies<br />
mag in zahlreichen Fällen funktionieren - dennoch<br />
stellen sich aus pädagogischer Perspektive Fragen,<br />
deren Ausgangspunkt nicht allein in der bloßen Verfügbarkeit<br />
von Technologien liegt: Welche Prozesse<br />
führen zu konzeptioneller Innovation im Lehren und<br />
Lernen? Wie kann die Forschung der pädagogischen<br />
Disziplin zu Innovation in der Praxis beitragen? Wie<br />
werden Innovationsprozesse aus pädagogischer Perspektive<br />
initiiert und getrieben? Welche Rolle spielen<br />
Technologien darin? Und wie kann pädagogisch-didaktische<br />
Innovation in die Technologieentwicklung<br />
einfließen?<br />
Neben der Entwicklung pädagogisch-didaktischer<br />
Innovation sind Pädagoginnen und Pädagogen in besonderer<br />
Weise befähigt, sich unmittelbar und konzeptionell<br />
an Technologieentwicklung zu beteiligen<br />
und die Entwicklung innovativer Lösungen, Produkte,<br />
Strategien, Services und Interventionen als<br />
Wissensarbeit zu konzipieren. Zu diesem Verständnis<br />
der Pädagogik als Disziplin und Profession möchte<br />
das Kapitel beitragen. Dazu werden Fragen des Zusammenspiels<br />
von Untersuchung und Design sowie<br />
wissenschaftlicher Erkenntnis und Gestaltung erörtert,<br />
ein Designprozess der als Untersuchung angelegt<br />
ist beschrieben und anhand einer allgemeinen<br />
Designtheorie den Status des durch Designprozesse<br />
generierten Wissens klären (wie wird das im Design<br />
generierte Wissen artikuliert und formuliert und<br />
welche Form hat es). Der dargelegte Designprozess<br />
zeichnet sich durch seine Orientierung an Tätigkeiten<br />
und Praktiken aus (engl.: practice-oriented design)<br />
und stellt eine Alternative zu Produkt-orientierten<br />
und Nutzer-orientierten Ansätzen dar, die grundsätzlich<br />
ebenfalls denkbar sind (Shove et al., 2007).<br />
2. Design und Forschung: Die Rolle des Wissens in De-‐<br />
signprozessen<br />
Dieses Kapitel beschreibt einen Forschungszugang<br />
auf das Praxisfeld Lernen und Lehren mit Technologien<br />
aus pädagogischer Perspektive. Einen forschenden<br />
Zugang zur pädagogischen Praxis zu finden<br />
bedeutet, eine vermeintlich unmögliche Verbindung<br />
zwischen der Gestaltung innovativer Lehr-/Lern-Szenarien<br />
und wissenschaftlichem Erkenntnisgewinn<br />
herzustellen. Der Begriff „Didaktisches Design“<br />
bezeichnet die praktische Tätigkeit der Pädagoginnen<br />
und Pädagogen sehr gut: Sie entwerfen, gestalten, erproben<br />
Interventionen und Produkte und bewerten<br />
deren Nützlichkeit in einem konkreten Anwendungskontext.<br />
Demgegenüber zielt Forschung gemeinhin<br />
auf die Generierung von Wissen mit Hilfe eines wissenschaftlichen<br />
Methodenrepertoires, auf die Formulierung<br />
möglichst allgemeingültiger Regeln, auf ein<br />
tieferes Verständnis sowie auf die systematische Untersuchung,<br />
Beschreibung und Erklärung von Zusammenhängen.<br />
Designprozesse zur Generierung<br />
von innovativen Lösungen auf der einen Seite und<br />
wissenschaftliche Forschung zur Generierung von<br />
Wissen und tieferem Verständnis auf der anderen<br />
scheinen in ihrem Vorgehen und ihrem Ergebnis
grundsätzlich verschiedene Vorhaben zu sein. Sowohl<br />
die Pädagogik als Disziplin, als auch Arbeiten der<br />
Designtheorie und jüngeren Wissenschaftsforschung<br />
diskutieren deren Zusammenspiel: „Fragen zum<br />
Status von Wissen in gestalterischen Praktiken und<br />
Objekten sowie zur Genese von Design als ‚Wissenskultur’<br />
sind nicht bloß ein aktuelles Desiderat der Designwissenschaften,<br />
sondern korrespondieren mit<br />
Fragen und Modellen der jüngeren Wissenschaftsforschung<br />
bzw. der Science and Technology Studies.“<br />
(Mareis, 2010, 178).<br />
Für die Pädagogik lassen sich in der Frage des Zusammenspiels<br />
von Design und Forschung grob vier<br />
Ansätze differenzieren. Diese unterscheiden sich zumindest<br />
hinsichtlich der folgenden Aspekte: der Rolle<br />
des Wissens im Gestaltungsprozess; der Vorgehensweise<br />
beim Voranschreiten von Analyse und Synthese<br />
zur Untersuchung der Nutzungspraktiken bzw.<br />
Lehr-/Lern-Prozesse; der Frage der Form des generierten<br />
Wissens und seiner Generalisierbarkeit bzw.<br />
Übertragbarkeit in verschiedene Kontexte. Unter<br />
diesen Aspekten werden die Ansätze im Folgenden<br />
diskutiert.<br />
Wissen vor Design<br />
Eine oft auch in der Lehre reflektierte Position geht<br />
davon aus, dass Wissen bereits vor dem Designprozess<br />
zur Verfügung steht und in der Gestaltung<br />
angewandt wird. Dieses Wissen besteht zum<br />
Beispiel in lerntheoretischen Grundlagen, anthropologischen<br />
Grundorientierungen oder Medientheorien.<br />
Es wird in deskriptiv-analytisch orientierten Disziplinen<br />
wie Teilgebieten der Psychologie, Anthropologie<br />
und Medienwissenschaft generiert und in Pra-<br />
Designentwicklung. Anregungen aus Designtheorie und Designforschung— 3<br />
Abbildung 1: Designbasierte versus „klassische“ empirische Forschung (nach Reeves, 2006)<br />
xisfeldern angewandt. Schnotz (2009, 3) bezeichnet<br />
die Disziplin als Handlungslehre und als angewandte<br />
Wissenschaft. Dieser Kontext wirft unter anderem<br />
die Frage auf, wie Ergebnisse und Wissen aus der<br />
Forschung in die Praxis gelangen.<br />
Designbasierte Forschung<br />
Eine andere Position bei der Frage nach der Rolle des<br />
Wissens im Gestaltungsprozess nimmt hingegen die<br />
sogenannte designbasierte Forschung (Engl.<br />
„design-based research“) ein – auch unter den Begriffen<br />
Design Experiments (Brown, 1992, Collins,<br />
1992), Development Research (van den Akker, 1999),<br />
Design Research (Kelly et al., 2008) bekannt. Dieser<br />
Forschungsansatz in der Pädagogik und Lehr-/Lern-<br />
Forschung versucht die zielgerichtete Gestaltung von<br />
Lehr-/Lern-Umgebungen mit der systematischen<br />
Untersuchung der Lernprozesse in diesen Lernumgebungen<br />
zu integrieren. Kennzeichen designbasierter<br />
Forschung sind die Verschränkung praktischer und<br />
wissenschaftlicher Interessen, die Betonung des Designs<br />
einer Intervention, die theoretische Verankerung<br />
des Forschungsprozesses, die iterative Vorgehensweise<br />
und die Anwendungsorientierung. Abbildung<br />
1 zeigt nach Reeves (2006) den Status des<br />
Wissens und des Designs in den beiden bisher dargelegten<br />
Positionen. Der Ansatz designbasierter Forschung<br />
wird insbesondere im anglo-amerikanischen<br />
Raum in diversen Forschungs- und Entwicklungsprojekten<br />
verfolgt. Die Diskussion um seine forschungsmethodologischen<br />
Grundlagen hält jedoch an wobei<br />
die „klassische“ empirische Forschung als Maßstab<br />
angelegt, Forschung auf Basis vorangegangenen
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Designs betrieben wird und das zu generierende<br />
Wissen die Form kontextfreier Aussagen gewinnen<br />
soll.<br />
Designbasierte Forschung legt den Fokus auf ein<br />
forschungsbasiertes und ingenieursmäßiges Vorgehen,<br />
was darin begründet wird, dass die Ingenieurswissenschaften<br />
in ihren Forschungsprozessen<br />
Innovation entwickeln und diese Vorgehensweise auf<br />
die Pädagogik übertragen werden kann um pädagogisch<br />
didaktische Innovation zu befördern. Beispielhaft<br />
werden am Modell von Bannon-Ritland<br />
(2003) die impliziten Annahmen der designbasierten<br />
Forschung skizziert: Die empirische Analyse ist die<br />
treibende Kraft in einem Prozess der von Analyse<br />
(„informed exploration“) zur Synthese („enactment“)<br />
und dann zur Evaluation („local impact“, „broader<br />
impact“) voranschreitet. Die umfassende (und objektive)<br />
Bestimmung von Ist- und Sollzustand bildet<br />
den Ausgangspunkt des Designprozesses. Analyse<br />
und Synthese werden als zwei voneinander getrennte<br />
Phasen verstanden und die Lösung von Designproblemen<br />
basiert auf der Auswahl und Kombination<br />
bekannter Operationen. In der designbasierten Forschung<br />
ist der gestalterische Part selbst nicht als Wissensgenerierungsprozess<br />
konzeptioniert, die Vorgehensweise<br />
ist nicht designgetrieben.<br />
Wissensgenerierung durch Design<br />
Eine weitere Position bezieht den Designprozess in<br />
die Forschung mit ein, bzw. konzeptionalisiert Design<br />
selbst als epistemischen, also erkenntnisgenerierenden<br />
Prozess. Wissensgenerierung findet durch<br />
Design statt. Im Designprozess werden immer<br />
wieder gut informierte Entscheidungen getroffen, die<br />
in wissenschaftlichen Theorien fundiert werden<br />
können - entscheidend ist jedoch, dass der Designprozess<br />
selbst als objektorientierte Untersuchung<br />
angelegt wird, in dem sowohl innovative Produkte<br />
und Services als auch Wissen generiert wird. Die Position<br />
des Design als objektorientierter Untersuchung<br />
oder Design als Wissensgenerierung wird in diesem<br />
Kapitel genauer dargelegt. Sie nutzt Vorgehensweisen<br />
des sogenannten Design Thinking, Methoden der<br />
Designforschung und des Interaktionsdesigns und<br />
basiert auf designtheoretischen Überlegungen.<br />
Expansive Learning<br />
Der vierte Ansatz, hier nur kurz skizzierte Position,<br />
geht ebenfalls von der Generierung von Wissen im<br />
Design aus. Dieses Wissen bleibt auf den lokalen<br />
Kontext, wie zum Beispiel die Organisation in der die<br />
Lösung entwickelt wird, bezogen. Engeströms (2005)<br />
Ansatz des Expansive Learning der auf die Transfor-<br />
mation von Handlungssystemen im Sinne Lernender<br />
Organisationen abzielt, und Schöns Ansatz des Reflective<br />
Practitioner werden beispielhaft dieser Position<br />
zugeordnet (Schön, 1983).<br />
Designwissen<br />
Die Form des Wissens, das in Designprozessen generiert<br />
wird hat einen anderen Status als das kontextfreie<br />
und wertfreie Wissen „klassischer“ empirischer<br />
Wissenschaften. Es wird in lokalen Kontexten generiert,<br />
da Design spezifische Anwendungskontexte im<br />
Blick hat. Design und Artefakte bestimmen die Erkenntnis<br />
mit – dies wird im Forschungsprozess bereits<br />
in der (Design-) Hypothese formuliert. Design-<br />
Wissen ist Wissen über die Wirksamkeit von Handeln<br />
und das Wissen um die Bedingungen unter denen das<br />
Handeln wirksam wird. Es beantwortet die Frage:<br />
„Was funktioniert unter welchen Bedingungen?“ und<br />
sucht die Wirkung zu erklären. Die Wissensproduktion<br />
erfolgt durch die Beschreibung der Bedingungen<br />
und der Intervention (als Faktoren) und<br />
durch die Suche nach Erklärungen für die Wirksamkeit<br />
(Wirkmechanismen). Während die Bedingungen<br />
lokal sind, verweisen die Erklärungen über<br />
den einzelnen Kontext hinaus.<br />
Nicht nur in der Pädagogik, sondern auch im Interaktionsdesign<br />
und in den Designwissenschaften,<br />
die teilweise bestrebt sind Design als akademische<br />
Disziplin zu fundieren, existieren entsprechende designtheoretische<br />
Positionen, die Wissensgenerierung<br />
durch Design zu konzipieren, unter anderem.: research<br />
through design (Findeli et al., 2008),<br />
thoughtful interaction design (Löwgren & Stoltermann,<br />
2007), cognitive design und gestalterische<br />
Epistemologie (Stephan, 2006) und Design als Wissensgenerierung<br />
(Allert & Richter, 2009). Im Folgenden<br />
wird das Kapitel den Begriff „Design“ skizzieren,<br />
die epistemische Rolle von Artefakten im objektorientierten<br />
Untersuchungsprozess darlegen,<br />
einen Designprozess, der als Untersuchung angelegt<br />
ist, beschreiben und anhand einer allgemeinen Designtheorie<br />
den Status des durch Designprozesse generierten<br />
Wissens klären (wie wird das im Design generierte<br />
Wissen artikuliert und formuliert und welche<br />
Form hat es). Der dargelegte Designprozess zeichnet<br />
sich durch seine Orientierung an Tätigkeiten und<br />
Praktiken aus (Engl. „practice-oriented design“) und<br />
stellt eine Alternative zu Produkt-orientierten und<br />
Nutzer-orientierten Ansätzen dar, die grundsätzlich<br />
ebenfalls denkbar sind (Shove et al., 2007). So wie in<br />
der Mediennutzung häufig von Nutzungspraktiken
gesprochen wird, wird im Folgenden für Praktiken<br />
des Lernen und Lehrens auch der Begriff der Wissenspraktiken<br />
verwendet.<br />
3. Pädagogik als DesignwissenschaG<br />
Pädagogik als WissenschaG vom Künstlichen<br />
Um sich der pädagogischen Perspektive und der Pädagogik<br />
als Wissenschaft zu nähern, betrachten wir zunächst<br />
die Disziplin selbst. Herbert Simon (1969) unterscheidet<br />
die Naturwissenschaften von den Wissenschaften<br />
vom Künstlichen. Er bezieht sich zunächst<br />
auf das Ingenieurswesen, bevor er wissenschaftliche<br />
Disziplinen wie die Medizin, Wirtschaftswissenschaften<br />
und Pädagogik den Wissenschaften vom<br />
Künstlichen zuordnet und sie dann auch die Wissenschaften<br />
vom Entwerfen oder Designwissenschaften<br />
nennt. „Wir sprechen vom Ingenieurwesen als von<br />
etwas, das die ‘Synthese’ betrifft, während sich Naturwissenschaft<br />
mit der ‘Analyse’ befasst. (…) Der Ingenieur<br />
und allgemeiner der Entwerfer beschäftigen<br />
sich damit, wie die Dinge sein sollten – wie sie sein<br />
sollten um Zielen zu genügen und zu funktionieren.<br />
(…) Mit dem Streben und ‘Sollen’ bringen wir die Dichotomie<br />
‘normativ’ – ‘deskriptiv’ ins Bild. Die Naturwissenschaft<br />
hat einen Weg gefunden, das Normative<br />
auszuschließen und sich alleine damit zu befassen,<br />
wie die Dinge sind. Können oder sollen wir<br />
diese Ausschließlichkeit beibehalten, wenn wir von<br />
den natürlichen Erscheinungen zu den künstlichen<br />
übergehen, von der Analyse zur Synthese?“ (Simon,<br />
1969, 4). Designwissenschaften sind demnach Disziplinen,<br />
die entwerfen und synthetisieren, das heißt<br />
das Künstliche konzipieren und planen, Artefakte<br />
und Lösungen entwickeln.<br />
Bildungziele und -‐normen<br />
Wenn Pädagoginnen und Pädagogen als Designwissenschaftlerinnen<br />
und Designwissenschaftler Lösungen<br />
in die Welt bringen, befassen sie sich mit dem<br />
normativen „Sollen“ und nicht mit dem Beschreiben<br />
der Welt wie sie ist. Designwissenschaften untersuchen<br />
nicht das Bestehende (zum Beispiel einen<br />
Lernprozess wie er ist), sondern entwickeln Lösungen<br />
in Form von Intervention und Produkten<br />
und führen so eine Veränderung herbei. Handeln und<br />
Erkennen konstituieren den Untersuchungsprozess.<br />
Wir können uns fragen ob eine Intervention in einem<br />
gegebenen Kontext wirksam wird, ob sie funktioniert<br />
und ein gesetztes Ziel erreicht. Wir können die<br />
Wirkung beschreiben und gegebenenfalls erklären<br />
wie sie zustande kommt. Die Frage, wie Welt sein<br />
Designentwicklung. Anregungen aus Designtheorie und Designforschung— 5<br />
sollte bezieht normative Aspekte ein. Design bedarf<br />
eines Ziels, einer Vision, wobei diese nicht wertfrei<br />
ist.<br />
Die Synthese in unserer Betrachtung bezieht sich<br />
auf die Förderung lernrelevanter und wissensintensiver<br />
Prozesse, in denen die Interaktion mit Technologien<br />
eine Rolle spielt. „Didaktisches Design ist eine<br />
Theorie die Leitlinien darüber bereitstellt, wie man<br />
Menschen unterstützen kann, besser zu lernen und<br />
sich zu entfalten“ (Reigeluth, 1999, 5, Übersetzung).<br />
Entwerfen und Synthetisieren sind nicht wertfrei<br />
oder wahr. Eine Lösung kann bewertet werden<br />
anhand ihrer Nützlichkeit und ihrem Funktionieren<br />
unter gegebenen Bedingungen in einem lokalen<br />
Kontext und in Bezug auf ein Ziel. Evaluation bedeutet<br />
dementsprechend die Bewertung der Lösung<br />
anhand der gesetzten Ziele. In diesem Zusammenhang<br />
kann in der Pädagogik die Kategorie<br />
Bildung als prägnantes Beispiel für eine nicht wertfreie<br />
normative Setzung im Sinne einer Designwissenschaft<br />
gesehen werden. Die Pädagogik hat sich in<br />
der Auseinandersetzung um die Modelle der allgemeinen<br />
Didaktik intensiv mit der Frage der Verantwortung<br />
bei der Definition von Zielen und normativen<br />
Setzungen befasst. Bildung gilt der bildungstheoretischen<br />
Didaktik als Ziel, auf das sie sich bei<br />
der Planung didaktischer Intervention verpflichtet.<br />
Auch weniger allgemein vereinbarte Ideale stellen Visionen<br />
und normative Setzungen dar, zum Beispiel<br />
individuelle Vorstellungen einer wünschenswerten<br />
Zukunft im eignen Lernumfeld, wobei der Designer<br />
die Verantwortung für die dem Design zugrundeliegenden<br />
Werte nicht abgeben kann. Auch gesellschaftliche<br />
Verantwortung wird von Designern diskutiert:<br />
„In den 60ern begannen Designer über die Implikationen<br />
ihres Designs für die Gesellschaft nachzudenken“<br />
(Wood, 2007, Übersetzung). Deskriptive<br />
(Natur-)Wissenschaft hingegen „hat einen Weg gefunden,<br />
das Normative auszuschließen“ (Simon,<br />
1969, 4), analysiert die Welt wie sie ist und zielt auf<br />
die Formulierung allgemeiner Gesetzmäßigkeiten und<br />
Regeln, die unabhängig von einzelnen Situationen<br />
und Kontexten universell gültig und wertfrei sind.<br />
Anzumerken ist, dass Simon eine klassische Wissenschaftsauffassung<br />
vertritt, die sich wie zuvor beschrieben,<br />
stetig verändert. Knorr-Cetina (2002, 151)<br />
und Latour (2010) anerkennen die Rolle materialer<br />
Artefakte bzw. die materialen Aspekte technischer Instrumente<br />
im Erkenntnisprozess und beschreiben<br />
Praktiken heutiger Wissensarbeit.
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
4. Veränderungen durch Design<br />
Ko-‐Evolu%on von Problem und Lösung<br />
Auch Designwissenschaften betreiben Analyse wenn<br />
sie Probleme, für die Lösungen gesucht werden,<br />
identifizieren und beschreiben. Aus der Analyse lässt<br />
sich allerdings die Synthese bzw. aus dem Problem<br />
die Lösung nicht ableiten. Auch greift die Vorstellung<br />
zu kurz, dass eine geschaffene Realität beobachtet<br />
wird. Eher wird durch das Schaffen selbst die Realität<br />
beobachtbar. Cross (1995) spricht von der Ko-Evolution<br />
von Problem und Lösung und geht davon aus,<br />
dass die Generierung einer Vielzahl von Lösungsoptionen<br />
als Mittel verstanden werden kann das<br />
Problem zu analysieren, zu explorieren und zu verstehen.<br />
Gestaltung und Synthese ermöglichen das<br />
Problem zu erkennen und zu benennen: „Häufig<br />
zeigt sich, dass der gestalterische Ansatz überhaupt<br />
erst dazu führt, Problemlagen zu erkennen und zu<br />
beschreiben.“ (Stephan, 2009). Ein tieferes Verständnis<br />
des Problems gelingt durch den Entwurf, die<br />
Konzeption und das Testen möglicher Lösungen.<br />
Das Ergebnis (nicht der Start) eines Designprozesses<br />
ist demgemäß neben einer Lösung auch das<br />
Verständnis des Problems, also Wissen über den<br />
Problem- und Lösungsraum. Allerdings kann die Beschreibung<br />
und Lösung des Problems wie es ist nicht<br />
gelingen weil es sich stetig verändert. „Dies bezieht<br />
sich auf Design als projektive Disziplin, welche versucht,<br />
existierende Situationen in bevorzugte zu verwandeln.<br />
Wenn das Problem gelöst ist, wird die<br />
Lösung zumeist zum Keim eines neuen Problems.<br />
(...) Kontextualisierte wissenschaftliche Probleme<br />
sind, wie Designprobleme, niemals gelöst.“ (Jonas,<br />
2005).<br />
Problem und Lösung schreiten ko-evolutionär<br />
voran, sie entwickeln sich in und mit ihrem Umfeld<br />
gegenseitig weiter und werden nicht getrennt gefasst,<br />
sondern als Designraum beschrieben. Als Designraum<br />
wird der Realitätsraum gefasst, in dem sich<br />
Problem, Lösungen und äußere Randbedingungen<br />
gegenseitig bedingen (Burckhardt, 1995). Einen Einfluss<br />
auf die Konzeptualisierung des Designraum hat<br />
das Framing: In der Art der Beschreibung des<br />
Problem- und Lösungsraums liegt eine Perspektive.<br />
Bei der Beschreibung des Designraums definiert die<br />
Designerin oder der Designer den Realitätsraum und<br />
die Aspekte die sie oder er für relevant erachtet unter<br />
einer Perspektive, die sie oder er einnimmt und einer<br />
Rahmung, die sie oder er vornimmt. Im Design als<br />
Untersuchung wird der Frame, der in der Praxis<br />
immer gesetzt aber meist implizit bleibt, offengelegt,<br />
um implizite Annahmen aufzudecken und reflek-<br />
tieren zu können. Der Frame bestimmt Forschungsfrage<br />
und Designentscheidungen mit, da Annahmen<br />
in Form einer Frage zu einem Phänomen gestellt<br />
werden können. Das Framing bestimmt, welche<br />
Theorien aktualisiert werden um informierte Designentscheidungen<br />
zu treffen. Als Beispiel: Eine Bibliothek<br />
könnte als Buchabholstation oder als sozialer<br />
Treffpunkt gefasst werden.<br />
!<br />
Ein Framing und Re-‐Framing des Problems, bzw. des<br />
Designraums kann im gesamten Designprozess neue<br />
Erkenntnisse bringen und erheblich zu einer innova-‐<br />
Lven Lösung beitragen. Ein Framing fundiert die Desi-‐<br />
gnhypothesen und die Forschungsfrage. Das Framing<br />
definiert die PerspekLve auf das Problem um die<br />
Theorie zur Fundierung der Fragestellung und zur Er-‐<br />
klärung der Mechanismen zu finden und zu wählen<br />
Veränderung von Lehr-‐ und Lernprozessen durch Design<br />
Obwohl Cross (1995) von der Ko-Evolution von<br />
Problem und Lösung spricht, bedeutet Design nicht<br />
Problemlösung, sondern die Entwicklung und Bereitstellung<br />
von Handlungsoptionen, die Einfluss auf die<br />
reale Welt nehmen und die, wenn sie genutzt werden,<br />
die Art und Weise wie wir Dinge tun, verändern<br />
können. Im Falle des Lernens und Lehrens mit Technologien<br />
kann die Bereitstellung interaktiver Medien<br />
zur Veränderung von Lehr-/Lern-Prozessen führen.<br />
Die Aneignung, Nutzung und Umnutzung einer innovativen<br />
Technologie ist Teil des Designprozesses<br />
und schließt diesen erst ab. Carroll (2004) betitelt<br />
dieses produktive Moment menschlicher Tätigkeit als<br />
„completing design in use“. Die Nutzung eines Mediums<br />
(oder Artefakts im weitesten Sinne) kann Praktiken<br />
transformieren ebenso wie die Nutzung das Artefakt<br />
wie es vom Designer intendiert war, verändern<br />
kann. Der Nutzer wird durch die Nutzung zum Mitdesigner.<br />
Das an Praktiken orientierte Design nimmt<br />
an, dass die Bedeutung eines Artefakts (eines Produktes,<br />
einer Technologie) nicht im Artefakt selbst<br />
liegt sondern durch die Tätigkeit und Nutzung konstituiert<br />
werden (Shove et al. 2007). Die Nutzung von<br />
Technologien transformiert Wissenspraktiken ebenso<br />
wie neu entstehende Wissenspraktiken die Technologien<br />
verändern. Medien können die Art und Weise,<br />
wie wir mit Wissen arbeiten verändern, Wissenspraktiken<br />
also transformieren. Technologien determinieren<br />
Nutzungspraktiken nicht – vielmehr gestalten<br />
die entstehenden Nutzungspraktiken die Technologien<br />
mit.
5. Design als WissenschaG<br />
Design umfasst neben logischem Denken Aspekte<br />
wie etwa Kreativität, Intuition, Inspiration, Zufall<br />
(Jonas, 2005). Frühere Sichtweisen verstehen Design<br />
deshalb als oft unbeschreibbare Kunst und den<br />
Designer als geniale Heldenfigur (Cross, 1995) – das<br />
Denken und die Prozesse im Design erscheinen als<br />
wenig systematisierbar. Darüber hinaus ist Design<br />
weder als Begriff noch konzeptionell eindeutig gefasst.<br />
Fallman (2003) unterscheidet eine als romantisch<br />
bezeichnete Position, die den Kern von Design<br />
als Intuition beschreibt, von einer als konservativ bezeichneten<br />
Position die Design als angewandte Wissenschaft<br />
ansieht. Beiden Positionen stehen aktuelle<br />
Ansätze, Denkweisen und Strömungen gegenüber,<br />
die designerisches Denken und Vorgehen methodologisch<br />
fundieren und systematisch fassen. Cross<br />
(1995) beschreibt designerische Fähigkeiten als artikulierbar,<br />
charakterisierbar, erlernbar und pflegbar.<br />
Ebenso können sie verloren gehen. Gedenryd (1998)<br />
und Lawson (2005) haben ebenfalls zur Entmystifizierung<br />
mit der Analyse designerischer Denk- und<br />
Arbeitsweisen beigetragen. Ein ähnliches Spannungsverhältnis<br />
um vermittelbare Fähigkeiten, sowie um<br />
die Frage des Status von Theorie und Praxis und die<br />
Frage ob Unterrichten Kunst oder Wissenschaft sei,<br />
wurde in der Pädagogik um die 70er Jahre diskutiert.<br />
Heute befassen sich wissenschaftliche Arbeiten<br />
um das Schlagwort Design Thinking entweder mit<br />
individuellen kognitiven Prozessen im Design oder<br />
aber mit kollaborativen Denk- und Handlungsweisen<br />
und einer designerischen Art voranzuschreiten:<br />
„Design steht im Ansatz des Design Thinking nicht<br />
erst am Ende eines Entwicklungsprozesses, sondern<br />
wirkt als zentrales Element bei der strategischen und<br />
operativen Ausrichtung. Gestaltung wird damit zum<br />
enabler der nachfolgende Maßnahmen anstößt.”<br />
(Stephan, 2009). Mit Fokus auf strategische Prozesse<br />
kann Design als Antrieb für eine Lernende Organisation<br />
begriffen werden, wobei Design alle Prozesse<br />
in einer Organisation antreiben und zu konzeptioneller<br />
Originalität führen soll (Shamiyeh, 2010). [gekürzt]<br />
U n t e r Designwissenschaften (engl. „design<br />
studies“) sind Beiträge und Arbeiten zusammengefasst,<br />
die sich mit der Rolle des Wissens und der Entstehung<br />
von Wissen im Design befassen und wissensgenerierende<br />
Momente fundieren. Wenn wir Design<br />
nicht nur als Anwendung bestehenden Wissens aus<br />
deskriptiven Wissenschaften ansehen sondern wissensgenerierend<br />
nutzen, so hat dies Konsequenzen<br />
Designentwicklung. Anregungen aus Designtheorie und Designforschung— 7<br />
für die Beziehung zwischen Theorie und Praxis, für<br />
Forschung und Design in der Pädagogik sowie für die<br />
wissenschaftstheoretische Fundierung von Design.<br />
Der Prozess der Ko-Evolution von Analyse und<br />
Synthese unter sich gleichzeitig verändernden Kontextbedingungen<br />
kann als Untersuchungsprozess angelegt<br />
werden. Dies setzt voraus, dass der Designprozess<br />
unbestimmte Momente enthält in welchen<br />
Wissen nicht angewandt, sondern generiert wird.<br />
Diese Momente ermöglichen eine kreative und reflektierte<br />
Auseinandersetzung mit Undeterminiertheit.<br />
Um dies zu klären und diese Momente systematisch<br />
zu identifizieren betrachten wir die Fundierung<br />
von Designentscheidungen, die Rolle des<br />
Wissens im Designprozess und die Artikulation von<br />
Designwissen aus der Sicht einer allgemeinen Designtheorie<br />
(Goldkuhl, 2004). Um die Technologien<br />
und Medien im Lernprozess ins Blickfeld zu rücken<br />
betrachten wir im nächsten Abschnitt zunächst das<br />
Artefakt, seine Rolle in der objektorientierten Untersuchung<br />
und seinen Status als Untersuchungsinstrument.<br />
6. Artefakt als Hypothese und Prototyping als Untersu-‐<br />
chung<br />
Für den Forschungsansatz wie er nach und nach dargelegt<br />
wird, ist es notwendig, sich über Rolle und<br />
Status der Technologien und Medien (kurz: Artefakte)<br />
sowohl im Lehr-/Lern-Prozess als auch im Untersuchungsprozess<br />
klar zu werden. Ein Artefakt hat<br />
im Untersuchungsprozess die Rolle eines epistemischen<br />
Artefaktes. Ein Artefakt und sein Einsatz im<br />
Lehr-/Lern-Prozess kann weder induktiv aus den<br />
Anforderungen noch deduktiv aus seiner Theorie abgeleitet<br />
werden (zum Status von Artefakten in Designprozessen,<br />
siehe: Models of Design, Coyne, 1988).<br />
Als Beispiel: Die Erkenntnisse deskriptiver Wissenschaften<br />
aus der Analyse kollaborativer Prozesse im<br />
Lernen stellen keine Handlungsanleitung zur Konzeption<br />
oder zum Einsatz von Technologien zur Förderung<br />
kollaborativen Lernens in einem bestimmten<br />
Kontext dar.<br />
Das Artefakt, bzw. eine Aussage über seine Gestaltung<br />
und angenommene Wirkung in einem lokalen<br />
Kontext in Hinblick auf ein Ziel kann im Planungsprozess<br />
als Designhypothese begriffen und als<br />
präskriptive Aussage formuliert werden (siehe Abschnitt<br />
8). Umgangssprachlich ließe sich formulieren:<br />
Was ist das Spezifische der Technologie und wie wird<br />
sich Lernen dadurch verändern – welche Art von<br />
Lernen wird sie befördern? Ausgangspunkt der<br />
Nutzung und des Einsatzes der Technologie sind bestehende<br />
Nutzungspraktiken. Durch die Bereit-
8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
stellung des Artefakts können Wissenspraktiken<br />
transformiert werden und unerwartete Nutzungspraktiken<br />
entstehen. Erst durch den Einsatz des Artefakts<br />
in einem gegebenen Kontext kann die präskriptive<br />
Aussage empirisch fundiert werden. In der<br />
Evaluation wird also die tatsächlich entstandene Nutzungspraktik<br />
in einem lokalen Kontext untersucht<br />
und mit den Annahmen und der Hypothese in Beziehung<br />
gesetzt, das heißt designrelevante Phänomene<br />
können erklärt werden.<br />
Artefakte stellen Handlungsoptionen bereit, die<br />
eine Transformation eines Lehr-/Lern-Prozesses<br />
oder einer Wissenspraktik anregen können.<br />
Grundlage dieser Sichtweise ist ein Medienbegriff<br />
der Medien als Katalysatoren der Veränderung kultureller<br />
Strukturen konzeptioniert (Eisenstein, 1997).<br />
Medien sind Katalysatoren sofern sie in die latente<br />
oder manifeste soziale Vision einer Gruppe oder Gesellschaft<br />
passen (Giesecke, 1991). Die Nutzung von<br />
Medien kann Praktiken auf sozialer, epistemischer<br />
und pragmatischer Ebene transformieren (Boedker &<br />
Andresen, 2005).<br />
Eine präskriptive Aussage über das Artefakt und<br />
seine angenommene Nutzung in einem Lehr-/Lernprozess<br />
stellt zunächst eine Hypothese über den Designraum<br />
und eine Annahme über ein Problem und<br />
die Wirkung einer Lösung (eine didaktische Intervention,<br />
in der die Interaktion mit Technologien eine<br />
Rolle spielt) unter bestimmten Bedingungen (lokaler<br />
Kontext) dar. Die Formulierung einer Designhypothese<br />
in Form einer präskriptiven Aussage und die<br />
Evaluation der Nutzung des Artefakts bzw. der<br />
Transformation der Wissenspraktik kann als untersuchendes<br />
Voranschreiten („open-ended inquiry“) bezeichnet<br />
werden.<br />
Eine Erklärung des Funktionierens der Lösung<br />
kann in wissenschaftlichen Theorien (Lerntheorien,<br />
Theorien zur Kollaboration usw.), technologischen<br />
Theorien, Handlungswissen und Erfahrung fundiert<br />
werden. Dabei wird sie zum Beispiel auf ihre Konsistenz<br />
zu theoretischen Konzepten deskriptiver Wissenschaften<br />
überprüft. Wir schließen dabei in einem<br />
abduktiven Schluss auf die beste Erklärung, da die<br />
Lösung weder deduktiv aus der Theorie noch induktiv<br />
aus den erhobenen Anforderungen abgeleitet<br />
werden kann. Zum induktiven, deduktiven und abduktiven<br />
Schließen im wissenschaftlichen Arbeiten<br />
findet sich eine ausführliche Erläuterung bei Shamiyeh<br />
(2010).<br />
!<br />
Die prototypische Lösung wird eingesetzt und die<br />
Nutzung beobachtet um die tatsächliche Transfor-‐<br />
maLon der WissensprakLk oder des Lernprozesses<br />
beschreiben zu können. Der englische Ausdruck open-‐<br />
ended inquiry bezeichnet das untersuchende Voran-‐<br />
schreiten gut. Im voranschreitenden Prozess werden<br />
verLeYe Designhypothesen formuliert.<br />
Der Design- und Untersuchungsprozess erlaubt<br />
die kontinuierlich tiefere Exploration des Designraums.<br />
Im Folgenden wird der Design- und Untersuchungsprozess<br />
genauer beschrieben.<br />
7. Der Designprozess<br />
Der Designprozess im Überblick<br />
Eine designgetriebene Untersuchung will neben<br />
einem Produkt oder Service (zum Beispiel eine Intervention,<br />
Technologie) Wissen und Erkenntnisse über<br />
den Designraum generieren. Die Exploration bestehender<br />
Praktiken, die Betrachtung von Phänomenen<br />
und Formulierung von Fragen unter einer gewählten<br />
Perspektive (Framing und Re-Framing), das Design<br />
eines Prototypen um zugrundeliegende Annahmen<br />
zu erproben und zu untersuchen (designing a prototype<br />
to probe some of the underlying design assumptions),<br />
sowie die Erklärung der Wirkungsweise<br />
der Lösung und der Bedingungen unter denen ein generativer<br />
Mechanismus wirksam wird, sind Teil des<br />
Untersuchungsprozesses im Design.<br />
Design als Untersuchungsprozess anzulegen bedeutet<br />
nicht in der Analyse zu verbleiben, sondern<br />
fragend voranzuschreiten. Die erste Frage entsteht<br />
aus dem Framing. Der gesamte Designprozess stellt<br />
eine wissensgenerierende Exploration des Designraums<br />
dar. Eine frühe Designfixierung hieße, bestehende<br />
Annahmen nicht zu hinterfragen, bekannte<br />
Lösungen zu replizieren und sich nicht mehr durch<br />
überraschende Antworten, das Hinterfragen zu<br />
Grunde liegender Annahmen oder ein Re-Framing<br />
auf neue Fragen einzulassen. Der Designraum selbst<br />
kann im Prozess neu definiert werden, zuvor als Rahmenbedingungen<br />
angesehene Faktoren können in die<br />
Intervention integriert und verändert werden.<br />
Framing und Re-‐Framing<br />
Das Framing bildet den Einstiegspunkt in den untersuchenden<br />
Designprozess und dient der Abgrenzung<br />
des Designgegenstandes sowie der Bestimmung allgemeiner<br />
Rahmenbedingungen. Jeder Designprozess<br />
basiert auf den expliziten oder impliziten Annahmen<br />
des Designers oder der Designerin über den Gegenstand<br />
des Designs. Diese Annahmen betreffen einerseits<br />
die Frage was zu gestalten ist, welche Perspek-
tiven eingenommen werden können, schließen andererseits<br />
aber auch grundlegende Annahmen darüber<br />
ein, was es beispielsweise bedeutet Mensch zu sein, in<br />
einer Gesellschaft zu leben, zu arbeiten oder zu<br />
lernen (Löwgren & Stolterman, 2007, 10). Entsprechende<br />
Annahmen bieten wichtige Orientierungsund<br />
Bezugspunkte im Designprozess da sie einen<br />
Rahmen (Frame) für die Interpretation des Designgegenstandes<br />
bilden. Bleiben entsprechende Annahmen<br />
aber unausgesprochen und somit implizit, kann es zu<br />
Missverständnissen und blinden Flecken bei der weiteren<br />
Exploration des Designraums kommen.<br />
Framing und Re-Framing generieren zum einen<br />
eine Perspektive auf den Designgegenstand, die zu<br />
Designentwicklung. Anregungen aus Designtheorie und Designforschung— 9<br />
originellen und innovativen Lösungen führen kann,<br />
zum anderen reduzieren sie die Komplexität der Untersuchung.<br />
Eine Untersuchung in einem situtierten,<br />
lokalen Kontext ist mit der vollen Komplexität der<br />
Realität konfrontiert. Das Framing bildet die Perspektive<br />
unter der die Frage gestellt und Theorien zur<br />
Formulierung informierter Entscheidung im Design<br />
aktualisiert werden.<br />
Explora%on bestehender Kontexte<br />
Im Mittelpunkt einer Exploration bestehender Kontexte<br />
steht die Untersuchung bestehender Praktiken<br />
und Prozesse und die Entdeckung möglicher Handlungsräume.<br />
Neben dem Aufdecken existierender<br />
Abbildung 2: Der Designprozess als kontinuierliche Exploration in der voranschreitend Fragen gestellt werden. Der Ablauf<br />
ist iterative und nicht streng linear.
10 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Probleme, kritischer Ereignisse, Spannungsverhältnisse,<br />
Rahmenbedingungen und Handlungsmuster,<br />
besteht das Ziel dieser Phase der Exploration im Aufspüren<br />
möglicher Alternativen. Ausgangspunkte<br />
hierfür bieten sowohl bestehende Praktiken wie auch<br />
die Ziele und Visionen der beteiligten Akteure. In<br />
dieser Phase lassen sich Methoden aus den Bereichen<br />
Designforschung und Interaktionsdesign nutzen<br />
(Buxton, 2007, Laurel, 2003, Löwgren & Stolterman,<br />
2007). Ethnographische und phänomenologische Ansätze<br />
eignen sich, Phänomene und Praktiken zu erkunden.<br />
Am Ende der Exploration steht die Bestimmung<br />
der Designaufgabe unter einer Fragestellung.<br />
Die Exploration zeigt kritische Ereignisse<br />
auf, die als Spannungsverhältnis beschrieben und<br />
zum Ausgangspunkt für die Entwurfsphase werden<br />
können. Eine ausbleibende Exploration birgt die<br />
Gefahr, bestehende Annahmen nicht in Frage zu<br />
stellen und wenig originelle Lösungen zu produzieren<br />
- die Synthese könnte bestehende Annahmen unreflektiert<br />
in das Artefakt, also das Untersuchungsinstrument,<br />
einzubauen („Designfixierung“). Ein Verbleiben<br />
in der Analyse wiederum würde die vertiefte<br />
Exploration durch Entwurf verhindern. Auch aus<br />
einer detaillierten Analyse kann kontingente Zukunft<br />
nicht abgeleitet werden. Im Entwurf und der Entwicklung<br />
von Produkten, Interventionen, Strategien<br />
und Konzepten (Synthese) werden Entscheidungen<br />
getroffen, die nicht vollständig aus der Analyse begründet<br />
werden können. Verständnis des Designraums<br />
erfordert weiteres Voranschreiten im Designprozess<br />
über die Bereitstellung von Handlungsoptionen<br />
bis hin zum Verständnis transformierter Nutzungspraktiken.<br />
Entwurf<br />
Der anschließende Entwurf mehrerer alternativer<br />
Lösungsoptionen stellt einen weiteren Schritt zur<br />
tieferen Exploration dar, da jeder Entwurf neue<br />
Fragen zum Verständnis des Problems erzeugt und<br />
erlaubt zugrundeliegende Annahmen der Lösungsoptionen<br />
zu erkennen, zu hinterfragen und dadurch die<br />
eigene Vision zu schärfen.<br />
Abbildung 3: Paralyse durch Analyse vs. Designfixierung<br />
!<br />
Prototypen<br />
Ein Beispiel aus der Praxis wird zur Veranschaulichung<br />
unter der folgenden Adresse in einem Wiki zur Ver-‐<br />
fügung gestellt: h`p://ukzizm-‐s04.izm.uni-‐<br />
kiel.de/Lki5/Lki-‐index.php?page=L3T-‐Startseite<br />
[2011-‐01-‐08]<br />
Weiteres findet sich auch bei Mister Wong unter #l3t<br />
#designforschung!<br />
Dann wird eine vielversprechende Lösungsoption<br />
ausgewählt und prototypisch umgesetzt. Prototypen<br />
sind Repräsentationen bevor das finale Produkt existiert.<br />
Ein Prototyp wird gezielt auf die Beantwortung<br />
einer Fragestellung hin konzipiert, umgesetzt und<br />
eingesetzt, das heißt, die der Lösungsoption zugrundeliegende<br />
Annahme bzw. Designhypothese sollen<br />
untersucht werden können. Bei ihrer Herstellung<br />
zeigt sich, welche konkreten Designentscheidungen<br />
noch zu treffen sind. Prototypenarten die zur tieferen<br />
Exploration des Designraums geeignet sind wirken<br />
wie Erfahrungssubstitute und Sonden in einem<br />
sozio-kulturellen Kontext. Sie machen die Erfahrung<br />
allen vom Design Betroffenen erlebbar, erlauben die<br />
Beobachtung der Transformation von Praktiken<br />
sowie der Umnutzung des Prototypen durch die entstehende<br />
Praktik. Formen sind unter anderen:<br />
▸ Storyboards und visuelles Story Telling (Illustration<br />
zentraler Handlungsschritte in Form einer<br />
Bildergeschichte),<br />
▸ Wireframe-Modelle und Interface-Skizzen (Abbildung<br />
der strukturellen und funktionalen Elemente<br />
der Benutzeroberfläche, ohne Berücksichtigung<br />
der graphischen Ausgestaltung),<br />
▸ Video Prototypen (Videoaufzeichung von Personen<br />
die mit dem „System“ interagieren und typische<br />
Aufgaben lösen),<br />
▸ dynamische Papierprototypen (jedes Blatt Papier<br />
oder Post-It repräsentiert eine Bildschirmseite<br />
oder ein Bildschirmelement. Während die Anwender<br />
so tun, als ob sie mit dem Papierprototypen<br />
interagieren, wechselt oder ändert die Designerin<br />
oder der Designer das Papier entsprechend<br />
der „Eingaben“),<br />
▸ dynamische digitale Prototypen (das Erscheinungsbild<br />
und die Funktionalitäten des inten-
dierten Systems werden bis zu einem gewissen<br />
Grad in digitaler Form nachgebildet (zum Beispiel<br />
in MS PowerPoint),<br />
▸ Bricolage-Prototpen (Simulation intendierter<br />
Funktionalitäten mit Hilfe bereits existierender<br />
Systeme wie EtherPad, BSCW, YahooPipe, Positlog<br />
bzw. der Re-Kombination dieser Systeme).<br />
?<br />
Entwickeln Sie einen Prototypen in dem Sie folgender-‐<br />
maßen vorgehen:<br />
▸ Schri` 1: Festlegung der Fragestellung, die mit<br />
dem Prototypen geklärt werden soll.<br />
▸ Schri` 2: Auswahl einer geeigneten Prototypenart<br />
▸ Schri` 3: Kurzes Design-‐Review (Peer Review)<br />
bzgl. Fragestellung und Art des Prototypen<br />
▸ Schri` 4: Realisierung des Prototypen<br />
Um eine AußenperspekLve zu gewinnen (Schri` 3)<br />
soll ein Feedback von anderen eingeholt werden. Fol-‐<br />
gende Fragen sind dabei zu stellen:<br />
▸ Ist die Art des Prototypen geeignet die Frage-‐<br />
stellung zu klären?<br />
▸ Worauf sollte bei der Erstellung des Prototypen<br />
geachtet werden?<br />
▸ Welche Merkmale sind wichLg, welche nicht?<br />
▸ Ist die Erstellung eines entsprechenden Proto-‐<br />
typen realisLsch (mit den gegebenen Mi`eln, Zeit-‐<br />
rahmen)?<br />
Für die Kurzbeschreibung des Prototypen (Schri` 4)<br />
sind die Antworten auf folgende Fragen wichLg:<br />
▸ Welche Frage soll mi`els des Prototypen beant-‐<br />
wortet werden?<br />
▸ Art des Prototypen?<br />
▸ Welche Produktmerkmale sollen mit dem Proto-‐<br />
typen abgebildet werden?<br />
Ein Prototyp erlaubt den Beteiligten mit dem vorgestellten<br />
Artefakt zu interagieren, Erfahrung bei der<br />
Nutzung in einer realistischen Situation zu sammeln<br />
(Preece et al., 2002). Praxisbeispiele für „Erfahrungsprototypen“<br />
finden sich bei Buchenau & Suri (2000).<br />
Diesen Schritt des Designprozesses kann man Prototyping<br />
als Untersuchung nennen. Der Prototyp wird<br />
mit möglichst minimalem Einsatz umgesetzt, gerade<br />
tauglich um eine aus den Annahmen gewonnene Fragestellung<br />
zu beantworten. Annahmen und Fragestellung<br />
werden aus der präskriptiven Aussage generiert<br />
(präskriptive Aussagen sind Annahmen über den<br />
Designraum und die Wirkung der Intervention). Bis<br />
zu diesem Schritt im Designprozess existieren ausschließlich<br />
Hypothesen über die Wirkung der Intervention,<br />
die Nutzung des Prototypen im Lehr-/Lernprozess<br />
und die Transformation der Praktik. Im<br />
Sinne einer Untersuchung sind neben der Designhypothese<br />
(siehe letzter Abschnitt) vor und während<br />
Designentwicklung. Anregungen aus Designtheorie und Designforschung— 11<br />
der Intervention alternative Hypothesen formulierbar,<br />
für die in der Evaluation Belege gesammelt<br />
werden.<br />
Einsatz und Evalua%on<br />
Einsatz und Evaluation stellen den nächsten Schritt<br />
im Untersuchungsprozess dar. Ziel der Evaluation ist<br />
die Prüfung der Designhypothese in einem lokalen<br />
Kontext. Durch Einsatz und Evaluation wird die präskriptive<br />
Annahme empirisch fundiert. Je nach Fragestellung<br />
soll nicht nur die Interaktion mit dem technischen<br />
System (operative Ebene), bzw. das Interface<br />
getestet, sondern im weiteren Sinne die Nutzung des<br />
Artefakts und die Transformation der Wissenspraktik<br />
in Erfahrung gebracht werden. Das Funktionieren<br />
der Lösung wird in Bezug auf das gesetzte Ziel geprüft.<br />
Die Evaluation vertieft wiederum die Exploration<br />
des Designraums und kann das Ergebnis<br />
bringen, dass das Problem ganz andere Facetten hat<br />
oder anders gelagert ist als bisher angenommen. Der<br />
Designprozess kann zum vertieften Verständnis des<br />
Problems oder zu einem Re-Framing des Designraums<br />
führen. Das Verständnis der entstehenden<br />
Wissens- und Nutzungspraktiken kann außerdem zur<br />
konzeptionellen Innovation im Sinne einer Weiterentwicklung<br />
oder Neukonzeption von Technologien<br />
führen. Evaluationsmethoden finden sich u.a. bei<br />
Preece et al. (2002) und bei Löwgren und Stolterman<br />
(2007).<br />
!<br />
Während des gesamten Designprozesses wird Wissen<br />
generiert. Die systemaLsche ArLkulaLon und Doku-‐<br />
mentaLon umfasst die Formulierung von Designhypo-‐<br />
thesen, die Sammlung von Faktoren die den Desi-‐<br />
gnraum beschreiben und die Erklärung designrele-‐<br />
vanter Phänomene durch generaLve Wirkmecha-‐<br />
nismen.<br />
8. Designtheorie und Designwissen<br />
Eine allgemeine Designtheorie stellt abstrahiertes<br />
praktisches Wissen über Designaktivitäten und ihre<br />
Fundierung dar. Im Prozess des didaktischen Designs<br />
wird Designwissen generiert und artikuliert. Designhypothesen<br />
werden in Theorie und Empirie fundiert.<br />
Abbildung 4 zeigt die allgemeinen Designtheorie<br />
nach Goldkuhl (2004, annotiert). Anhand<br />
dieser wird die Form von Wissen, die in Designprozessen<br />
gewonnen wird, einführend dargelegt:<br />
Bei der Planung wird die Designhypothese generiert,<br />
die die Form einer präskriptiven Aussage hat.<br />
Zur Formulierung einer Designhypothese lässt sich<br />
die folgende Form nutzen: Wenn, unter den Bedingungen<br />
K1, K2, ... Kn, das Artefakt mit seinen spezi-
12 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
fischen Qualitäten Q1, Q2, ... Qn eingebracht wird,<br />
dann sollte dies das Auftreten des Mechanismus M<br />
unterstützten/zur Folge haben und dadurch zu den<br />
Zuständen/Ereignissen Z1,Z2, ... Zn führen. Die Bedingungen,<br />
unter denen die Intervention (Einsatz des<br />
Artefakts und pädagogisch-didaktische Maßnahmen)<br />
wirksam werden soll und die Intervention selbst,<br />
können in Form von Faktoren beschrieben werden.<br />
In Erweiterung der allgemeinen Designtheorie von<br />
Goldkuhl (siehe Abb. 4) können auch Erklärungen<br />
für die angenommene Wirksamkeit formuliert<br />
werden: Welcher Mechanismus kann die Transformation<br />
erklären? Vor und auch während der Intervention<br />
werden neben der Designhypothese alternative<br />
Hypothesen gebildet, denn es könnte auch<br />
andere Gründe und Erklärungen für die Transformation<br />
geben: es ist denkbar, dass andere Faktoren<br />
als die Intervention selbst zum Ziel führen.<br />
▸ Die empirische Fundierung: Die pädagogische<br />
Planung bzw. der Prototyp kommt in einem lokalen<br />
Kontext zum Einsatz. Aktion x’ sowie<br />
Effekt y’ und Kontext z’ können beschrieben<br />
Abbildung 4: Allgemeine Designtheorie nach Goldkuhl (2004), annotiert und verändert<br />
werden. Die entstehenden Nutzungs- und Wissenspraktiken<br />
können beobachtet werden und die Designhypothese<br />
kann geprüft werden. Alternative<br />
Hypothesen und Erklärungen können ggf. in der<br />
empirischen Fundierung ausgeschlossen werden.<br />
Die alternativen Hypothesen können bestätigt<br />
werden falls der beobachtete Effekt y’ vom geplanten<br />
Ziel y abweicht oder falls andere generative<br />
Mechanismen als die angenommenen die<br />
Wirkung besser erklären.<br />
▸ Die theoretische Fundierung: Präskriptive und<br />
empirische Aussage werden auf Konsistenz zu externen<br />
wissenschaftlichen und technologischen<br />
Theorien geprüft. Durch abduktives Schließen<br />
kann ein Schluss auf die beste Erklärung gewonnen<br />
werden.<br />
▸ Ethische Entscheidungsmöglichkeiten: Der<br />
Designer hat Verantwortung bezüglich der Visionen<br />
und Werte, die seinem Design zugrunde<br />
liegen.
▸ Ontologien und Begriffe: In Bezug auf den Gegenstandbereich<br />
und das Design liegen weitere<br />
Rahmenkonzepte zugrunde, die die Konzeption<br />
beschreibbar machen.<br />
Ergebnis der Untersuchung ist eine Erklärung der<br />
Mechanismen und unter welchen Bedingungen sie<br />
wirksam werden. Die Generierung und Modellierung<br />
von Designwissen kann in allen Phasen des Designprozesses<br />
stattfinden. Die Artikulation des Designwissens,<br />
das in Lehr-Lernkontexten generiert wird,<br />
unter Nutzung einer Modellierungssprache, stellt<br />
letztendlich die Beschreibung eines didaktischen Modells<br />
dar.<br />
9. Zusammenfassung<br />
Pädagogische Situationen sind offen, komplex, zielorientiert,<br />
einem Ziel verpflichtet, situationsgebunden,<br />
einmalig, unvorhersehbar, inhomogen und<br />
finden unter gegebenen lokalen Bedingungen statt.<br />
Designer entwickeln Strategien und Vorgehensweisen,<br />
um in solchen Problemlagen Lösungen zu<br />
finden: Designerisches Denken erfordert Kreativität<br />
und produktives Denken um kontingente Lösungen<br />
zu entwickeln, die sich nicht direkt aus einer Analyse<br />
ableiten lassen. Design bedeutet jedoch auch Methoden<br />
und Vorgehensweisen, die beschreibbar, systematisierbar<br />
und erlernbar sind, zu nutzen. Dieses<br />
Kapitel entwickelte einen Designansatz zur Lösungsfindung,<br />
das heißt zur Planung eines Lehr-/Lern-Szenarien<br />
in dem die Interaktion mit Technologien eine<br />
Rolle spielt. Der Designprozess wurde als objektorientierte<br />
Untersuchung angelegt. Durch die Formulierung<br />
von Designhypothesen und Fragen, durch die<br />
Konzeption und Erprobung von Prototypen und die<br />
Erklärung der Veränderung von Wissenspraktiken,<br />
wird Wissensgenerierung durch Design angestrebt.<br />
Die materiale/zeichenhafte Qualität des Artefakts als<br />
Untersuchungsinstrument wird in die Hypothese<br />
(Designhypothese) einbezogen. Pädagoginnen und<br />
Pädagogen sind als Designerinnen und Designer befähigt,<br />
konzeptionelle Ideen in die Technologieentwicklung<br />
einzubringen und mittels Designrepräsentationen<br />
zu formulieren. Zu den Designwissenschaften<br />
kann die Pädagogik in mehrfacher Hinsicht beitragen:<br />
Zum einen kann sie in wissensintensiven Gegenstandsbereichen<br />
durch designgetriebene Prozesse<br />
konzeptionelle Innovation generieren zum anderen<br />
kann sie wissensgenerierende Prozesse im Design<br />
fördern und untersuchen. Sie kann die Entwicklung<br />
didaktischer Modelle als Design anlegen und den<br />
Status von Designwissen wissenschaftstheoretisch<br />
fundieren.<br />
Designentwicklung. Anregungen aus Designtheorie und Designforschung— 13<br />
Danksagung<br />
Wir danken unseren Studierenden an der FH Oberösterreich,<br />
Studiengang Kommunikation, Wissen, Medien und an der<br />
Christian-Albrechts-Universität zu Kiel, Institut für Pädagogik,<br />
Schwerpunkt Medienpädagogik/Bildungsinformatik für die Erprobung<br />
des Ansatzes Design als Wissensgenerierung als Forschungsansatz<br />
und für die Bereitstellung zahlreicher Designrepräsentationen<br />
und Designideen für unsere Untersuchung der<br />
Rolle und materialen/zeichenhaften Qualität von epistemischen<br />
Artefakten in Wissensgenerierungsprozessen. Ein Beispiel<br />
aus der Praxis von Florian Scheppelmann und Sven Meier<br />
(Sommersemester 2010) kann auf den eigens für dieses Kapitel<br />
bereitgestellten Wikiseiten unter der folgenden Adresse abgerufen<br />
werden: http://ukzizm-s04.izm.uni-kiel.de/tiki5/tiki-index.php?page=L3T-Startseite.<br />
Für Rückmeldungen auf frühere<br />
Versionen des Textes, die erheblich zur Verbesserung beigetragen<br />
haben, danke ich den MitarbeiterInnen am Institut für<br />
Pädagogik, Abteilung Medienpädagogik/Bildungsinformatik,<br />
insbesondere Dr. F.-W. Lehmhaus, Dr. W. v. Grone-Lübke und<br />
G. Tanski, StR i.H.<br />
Weiterführende Literatur<br />
▸ Buchenau, M. & Suri, J. F. (2000). Experience Prototyping. Designing<br />
Interactive Systems. In: Proceedings of the 3rd Conference<br />
on Designing Interactive Systems: Processes, Practices,<br />
Methods, and Techniques. New York: ACM, 424-433.<br />
▸ Buxton, B. (2007). Sketching User Experience: Getting the<br />
Design Right and the Right Design. Amsterdam: Morgan<br />
Kaufmann, Elsevier.<br />
▸ Cross, N. (2007). Designerly Ways of Knowing. Berlin: Birkhäuser<br />
Architektur.<br />
▸ Lawson, B. (2005). How Designers Think: The Design Process<br />
Demystified. Amsterdam: Architectural Press, Elsevier.<br />
▸ Löwgren, J.& Stolterman, E. (2007). Thoughtful Interaction<br />
Design: A Design Perspective on Information Technology.<br />
Cambridge: MIT Press.<br />
Literatur<br />
▸ Allert, H., Richter, C. (2009). Design as Open-Ended Inquiry.<br />
In: V. Hornung-Prähauser, M. Luckmann & D. Wieden-Bischof<br />
(Hrsg.), Creativitiy and Innovation Competencies on the Web -<br />
How does the "new" emerge with the support of Web Technologies.<br />
Salzburg: Salzburg Research, 206-221.<br />
▸ Boedker, S.; Andersen, P. B. (2005). Complex Mediation.<br />
Human-Computer Interaction, 20(1), 353-402.<br />
▸ Brown, A.L. (1992). Design Experiments: Theoretical and Methodological<br />
Challenges in Creating Complex Interventions in<br />
Classroom Settings. The Journal of the Learning Sciences, 2(2),<br />
141-178.<br />
▸ Carroll, J. (2004). Completing Design in Use: Closing the Appropriation<br />
Cycle. URL:<br />
http://citeseerx.ist.psu.edu/viewdoc/summary?<br />
doi=10.1.1.144.800 [2010-07-10].
14 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
▸ Collins, A. (1992). Toward a design science of education. In: E.<br />
Scanlon & T. O’Shea (Hrsg.), New Directions in Educational<br />
Technology, Berlin/Heidelberg: Springer.<br />
▸ Coyne, R. (1988). Logic Models of Design. New York: Routledge.<br />
▸ Cross, N. (1995). Discovering Design Ability. In: R. Buchanan<br />
& V. Margolin (Hrsg.), Discovering Design: Explorations in<br />
Design Studies. London: University of Chicago Press.<br />
▸ Eisenstein, E. (1997). Die Druckerpresse. Kulturrevolutionen<br />
im frühen modernen Europa. Wien: Springer.<br />
▸ Engeström, Y. (2005). Developmental Work Research: Expanding<br />
Activity Theory in Practice. Berlin: Lehmanns Media.<br />
▸ Fallman, D. (2003). Design-oriented Human-Computer Interaction.<br />
In: Proceedings of the Conference on Human Factors<br />
in Computing Systems, CHI 2003. ACM Press, 225–232.<br />
▸ Findeli, A.; Brouillet, D.; Martin, S.; Moineau, C. & Tarrago, R.<br />
(2008). Research Through Design and Transdisciplinarity: A<br />
Tentative Contribution to the Methodology of Design Research.<br />
Bern: Swiss Design Network Symposium, 67-98.<br />
▸ Gedenryd, H. (1998). How Designers Work. Lund: University<br />
of Lund.<br />
▸ Giesecke, M. (1991). Der Buchdruck in der frühen Neuzeit.<br />
Eine historische Fallstudie über die Durchsetzung neuer Informations-<br />
und Kommunikationstechnologien. Frankfurt am<br />
Main: Suhrkamp.<br />
▸ Goldkuhl, G. (2004). Design Theories in Information Systems<br />
- A Need for Multi-Grounding. Journal of Information Technology<br />
Theory and Application (JITTA), 6(2), 2004, 59-72.<br />
▸ Kelly, A.E.; Lesh, R.A. & Baek, J.Y. (2008). Handbook of<br />
Design Research Methods in Education - Innovations in<br />
Science, Technology, Engineering, and Mathematics Learning<br />
and Teaching. New York: Routledge.<br />
▸ Knorr-Cetina, K. (2002). Wissenskulturen: Ein Vergleich naturwissenschaftlicher<br />
Wissensformen. Frankfurt am Main:<br />
Suhrkamp.<br />
▸ Kuutti, K. (1996). Activity theory as a Potential Framework for<br />
Human-Computer Interaction Research. In: B. Nardi (Hrsg.),<br />
Context and Consciousness: Activity Theory and Human<br />
Computer Interaction. Cambridge: MIT Press, 17-44.<br />
▸ Latour, B. (2010). Eine neue Soziologie für eine neue Gesellschaft:<br />
Einführung in die Akteur- Netzwerk-Theorie. Frankfurt<br />
am Main: Suhrkamp.<br />
▸ Mareis, C. (2010). Interferenzen zwischen Designwissenschaft<br />
und Wissenschaftsforschung. In: F. Romero-Tejedor & W.<br />
Jonas (Hrsg.), Positionen der Designwissenschaft. Kassel:<br />
Kassel University Press.<br />
▸ Preece, J.; Rogers, Y. & Sharp, H. (2002). Interaction Design:<br />
Beyond Human-Computer Interaction. New York: Wiley.<br />
▸ Reeves, T. C. (2006). Design Research from a Technology Perspective.<br />
In: J. Van den Akker; K. Gravemeijer; S. McKenney &<br />
N. Nieveen (Hrsg.), Educational Design Research. Milton Park:<br />
Routledge.<br />
▸ Reigeluth, C. & Schank, R. C. (1999). Instructional Design<br />
Theories and Models: A New Paradigm of Instructional<br />
Theory. Hillsdale: Lawrence Erlbaum Ass..<br />
▸ Schnotz, W. (2009). Pädagogische Psychologie. Weinheim:<br />
Beltz.<br />
▸ Schön, D.A. (1983). The Reflective Practitioner: How Professionals<br />
think in Action. London: Maurice Temple Smith.<br />
▸ Shamiyeh, M. (2010). Creating Desired Futures: How Design<br />
Thinking Innovates Business. Berlin: Birkhäuser Architektur.<br />
▸ Simon, H. A. (1969). Science of the Artificial. Cambridge: MIT<br />
Press.<br />
▸ Stephan, P. F. (2006). Nicht-Wissen als Ressource sowie sieben<br />
Thesen zu künftiger Wissensarbeit. P. F. Stephan & U.<br />
Bleimann (Hrsg.), Zeitschrift für interaktive und kooperative<br />
Medien 2, 4-11.<br />
▸ Stephan, P. F. (2009). Design Thinking. URL: http://www.peterstephan.org/themen/designthinking<br />
[2010-10-20].<br />
▸ Van den Akker, J. (1999). Principles and methods of developmental<br />
research. In: J. van der Akker; R.M. Branch; K. Gustafson;<br />
N. Nieveen & T. Plomp (Hrsg.), Design Approaches<br />
and Tools in Education and Training, Boston: Kluwer Academic<br />
Publishers.<br />
▸ Wood, J. (2007). Design for Micro-Utopias: Making the Unthinkable<br />
Possible. Hampshire, UK: Gower.
Sabine Zauchner<br />
Geschlechterforschung<br />
Ihr Blick auf das Lernen und Lehren mit neuen Technologien<br />
Der Beitrag vermiEelt einen Überblick über die grundlegenden Konzepte der Geschlechterforschung und<br />
deren Bedeutung für das Lernen und Lehren mit neuen Technologien. Einleitend werden der Begriff<br />
„Gender“ sowie das Konzept des „Doing Gender“ erklärt und das Erkenntnisinteresse der Geschlechterfor-‐<br />
schung dargelegt. Es lassen sich im Wesentlichen drei Ansätze – Gleichheitsansatz, Differenzansatz und<br />
(De-‐) KonstrukCvismus – unterscheiden, deren zentrale Fragestellungen im Kontext des Lernens und<br />
Lehrens mit neuen Technologien vorgestellt werden. Dabei werden neben den Forschungsergebnissen der<br />
Bildungsforschung oder der MedienwissenschaHen vor allem die Theoriebildung und Forschungsergeb-‐<br />
nisse der Geschlechterforschung in der Technik breit rezipiert. Insbesondere das Verständnis von Techno-‐<br />
logie als soziale KonstrukCon war bedeutsam für die Entwicklung des Konzepts der „sozialen Co-‐Kon-‐<br />
strukCon von Gender und Technologie“, das in seiner Bedeutung für die Forschung zum Lernen und Lehren<br />
mit neuen Technologien beschrieben wird.<br />
Quelle: Lisa Norwood<br />
hEp://www.flickr.com/photos/lisanorwood/1348465462/ [2011-‐01-‐10]<br />
Jetzt Pate werden!<br />
#gender<br />
#spezial<br />
#theorieforschung<br />
Version vom 1. Februar 2011<br />
Für dieses Kapitel wird noch ein Pate gesucht,<br />
mehr InformaConen unter: hEp://l3t.eu/patenschaH
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Konzept von Gender und Genderforschung<br />
Der Begriff „Gender“ ist seit nunmehr einigen Jahrzehnten<br />
in wissenschaftlichen Diskursen verankert.<br />
Unter Gender werden gesellschaftliche Geschlechterrollen<br />
und Geschlechterverhältnisse v e rstanden.<br />
Dabei handelt es sich um allgemeine Vorstellungen<br />
und Erwartungen dahingehend, wie<br />
Frauen und Männer sind beziehungsweise sein<br />
sollten. Gender bezeichnet alles, was in einer Kultur<br />
als typisch für ein bestimmtes Geschlecht angesehen<br />
wird. Diese Sichtweise ist gekennzeichnet<br />
durch ein Verständnis von Geschlecht als sozial konstruiert.<br />
Geschlechtliches Positionieren und Verhalten<br />
ist ein zentraler Anspruch der Gesellschaft an Individuen.<br />
Geschlechtsbezogene Identifikationsprozesse<br />
beinhalten komplexe Aneignungsprozesse vorgegebener<br />
sozialer Identitätsangebote. Die Zuordnung zu<br />
einem Geschlecht wird – entlang der gesellschaftlich<br />
gegebenen Geschlechterordnung – ständig neu hergestellt<br />
und ist damit veränderbar. Das Konzept des<br />
„Doing Gender“ (West & Zimmermann, 1987) wird<br />
hierbei als Synonym für die Sichtweise der sozialen<br />
Konstruktion – für das aktive Herstellen – von Geschlecht<br />
verstanden.<br />
Gender ist eine fundamentale Analysekategorie,<br />
die Kultur und Gesellschaft nicht nur prägt, sondern<br />
auch deren kulturelle Bedeutungsgebung organisiert.<br />
Es gibt keine soziale Situation, in der es ohne Belang<br />
ist, ob wir als Frau oder Mann gesehen werden und<br />
welche Zuschreibungen in Abhängigkeit von zahlreichen<br />
Faktoren wie Alter, Ausbildung, beruflicher<br />
Stellung, kultureller und nationaler Herkunft damit<br />
einhergehen. Die Wechselwirkungen von Diskriminierungen<br />
vielfacher sozialer Ungleichheiten wie Geschlecht<br />
und Klassen- beziehungsweise Schichtzugehörigkeit,<br />
ethnische Zugehörigkeit, sexuelle Orientierung,<br />
Religion, Alter oder (körperliche) Behinderung<br />
stehen im Rahmen der Geschlechterforschung<br />
im Zentrum des Konzeptes der Intersektionalität.<br />
Damit trägt die Geschlechterforschung der an<br />
sie herangetragenen Kritik eines Reduktionismus<br />
Rechnung, sich auf die Strukturkategorie Geschlecht<br />
alleine zu beschränken, ohne die Wechselwirkungen<br />
mit anderen sozialen Ungleichheiten zu betrachten<br />
(Lenz, 2010).<br />
Geschlechtszugehörigkeit strukturiert unseren<br />
Alltag; sie ist „omnirelevant“ und sie wird von Individuen<br />
in Interaktion mit gesellschaftlichen Bedingungen<br />
in einem permanenten, alltäglichen interaktiven<br />
Prozess immer wieder hergestellt und gefestigt<br />
(Gildemeister, 2008).<br />
!<br />
Unter „Gender“ werden gesellschaHliche Geschlech-‐<br />
terrollen und Geschlechterverhältnisse verstanden.<br />
Gender wird entlang gesellschaHlich gegebener Ge-‐<br />
schlechterordnungen ständig neu hergestellt und ist<br />
damit veränderlich. Die Geschlechterforschung zielt<br />
darauf ab, Mechanismen offen zu legen, die zu Zu-‐<br />
schreibungen besCmmter EigenschaHen, Erwartungen<br />
oder Verhaltensmuster an die Geschlechter be-‐<br />
sCmmen.<br />
Ausgehend von dieser Begriffsdefinition zielt die Geschlechterforschung<br />
darauf ab, jene Mechanismen offenzulegen,<br />
in denen Gender – die Zuschreibung von<br />
Geschlecht und die damit einhergehende Hierarchisierung<br />
– wirksam wird. Die Genderforschung hat<br />
auf vielfältige Weise Eingang in unterschiedliche<br />
Fachdisziplinen gefunden und hat sich aber auch als<br />
eigenes – interdisziplinäres – Fachgebiet etabliert.<br />
2. Ansätze und Fragestellungen der Genderforschung im<br />
Kontext des Lernen und Lehrens mit Technologien<br />
Im Versuch einer Systematisierung der heterogenen<br />
Ansätze der Genderforschung lassen sich im Wesentlichen<br />
drei Perspektiven in ihrer historischen Entwicklung<br />
abgrenzen, die in der Folge kurz umrissen<br />
werden. Dieser Versuch der Systematisierung ist mit<br />
einer gewissen Unschärfe belegt, wie es wohl auch für<br />
jegliche Taxonomie gelten mag. Allerdings stellt er<br />
aus Sicht der Autorin eine praktikable Basis für die<br />
Einordnung der Ansätze der Genderforschung dar.<br />
Aktuell stehen zwar insbesondere (de-) konstruktivistische<br />
Ansätze im Zentrum der Diskussion, aber<br />
auch frühere Ansätze behalten in ihren gesellschaftspolitischen<br />
und inhaltlichen Anliegen bis heute ihre<br />
Gültigkeit. Die Ansätze gelten trotz zum Teil heftig<br />
geführter Debatten nicht als überholt, vielmehr kritisieren<br />
und/oder ergänzen sie sich gegenseitig.<br />
Der Ursprung der Frauenforschung in den 1960er<br />
Jahren wird im Gleichheitsansatz gesehen. Dieser<br />
Ansatz entsprang einer parteiischen Perspektive, in<br />
der davon ausgegangen wurde, dass sich sowohl die<br />
Wissenschaft als auch die Gesellschaft aus Frauensicht<br />
anders darstellte. Im Zentrum steht die Forderung<br />
nach der Gleichberechtigung der Geschlechter.<br />
Es wird von einer Gleichheit der Geschlechter<br />
ausgegangen und Geschlechterunterschiede werden<br />
als gesellschaftlich bedingt erklärt. Die Fragestellungen<br />
im Rahmen des Gleichheitsansatzes untersuchen,<br />
wie Frauen aufgrund gesellschaftlicher Mechanismen<br />
diskriminiert werden.<br />
Im Kontext des Lernens und Lehrens mit neuen<br />
Technologien steht hier beispielsweise die Frage im<br />
Zentrum, wie sich die gesellschaftliche Stellung der
Geschlechterforschung. Ihr Blick auf das Lernen und Lehren mit neuen Technologien — 3<br />
Geschlechter in der Technologieentwicklung abbildet.<br />
Aber auch der Zugang zu Technologien beziehungsweise<br />
aus einer bildungswissenschaftlichen Perspektive<br />
der Zugang zu Bildung im Allgemeinen oder<br />
stereotype mediale Repräsentationen von Männern<br />
und Frauen werden hier thematisiert.<br />
Unter Differenzansätzen sind all jene Theorien<br />
und Konzepte subsumiert, die von Geschlechtsunterschieden<br />
zwischen Männern und Frauen ausgehen.<br />
Der Ansatz basiert auf der Annahme unterschiedlicher<br />
Lebensäußerungen von Männern und Frauen<br />
durch die Einbindung in unterschiedliche Lebenswelten.<br />
Fragestellungen, die sich aus dieser Perspektive für<br />
das Lernen und Lehren mit neuen Technologien ergeben,<br />
sind beispielsweise das Internet-Nutzungsverhalten<br />
oder die Internetkompetenzen von Männern<br />
und Frauen, die Interessen für oder Einstellungen gegenüber<br />
neuen Technologien, Computern oder elektronischen<br />
Spielen. Aber auch geschlechtsspezifische<br />
Präferenzen für bestimmte didaktische Modelle<br />
stehen im Zentrum der Untersuchungen. Zu diesen<br />
Fragen liegt mittlerweile eine relativ breite Forschungsbasis<br />
vor (für einen Überblick vgl. Abbot et<br />
al., 2007). Kritisch wird an Differenzansätzen angemerkt,<br />
dass sie alleine durch die Benennung geschlechtsspezifischer<br />
Unterschiede – aber noch mehr<br />
durch die Einbeziehung dieser Forschungsergebnisse<br />
in die Gestaltung technologieunterstützter Lernszenarien<br />
– zu einer Festschreibung dieser Unterschiede<br />
beitragen und damit strukturell symbolische Hierarchisierungen<br />
reproduziert werden.<br />
So wird in Ansätzen des (De-) Konstruktivismus<br />
das Augenmerk auf die gesellschaftliche Konstruktion<br />
der Zweigeschlechtlichkeit gelegt. Es wird<br />
davon ausgegangen, dass wir nicht zweigeschlechtlich<br />
geboren werden (Hageman-White, 1988). Das Augenmerk<br />
wird hierbei auf die Herstellung des sozialen<br />
Geschlechts – auf das „Doing Gender“– in Interaktionen<br />
und sozialen Prozessen gelegt: Gender<br />
wird in permanenten Zuschreibungs-, Wahrnehmungs-<br />
und Darstellungsroutinen reproduziert, die<br />
sich lebensgeschichtlich verfestigen und identitätswirksam<br />
sind. Dem Doing Gender kommt damit eine<br />
weitreichende Bedeutung in der Konstruktion von<br />
Weiblichkeit und Männlichkeit zu (Abschnitt 1).<br />
Während sowohl Gleichheits- als auch Differenzansatz<br />
davon ausgehen, dass das biologische und<br />
das soziale Geschlecht analytisch voneinander getrennt<br />
werden können, wird diese zentrale Annahme<br />
der frühen Geschlechterforschung im Dekonstruktivismus<br />
verneint. Judith Butler (1990; 1991) als wohl<br />
prominenteste Vertreterin dieser Richtung versteht<br />
nicht nur Gender, sondern auch das biologische Geschlecht<br />
(Sex) als diskursive Konstruktion, die permanent<br />
performativ – das heißt im ständigen Zitieren<br />
von (Geschlechter-)normen – hergestellt wird. Im<br />
Dekonstruktivismus steht einerseits die Dekonstruktion<br />
von Dichotomien allgemein, aber auch des<br />
Systems der Zweigeschlechtlichkeit im Vordergrund.<br />
Zwar wird in diesem theoretischen Ansatz das gleiche<br />
„Material“ für die Analyse herangezogen, es ist aber<br />
nicht das Herausarbeiten von Unterschieden, welcher<br />
die Forschungsfragen hier bestimmt, vielmehr interessiert<br />
die Dekonstruktion von Geschlechterpolaritäten<br />
wie beispielsweise die Differenz von Entwicklern<br />
beziehungsweise Entwicklerinnen und Nutzenden<br />
von Technologien. Unterschiede zwischen<br />
den Geschlechtern interessieren somit in ihrer<br />
Funktion zur Herstellung und Aufrechterhaltung der<br />
Zweigeschlechtlichkeit.<br />
Im Kontext des Lernens und Lehrens mit neuen<br />
Technologien, werden neben den Forschungsergebnissen<br />
der Bildungsforschung oder der Medienwissenschaften<br />
insbesondere Theoriebildung und Forschungsergebnisse<br />
der Geschlechterforschung in der<br />
Technik rezipiert. Auf die Zusammenhänge von Geschlecht<br />
und Technologie wird daher auch schwerpunktmäßig<br />
in der Folge eingegangen.<br />
!<br />
?<br />
Es lassen sich im Wesentlichen drei Ansätze der Ge-‐<br />
schlechterforschung in ihrer zeitlichen Abfolge unter-‐<br />
scheiden: Gleichheitsansatz, Differenzansatz und (De-‐)<br />
KonstrukCvismus. Deren inhaltliche und gesellschaHs-‐<br />
poliCsche Schwerpunktsetzungen besCmmen die for-‐<br />
schungsleitenden Fragestellungen im Kontext des<br />
Lehrens und Lernens mit neuen Technologien.<br />
Beschreiben Sie die wesentlichen Eckpunkte der An-‐<br />
sätze in der Geschlechterforschung. Wo würden Sie<br />
Ihre eigene PosiCon am ehesten verorten? Welche<br />
Vor-‐ beziehungsweise Nachteile entdecken Sie in-‐<br />
nerhalb der Ansätze?<br />
3. Gender und (neue) Technologie<br />
Bis in die späten 80er Jahre des 20. Jahrhunderts war<br />
das Konzept des technologischen Determinismus das<br />
vorherrschende Modell in der Gender- und Technologie-Debatte.<br />
In dieser mittlerweile in den Sozialund<br />
Kommunikationswissenschaften als überholt angesehenen<br />
Theorieströmung wird davon ausgegangen,<br />
dass Technik soziale, politische und kulturelle<br />
Veränderungen beziehungsweise Anpassungen nach<br />
sich zieht und dass sozialer und kultureller Wandel<br />
eine Folge technologischer Entwicklungen seien. Die
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
feministische Forschung in der Tradition der Gleichheitsansätze<br />
konzentrierte sich dabei primär auf die<br />
Fragestellungen dahingehend, wie technologische<br />
Entwicklungen Gender-Hierarchien reproduzieren<br />
können. Der Tenor ging weitgehend in die Richtung<br />
pessimistischer Einschätzungen im Hinblick darauf,<br />
dass Frauen Raum im Bereich der männlich dominierten<br />
und patriarchal organisierten Technologie zugestanden<br />
werden könnte. Technologie wurde primär<br />
als eine negative Kraft betrachtet, die Geschlechterhierarchien<br />
vielmehr reproduziert und damit eine<br />
weitere Verfestigung der strukturellen Benachteiligung<br />
von Frauen fördert, als zu einer Transformation<br />
der Geschlechterverhältnisse beizutragen.<br />
Diese negative Sichtweise der Bedeutung von<br />
Technologien für die Geschlechterfrage wich in der<br />
weiteren Entwicklung feministischer Theorien positiveren<br />
Vorstellungen, die sich insbesondere der Betrachtung<br />
von Frauen als Opfer der gesellschaftlichtechnischen<br />
Gegebenheiten entgegenstellten. Die<br />
bahnbrechenden Arbeiten von Haraway (1991), die in<br />
ihrem „A Cyborg Manifesto“ dazu ermutigt und auffordert,<br />
das positive Potential von Technologien<br />
wahrzunehmen, sind kennzeichnend für diese Perspektivenänderung<br />
in der Gender- und Technologie-<br />
Debatte. Im Kontext neuer Technologien wird hier<br />
insbesondere auf Möglichkeiten hingewiesen, die das<br />
Internet für die Exploration von oder das Experimentieren<br />
mit neuen und anderen Aspekten des<br />
Selbst bieten kann (Turkle, 1995). Unterstützt wird<br />
diese Sichtweise dadurch, dass es gerade in der Altersklasse<br />
der Jugendlichen und jungen Erwachsenen<br />
in der westlichen Welt in Bezug auf den zeitlichen<br />
Umfang der Internet-Nutzung zu einer Annäherung<br />
der Geschlechter kommt, auch wenn Unterschiede<br />
im Nutzungsverhalten, beispielsweise bei Computerspielen,<br />
weiterhin bestehen bleiben (Dholakia et al.,<br />
2004).<br />
Die soziale KonstrukEon von Technologie<br />
Das Verständnis von Technologie als soziale Konstruktion<br />
(„Social construction of Technology“,<br />
Pinch & Bijker, 1985) kann hier als impulsgebend für<br />
die feministische Forschung angesehen werden. Es<br />
wird davon ausgegangen, dass nicht die Technologie<br />
das menschliche Handeln bestimmt, sondern dass das<br />
menschliche Handeln die Technologie bestimmt. Die<br />
Art und Weise wie Technologie verwendet wird, kann<br />
nicht ohne den sozialen Kontext, in den sie eingebettet<br />
ist, verstanden werden. Vertreter/innen dieser<br />
Theorie gehen davon aus, dass Technologie deshalb<br />
„funktioniert“ beziehungsweise „nicht funktioniert“,<br />
weil sie von bestimmten sozialen Gruppen akzeptiert<br />
beziehungsweise nicht akzeptiert wird. Zentral aus<br />
der Gender-Perspektive ist hier das Konzept der interpretativen<br />
Flexibilität; das bedeutet, dass Technologien<br />
bei unterschiedlichen sozialen Gruppen unterschiedliche<br />
Bedeutungen haben können. So kann<br />
Lerntechnologie für Lernende eine organisatorische<br />
Notwendigkeit bedeuten, die Partizipation an Lernprozessen<br />
überhaupt erst ermöglicht. Für Lehrende<br />
wiederum kann die Möglichkeit einer qualitativen<br />
Verbesserung von Lehr-/Lern-Prozessen im Vordergrund<br />
stehen, während auf strategischer Ebene die<br />
Notwendigkeit des Reüssierens am (Weiter-) Bildungsmarkt<br />
im Vordergrund stehen kann.<br />
Derartige „relevante soziale Gruppen“ zeichnen<br />
sich dadurch aus, dass sie ein gleiches (beziehungsweise<br />
zwischen den Gruppen divergierendes) Verständnis<br />
der Bedeutung der Technologie haben, und<br />
sind dafür bestimmend, wie die Technologie gestaltet<br />
wird. Designentscheidungen orientieren sich so an<br />
den jeweiligen Kriterien der spezifischen Gruppen.<br />
Beim oben genannten Beispiel könnten dies neben<br />
einer Vielzahl anderer Kriterien für die Lernenden<br />
die Eignung für mobile Applikationen, für Lehrende<br />
die Möglichkeit, didaktische Funktionalitäten abzubilden<br />
und Adaptierbarkeit sein. Auf Ebene der Organisation<br />
wiederum können Servererfordernisse<br />
oder auch die Anbindungsmöglichkeit an die hauseigenen<br />
Verwaltungssysteme die relevanten Kriterien<br />
sein. Wenn Technologien also in unterschiedlichen<br />
sozialen Gruppen jeweils unterschiedliche Bedeutungen<br />
haben, gibt es folglich auch entsprechend<br />
viele unterschiedliche Arten, Technologien zu gestalten.<br />
Diese Sichtweise impliziert eine Sichtweise<br />
des Prozesses der Technikgestaltung als grundsätzlich<br />
verhandelbar und offen. Sehr schön zu beobachten<br />
war dieser Aushandlungsprozess in der Entwicklungsgeschichte<br />
von Lernplattformen, die ursprünglich<br />
sehr stark an der Technik orientiert waren,<br />
und bei denen erst in einem zweiten Entwicklungsstadium<br />
didaktische Aspekte verstärkt in den Vordergrund<br />
gestellt wurden.<br />
Auch wenn davon ausgegangen werden kann, dass<br />
die „relevanten sozialen Gruppen“, die in Verhandlungen<br />
beziehungsweise Kontroversen im Hinblick<br />
auf eine neue Technologie treten, nur zu einem geringen<br />
Teil aus Frauen bestehen, und damit tendenziell<br />
eine genderspezifische Analyse nicht stattfindet,<br />
entsteht hier ein Verständnis von Technologie, das<br />
entscheidend durch die sozialen Umstände sowie Gegebenheiten<br />
und damit natürlich auch durch die Geschlechterverhältnisse<br />
geprägt wird, in denen die<br />
Technologie entsteht.
!<br />
Geschlechterforschung. Ihr Blick auf das Lernen und Lehren mit neuen Technologien — 5<br />
Der technologische Determinismus wurde in der<br />
Gender-‐ und TechnologiedebaEe durch ein Ver-‐<br />
ständnis von Technologie als sozial konstruiert ab-‐<br />
gelöst. Das Konzept der interpretaCven Flexibilität<br />
geht davon aus, dass Technologien in unterschied-‐<br />
lichen Gruppen unterschiedliche Bedeutungen haben<br />
und es folglich viele Gestaltungsmöglichkeiten gibt:<br />
Damit wird der Prozess der Technikgestaltung als<br />
offen und verhandelbar verstanden.<br />
Die soziale Co-‐KonstrukEon von Geschlecht und Tech-‐<br />
nologie<br />
In der aktuellen Gender und Technologie-Debatte<br />
trifft das Konzept der sozialen Co-Konstruktion von<br />
Gender und Technologie auf breite Zustimmung (für<br />
einen Überblick vgl. Grint & Gill, 1995). Dabei wird<br />
davon ausgegangen, dass Gender und Technologie in<br />
einem wechselseitigen, flexiblen und formbaren Verhältnis<br />
zueinander stehen. Technologie, wird wie<br />
oben bereits festgestellt, nicht als neutral beziehungsweise<br />
wertfrei angesehen. Vielmehr wird argumentiert,<br />
dass soziale Beziehungen in Techniken und<br />
Werkzeugen „eingeschrieben“ sind, dass sich die Geschlechterverhältnisse<br />
in der Technologie sozusagen<br />
materialisieren. Technologien spiegeln somit die Geschlechterteilung<br />
beziehungsweise Ungleichheiten<br />
wider. Sie sind sowohl Grund für die als auch Konsequenz<br />
der Geschlechterverhältnisse (Wajcman, 2010).<br />
In der Praxis: Das Sparkling Science Projekt<br />
Das Sparkling Science Projekt fe|male (hEp://www.fe-‐ma-‐<br />
le.net) untersucht Web-‐2.0-‐Technologien unter dem Gen-‐<br />
deraspekt und erforscht deren Einsatzmöglichkeiten im<br />
Unterricht. Dabei wird, wie in diesem Kapitel dargestellt,<br />
davon ausgegangen, dass Web-‐2.0-‐Technologien, durch<br />
welche die Grundgedanken des Web, also Nutzungsfreund-‐<br />
lichkeit und ParCzipaCon verstärkt an Bedeutung gewinnen,<br />
zum „Eingangstor“ des Technik-‐Gender-‐Diskurses erklärt<br />
werden können.<br />
Das Projekt setzt an der Lebenswelt der Jugendlichen an.<br />
Unter Mädchen und Buben beliebte soziale Netzwerke (wie<br />
Facebook, MySpace, TwiEer, SchülerVZ) dienten als Ansatz-‐<br />
punkte für die Entwicklung zukünHiger technologieunter-‐<br />
stützter Lernszenarien in der Schule. Diese ApplikaConen<br />
wurden im Rahmen von Projektarbeiten an Schulen imple-‐<br />
menCert und von den beteiligten Schülerinnen und Schülern<br />
sowie Lehrerinnen und Lehrern nach didakCschen und gen-‐<br />
derspezifischen Aspekten im Hinblick auf einen Einsatz im<br />
Unterricht formaCv evaluiert.<br />
!<br />
Das Konzept der sozialen Co-‐KonstrukCon von Ge-‐<br />
schlecht und Technologie geht davon aus, dass<br />
Gender und Technologie in einem wechselseiCgen<br />
Verhältnis zueinander stehen. Technologie, und damit<br />
auch Lerntechnologie, wird nicht als neutral bezie-‐<br />
hungsweise werlrei angesehen, sondern es wird ar-‐<br />
gumenCert, dass soziale Beziehungen in Techniken<br />
und Werkzeugen „eingeschrieben“ sind, dass sich die<br />
Geschlechterverhältnisse zusammen mit der Techno-‐<br />
logie sozusagen materialisieren.<br />
Hier wird Bezug genommen auf die Actors-<br />
Network-Theorie (Callon, 1986; Latour, 2005; siehe<br />
Kapitel #ant), in der das Verhältnis von Technologie<br />
und Gesellschaft durch die Metapher eines heterogenen<br />
Netzwerks beschrieben werden kann, in dem<br />
sich Technologie und Gesellschaft gegenseitig konstituieren.<br />
Die Netzwerke verbinden Menschen und<br />
nicht-menschliche Entitäten, wobei – gerade dieser<br />
Aspekt wird kontrovers diskutiert – beide als Akteure<br />
beziehungsweise Akteurinnen auftreten können. Im<br />
Rahmen dieser Theorie werden Überlegungen angestellt,<br />
wie die Akteurinnen beziehungsweise Akteure<br />
die Nutzenden von Technologien im Lebenszyklus<br />
einer Technologie formen. Designer/innen von<br />
Technologien „schreiben“ ihre Vision der Welt, ihre<br />
Vorstellungen über die Nutzenden der Technologien,<br />
in die Technologie „ein“. Diese „Einschreibung“ ist<br />
allerdings offen für unterschiedliche Übersetzungen<br />
Die Projektergebnisse sprechen dafür, dass Mädchen durch<br />
Web-‐2.0-‐Projekte gut angesprochen werden können:<br />
Obwohl die Projekte sowohl für Buben wie für Mädchen at-‐<br />
trakCv sind, bewerten die Mädchen die mit den Projekten<br />
verbundenen Aspekte der Gruppenarbeit, der InterakCvität<br />
und des selbstorganisierten Lernens deutlich posiCver und<br />
beteiligen sich dementsprechend akCver und erfolgreicher<br />
an den Projekten.<br />
Obgleich der Schluss nahe liegt, dass sich dieses Verhältnis<br />
wieder umkehrt, sobald die Entwicklung der Technologien im<br />
Vordergrund steht und nicht deren Ausgestaltung, wirH dies<br />
die derzeit mit Blick auf männliche Bildungsverlierer rege dis-‐<br />
kuCerte Frage auf, wie Buben in stärkerem Maße in derarCge<br />
Projekte einbezogen und darin gefördert werden können<br />
(Zauchner & Wiesner, in Vorbereitung).
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
durch die Nutzenden, welche die Bedeutung oder die<br />
Nutzung des Artefakts neu verhandeln können. Das<br />
wiederum bedeutet, dass Technologie, ebenso wie<br />
Gender, de-konstruiert werden kann. Weiters wird in<br />
diesem Ansatz die Bedeutung der Nutzerinnen und<br />
Nutzer von Technologien in deren Rolle in der Technologieentwicklung<br />
betont.<br />
Seit den 1990er Jahren wird dabei in der Genderforschung<br />
in der Informatik auf Nutzungsfreundlichkeit<br />
und partizipatives Design gesetzt<br />
(Schelhowe, 2001). Diese Forderung, Technik partizipativ<br />
und nutzungsfreundlich zu gestalten, ist beim<br />
Web 2.0 in dieser Form nicht mehr zu stellen, denn<br />
sie ist, zwar nicht über die Gestaltung sondern durch<br />
die Technologie an sich, bereits weitgehend realisiert.<br />
Nicht zuletzt wird dem Web 2.0 wegen seines offenen,<br />
nutzungsfreundlichen und partizipativen Charakters<br />
somit das Potential zugesprochen, eine Art<br />
„Eingangstor“ für ein neues Geschlechter-Technologie-Verhältnis<br />
zu bilden. Die wenigen empirischen<br />
Untersuchungen über die Nutzung von Web-2.0-<br />
Technologien aus einer Genderperspektive lassen<br />
jedoch noch keine eindeutigen Schlussfolgerungen<br />
zu. Carstensen (2009) fasst ihren Überblick über den<br />
Stand der Forschung wie folgt zusammen: „Wenn wir<br />
uns die frühen Hoffnungen und Befürchtungen aus<br />
feministischer Sicht vergegenwärtigen, erscheint in<br />
Zeiten des Web 2.0 vorerst die männliche Dominanz<br />
nicht mehr gegeben. So werden viele Weblogs von<br />
Frauen geschrieben, speziell von jüngeren Frauen.<br />
Das Internet kann nicht mehr als eine männliche<br />
Technologie angesehen werden - ob es allerdings zu<br />
einem weiblichen Medium geworden ist (...), bleibt<br />
offen“ (S. 118, eigene Übersetzung). Damit bezieht<br />
sich die Autorin darauf, dass Blogs zwar vermehrt<br />
von Frauen geschrieben werden, dass allerdings von<br />
Männern verfasste Blogs, vermutlich auf Grund von<br />
stärker auf Öffentlichkeit hin ausgerichteten Inhalten,<br />
auf mehr Resonanz stoßen. Soziale Netzwerke<br />
oder Wikis wiederum haben einerseits ein<br />
hohes Potential für politische Diskussion und inhaltliche<br />
Vernetzung, gleichzeitig wird die Binarität der<br />
Geschlechter über die Profildarstellungen in sozialen<br />
Netzwerken jedoch weitgehend der „realen Welt entsprechend“<br />
reproduziert.<br />
Jedenfalls ist jedoch festzuhalten, dass in gleicher<br />
Weise, wie jene beim technologiegestützten Lernen<br />
und Lehren eingesetzten Technologien nicht didaktisch<br />
neutral sind, sondern bei der Entwicklung von<br />
Softwarewerkzeugen für Lehr-/Lern-Zwecke immer<br />
auch pädagogische Theorie implementiert wird<br />
(Baumgartner, 2003), Technologie nicht genderneutral<br />
ist. Abbildungen von Genderstrukturen sind<br />
in den (Lehr- und Lern-) Technologien auf den<br />
ersten Blick jedoch schwerer erkennbar, weil durch<br />
Abstraktion und Technisierung „Objektivität“ und<br />
somit vermeintliche Wertefreiheit vermittelt wird.<br />
Laut Schinzel (2005) sind die hierfür nötigen Kategorienbildungen<br />
immer generalisierend, womit sie wiederum<br />
die „Einfallstore“ für genderspezifische Festschreibungen<br />
und Normierungen darstellen.<br />
?<br />
?<br />
?<br />
Danksagung<br />
Ich bedanke mich bei den beiden Gutachterinnen Mag. Veronika<br />
Hornung-Prähauser und Dr. Corinna Barth für ihre<br />
wertvollen inhaltlichen Anregungen<br />
Weiterführende Literatur<br />
▸ Braun, C. v. & Stephan, I. (2005). Gender@Wissen. Ein<br />
Handbuch der Geschlechtertheorien. Köln: Böhlau UTB.<br />
▸ Butler, J. (2004). Undoing Gender. New York: Routledge.<br />
▸ Klein, S.; Richardson, B.; Grayson, D. A.; Fox, L. H.; Kramarae,<br />
C.; Pollard, D. S.; Dwywe, C. A. (2007). Handbook for<br />
Achieving Gender Equity through Education. London: Lawrence<br />
Erlbaum Ass..<br />
▸ Schulz-Schaeffer, I. (2000). Sozialtheorie der Technik.<br />
Frankfurt am Main: Campus.<br />
▸ Trauth, E. M. (2006). Encyclopedia of Gender and Information<br />
Technology. Hershey: Idea Group.<br />
Literatur<br />
DiskuCeren Sie in der Gruppe: Wie könnte ein Unter-‐<br />
suchungsansatz aussehen, der sich zum Ziel setzt, ge-‐<br />
schlechtlichen ‚Einschreibungen’ von Lernplazormen,<br />
Wikis, Blogs (wahlweise) zu analysieren. Was müsste<br />
dabei berücksichCgt werden?<br />
Was ist unter der sozialen Co-‐KonstrukCon von Ge-‐<br />
schlecht und Technologie zu verstehen? Versuchen<br />
Sie, diesen Ansatz einem Kollegen beziehungsweise<br />
einer Kollegin zu erklären.<br />
DiskuCeren Sie in der Gruppe: Eine differenztheore-‐<br />
Csche Betrachtung des Lernens und Lehrens mit<br />
neuen Technologien verfesCgt Stereotypen vielmehr<br />
als zu einer DekonstrukCon der Geschlechterhierar-‐<br />
chien beizutragen. Welche ImplikaConen lassen sich<br />
aus dieser Aussage für die Forschung ableiten?<br />
▸ Abbot, G.; Bievenue, L.; Damarin, S.; Kramarae, C.; Jepkemboi,<br />
G. & Strawn, C. (2007). Gender Equity in the Use of Educational<br />
Technology. In: S. S. Klein; B. Richardson; D A.<br />
Grayson, L. H. Fox; C. Kramarae, D. S. Pollard & C. A. Dwyer
Geschlechterforschung. Ihr Blick auf das Lernen und Lehren mit neuen Technologien — 7<br />
(Hrsg.), Handbook of Achieving Gender Equity through Education.,<br />
London: Lawrence Erlbaum Ass., 191-215.<br />
▸ Baumgartner, P. (2003). Didaktik, E-Learning-Strategien, Softwarewerkzeuge<br />
und Standards - Wie passt das zusammen?. In:<br />
M. Franzen (Hrsg.), Mensch und E-Learning. Beiträge zur eDidaktik<br />
und darüber hinaus., Aarau: Sauerländer, 9-25.<br />
▸ Butler, J. (1990). Gender Trouble: Feminism and the Subversion<br />
of Identity. New York Routledge.<br />
▸ Butler, J. (1991). Das Unbehagen der Geschlechter. Frankfurt<br />
am Main: Suhrkamp.<br />
▸ Carstensen, T. (2009). Gender Troubles in Web 2.0: Gender<br />
Relations in Social Network Sites, Wikis and Weblogs. In: International<br />
Journal of Gender, Science and Technology, 1 (1),<br />
105-127.<br />
▸ Callon, M. (1986). Some Elements of a Sociology of Translation:<br />
Domestication of the Scallops and the Fishermen of St<br />
Brieuc Bay. In: J. Law (Hrsg.), Power, Action and Belief: A New<br />
Sociology of Knowledge., London: Routledge, 196-229.<br />
▸ Dholakia, R. R.; Dholakia N. & Kshetri, N. (2004). Gender and<br />
Internet Usage. In: H. Bigdoli (Hrsg.), The Internet Encyclopedia,<br />
New York: Wiley, 12-22.<br />
▸ Gildemeister, R. (2008): Soziale Konstruktion von Geschlecht:<br />
Doing Gender. In: R. Becker & B. Kortendiek (Hrsg.),<br />
Handbuch Frauen- und Geschlechterforschung. Theorie, Methoden,<br />
Empirie., Wiesbaden: VS Verlag für Sozialwissenschaften,<br />
168-198.<br />
▸ Grunt, K. & G. Rosalind (1995). The Gender-Technology Relation:<br />
Contemporary Theory and Research. London: Taylor<br />
and Francis.<br />
▸ Hagemann-White, C. (1988). Wir werden nicht zweigeschlechtlich<br />
geboren ... .In: C. Hagemann-White & M. Rerrich<br />
(Hrsg.), FrauenMännerBilder. Männer und Männlichkeit in der<br />
feministischen Diskussion, Bielefeld: AJZ Verlag, 224-235.<br />
▸ Haraway, D. (1991). A Cyborg Manifesto: Science, Technology,<br />
and Socialist-Feminism in the Late Twentieth Century. In: D.<br />
Haraway (Hrsg.), Simians, Cyborgs and Women: The Reinvention<br />
of Nature, New York: Routledge, 149-181.<br />
▸ Kroll, R. (2002). Gender Studies. Geschlechterforschung.<br />
Stuttgart: Verlag J.B. Metzler.<br />
▸ Latour, B. (2005). Reassembling the Social: An Introduction to<br />
Actor-Network-Theory. Oxford: Oxford University Press.<br />
▸ Lenz, I. (2010). Intersektionalität: zum Wechselverhältnis von<br />
Geschlecht und sozialer Ungleichheit. In R. Becker & B. Kortendiek<br />
(Hrsg.), Handbuch Frauen- und Geschlechterforschung.<br />
Theorie, Methoden, Empirie, Wiesbaden: VS Verlag<br />
für Sozialwissenschaften, 158-165.<br />
▸ Pinch, T. J. & W. E. Bijker (1984). The Social Construction of<br />
Facts and Artefacts: Or How the Sociology of Science and the<br />
Sociology of Technology Might Benefit Each Other. In: Social<br />
Studies of Science, 14, 399-441.<br />
▸ Schelhowe, H. (2001). Offene Technologie - Offene Kulturen.<br />
Zur Genderfrage im Projekt Virtuelle Internationale Frauenuniversität<br />
vifu. In: FIFF Kommunikation, 14-18.<br />
▸ Schinzel, B. (2005): Das unsichtbare Geschlecht der Neuen<br />
Medien. In: M. Warnke; W. Coy & G. C. Tholen (Hrsg.), Hyperkult<br />
II. Zur Ortsbestimmung analoger und digitaler<br />
Medien., Bielefeld: Transcript Verlag.<br />
▸ Turkle, S. (1995). Life on the Screen: Identity in the Age of the<br />
Internet. New York: Simon & Schuster.<br />
▸ Wajcman, J. (2010). Gender and the Cultures of Technology,<br />
Work and Management. In: A.-S. Godfroy-Genin (Hrsg.),<br />
Women in Engineering and Technology Research, Berlin: Lit<br />
Verlag, 29-39.<br />
▸ West, C. & Zimmermann, D. H. (1987). Doing Gender. In:<br />
Gender and Society 1 (2), 125-151.<br />
▸ Zauchner, S. & Wiesner, H. (in Vorbereitung). Web 2.0, Gender<br />
und Schule: Wissenschaft trifft Praxis. Berlin: Lit Verlag.
Sandra Schön und Mark Markus<br />
Zukunftsforschung und Innovation<br />
… wissen was kommt<br />
Der Einsatz von Technologien beim Lernen und Lehren unterliegt einem schnellen Wandel. Aber nicht alles<br />
über das gerade noch begeistert berichtet wird, erfüllt die Erwartungen und findet tatsächlich Eingang in<br />
die Unterrichtspraxis. Aus den WirtschaHswissenschaHen liegen Modelle für die Aufnahme von Techno-‐<br />
logien und Innova'onen am Markt vor, die bei der Beurteilung der aktuellen Situa'on helfen können.<br />
Ebenso gibt es aus dem Bereich der ZukunHsforschung Verfahren, die für technologiegestütztes Lernen<br />
und Lehren künHige Entwicklungen vorherzusagen versuchen. Dabei werden in der Regel Exper'nnen und<br />
Experten aus unterschiedlichen Disziplinen gebeten, Einschätzungen abzugeben. Abschließend werden in<br />
diesem Kapitel Verfahren und Ini'a'ven beschrieben, die ak'v bei der Entwicklung von Innova'onen un-‐<br />
terstützen können.<br />
Quelle: quapan<br />
URL: hEp://www.flickr.com/photos/hinkelstone/2765597758/ [2011-‐01-‐01]<br />
Jetzt Pate werden!<br />
#innova'on<br />
#spezial<br />
#theorieforschung<br />
Version vom 1. Februar 2011<br />
Für dieses Kapitel wird noch ein Pate gesucht,<br />
mehr Informa'onen unter: hEp://l3t.eu/patenschaH
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Einleitung<br />
Moderne Medien und Technologien haben das<br />
Lernen und Lehren in den letzten Jahrzehnten<br />
deutlich verändert und neugestaltet. War die Schiefertafel<br />
etlichen Urgroßeltern heutiger Studierenden<br />
noch bekannt, gehören heute Lernende mit eigenen<br />
Laptops in das Bild eines Hörsaals an Universitäten<br />
oder in Weiterbildungsseminaren. Gerade die Erfindung<br />
und Verbreitung des World Wide Web intensivierte<br />
Diskussionen zu den Folgen von neuen Technologien<br />
für den Bildungsbereich. So ist es mit Hilfe<br />
des Internets nun sehr viel einfacher und nahezu<br />
überall möglich, an Informationen und Wissen zu gelangen.<br />
Mit den neuen Technologien verändern sich<br />
aber nicht nur konkrete Arbeitsweisen, sondern entwickeln<br />
sich vielfach auch neue Lehrkonzepte und<br />
-kulturen. Die Webtechnologien und die damit propagierten<br />
Werkzeuge für das Lernen stellen hohe Erwartungen<br />
an die Selbstlernkompetenz der Lernenden<br />
und Lehrenden und verändern die Rolle letzterer<br />
vom Experten weg hin zum Lernunterstützer.<br />
Eine Vielzahl von Initiativen und Projekten bemühen<br />
sich, zukünftige Entwicklungen für den<br />
Einsatz von Technologien vorherzusagen, mitzugestalten<br />
und auch Neues zu entwickeln. Dieser Beitrag<br />
bietet einen ersten Einstieg und Überblick über die<br />
Methoden und Ansätze, wie sich die aktuelle Bedeutung<br />
von technologischen Entwicklungen am<br />
Markt bewerten lässt, wie Zukunftsforschung durchgeführt<br />
wird und wie Innovationsentwicklung systematisch<br />
betrieben werden kann.<br />
2. Vom Buzzword und Innova8onen<br />
In der Informationstechnologie allgemein und auch<br />
in der (wissenschaftlichen) Diskussion zum technologiegestützten<br />
Lernen insbesondere ändert sich<br />
schnell, was gerade „en vogue“ beziehungsweise „in“<br />
ist. Vermeintlich potente Technologien und Lerntrends<br />
entwickeln sich rasch zu Buzzwords (englisch<br />
für „Modewort“). Häufig sind dies Wortneuschöpfungen<br />
oder neuartige Technologien: Sie dürfen in<br />
keinem Beitrag oder Antrag mehr fehlen und sorgen<br />
für Aufmerksamkeit. Ob sie dann wirklich nachhaltig<br />
die Lern- und Lehrpraxis innovieren, ist dabei in der<br />
Regel unklar.<br />
Für Praktiker/innen ist es nicht immer einfach,<br />
zwischen kurzfristigen Modeerscheinungen und tatsächlichen<br />
Innovationen und Trends im technologiegestützten<br />
Lernen zu unterscheiden beziehungsweise<br />
hier Einschätzungen zu treffen.<br />
!<br />
Eine Innova'on ist, aus dem Lateinischen abgeleitet,<br />
eine Neuerung, eine Erneuerung, eine Neueinführung<br />
oder eine Neuheit. Für WirtschaHswissenschaHler ist<br />
dabei auch der verbundene wirtschaHliche Markt-‐<br />
erfolg bedeutsam, der Innova'onen von Erfindungen<br />
unterscheidet.<br />
Radikale Innovationen gibt es im pädagogischen<br />
Feld nur selten. Dies würde bedeuten, dass ein ganz<br />
neues Produkt, neue Dienstleistungen oder neue<br />
Konzepte entwickelt würden, die vorher nicht existierten.<br />
Ein Beispiel für eine radikale Innovation im<br />
Schulsystem ist die massive Aufwertung der schriftlichen<br />
Informationsmittel sowie die gleichzeitige Entwertung<br />
des gesprochenen Wortes in der Lehre im<br />
Zuge der Einführung der Buchdrucktechnologie im<br />
15. Jahrhundert (Giesecke, 1994, 29ff). Ein anderes<br />
Beispiel ist die Einführung der „schwarzen Tafel“:<br />
„Die Pädagogen, die die 'Große Schultafel' in ihren<br />
Unterricht einführten, wurden [zu Beginn] mit Berufsverbot<br />
belegt […] Die 'Große Schultafel' machte<br />
sozial-kommunikative Unterrichtsprozesse möglich,<br />
die im Vergleich zum herkömmlichen Unterricht […]<br />
als subversiv erlebt wurden“ (Wagner, 2004, 170; verweist<br />
auf Petrat, 1979).<br />
Erneuerungen im Bereich des technologiegestützten<br />
Lernens und Lehrens sind häufig Anpassungen,<br />
beispielsweise von vorhandenen Technologien<br />
für den Lernkontext, ohne dass sie eine radikale<br />
Innovation darstellen. So wurden Diskussionsforen,<br />
wie sie im Web schon bekannt waren, mit einer<br />
gewissen Verzögerung auch im webbasierten Unterricht<br />
eingesetzt.<br />
3. Theorien zur Einführung von Technologien<br />
Es gibt eine Reihe von Vorschlägen, die beschreiben,<br />
wie Innovationen und Technologien am Markt aufgenommen<br />
werden. Diese Konzepte stammen weitestgehend<br />
aus den Wirtschaftswissenschaften. Sie helfen<br />
dabei, den aktuellen Stand von Technologien und Innovationen<br />
am Markt einzuschätzen.<br />
Diffusionstheorie nach Roger und Moore<br />
Bekannt ist der Ansatz von Roger (2003), der die Adaption<br />
von Technologien bzw. die Verbreitung von<br />
Technologien anhand der erreichten Kundengruppen<br />
beschreibt: Die ersten 2,5 Prozent der potentiellen<br />
Nutzer/innen einer Technologie bezeichnet er als<br />
„Innovatoren“ und beschreibt diese als aggressive<br />
Verfolger/innen von neuen technologischen Trends.<br />
Danach folgen die „Early Adoptors“ („frühe Übernehmer“),<br />
sie sind seltener Technologen und kaufen<br />
diese Produkte, weil sie damit Visionen verbinden.
Selbst wenn diese beiden Gruppen erreicht wurden,<br />
ist noch nicht abgesichert, dass eine Technologie<br />
auch Markterfolg haben wird und die weiteren<br />
Gruppen der „frühen Mehrheit“ (engl. „early majority“)<br />
also eher konservative, aber für Neues offene<br />
Personen oder auch die „späte Mehrheit“ der älteren,<br />
schlechter ausgebildeten und konservativen Personen<br />
(engl. „late majority“ und schließlich die Nachzügler<br />
erreicht. Rogers beschreibt also mit seinem Modell<br />
die Art der Diffusion von technologischen Entwicklungen<br />
bei Kundengruppen.<br />
Moore (1999, 12ff) erweitert das Modell und<br />
nennt die Herausforderung „Chasm“, die Kluft, die<br />
überschritten werden muss, damit der Erfolg möglich<br />
ist und gibt dazu in seinem vielzitierten Buch<br />
„Crossing the Chasm“ Empfehlungen.<br />
?<br />
Ist dieses wirtschaHliche Konzept für Technologieein-‐<br />
führungen ohne weiteres auf technologiegestütztes<br />
Lernen zu übertragen? Disku'eren Sie dazu, was<br />
genau der „Markt“ ist und in welcher Weise hier Inno-‐<br />
va'onen „Produkte“ sind.<br />
Hype-‐Zyklus nach Gartner<br />
Ein bekanntes Modell zur Beschreibung des Standes<br />
von Technologieeinführungen ist der Hype-Zyklus<br />
von Gartner. Gartner ist ein Beratungsunternehmen,<br />
das sich unter anderem auf die Bewertung und Prognose<br />
von technologischen Trends spezialisiert hat.<br />
Es hat dabei den Hype-Zyklus als typischen Prozess<br />
bei der Einführung neuer Technologien entwickelte<br />
(siehe Abbildung 1).<br />
Abbildung 1: Der Hype-‐Zyklus nach Gartner<br />
Der Hype-Zyklus wird in fünf Phasen unterteilt,<br />
die mit (1) technologischer Auslöser, (2) Gipfel der<br />
überzogenen Erwartungen, (3) Tal der Enttäuschungen,<br />
(4) Pfad der Erleuchtung und (5) Plateau<br />
ZukunHsforschung und Innova'on … wissen was kommt— 3<br />
der Produktivität bezeichnet werden. Obwohl der<br />
Hype-Zyklus nach rechts eine zeitliche Dimension<br />
beinhaltet, können einzelne Trends diesen Hype-<br />
Zyklus schneller durchlaufen als andere. Gemein<br />
haben sie alle, dass nach der Entwicklung oder Entdeckung<br />
und einer ersten Euphorie das „Tal der Enttäuschungen“<br />
folgt, aus dem sie nur mehr schwer und<br />
mit unter sehr langsam herauskommen. Obwohl nach<br />
der Darstellung naheliegend, wird nicht jede neue<br />
Technologie zwangsläufig vom Markt akzeptiert und<br />
erreicht das „Plateau der Produktivität“.<br />
Auch im Bereich der Lerntechnologien und des<br />
Lernens und Lehrens mit Technologien allgemein<br />
kann man die hier beschriebenen Phasen, insbesondere<br />
die der überzogenen Erwartungen, oft vorfinden.<br />
Häufig wird diese Phase auch parallel von<br />
(überzogenen) Befürchtungen begleitet, so die Furcht<br />
der zukünftigen geringeren Bedeutung der Lehrenden<br />
durch den Einsatz von Technologien im Unterricht.<br />
?<br />
?<br />
Wo lassen sich Ihrer Meinung nach derzeit Begriffe<br />
wie „E-‐Learning 2.0", „E-‐Porpolio" und „Personal<br />
Learning Environment" auf dem Hype-‐Zyklus ein-‐<br />
ordnen? Ergänzen Sie eigene Begriffe.<br />
Sammeln Sie Beispiele aus dem Gebiet des technolo-‐<br />
giegestützten Lernens, für die das Konzept des Hype-‐<br />
Zyklus unpassend erscheint und disku'eren Sie die<br />
Beispiele mit Ihren Mitlernenden.<br />
4. ZukunLsforschung<br />
Um mehr über zukünftige Entwicklungen zu erfahren<br />
und diese einschätzen zu können, gibt es eine<br />
Reihe von Initiativen und Projekten, die regelmäßig<br />
Einschätzungen zur Zukunft des Lernens und<br />
Lehrens mit Technologien abgeben.<br />
Bei den nun angeführten Methoden wird dabei auf<br />
das Wissen von Expertinnen und Experten gesetzt.<br />
Ihre Meinungen aus ganz unterschiedlichen Disziplinen<br />
und die Effekte, die durch den Austausch und<br />
durch Aggregation ihrer Aussagen entstehen, werden<br />
als wesentlich dafür erachtet, gute Einschätzungen<br />
zukünftiger Entwicklungen zu erhalten.<br />
Im Folgenden beschreiben wir kurz häufiger verwendete<br />
Methoden der Zukunftsforschung und Beispiele<br />
für ihren Einsatz: die Delphi-Methode, die Szenario-Technik<br />
und die Methode des Road Mapping.<br />
Zusätzlich beschreiben wir die Methode des Horizon-Report,<br />
der jährlich erscheint und künftige Entwicklungen<br />
beim technologiegestützten Lernen und
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Lehren beschreibt sowie die Methode Prediction<br />
Markets. Alle Methoden schließen von aktuellen auf<br />
zukünftige Fälle (induktive Schlussfolgerungen) und<br />
sind daher erkenntnistheoretisch kritisierbar. Andererseits<br />
muss man bedenken, dass man bei eigenen<br />
und bei Handlungen von Organisationen nicht<br />
umhin kommt, eine Zukunft vorwegzunehmen. Die<br />
Frage ist daher nicht ob, sondern nur wie man diese<br />
Zukunft vorwegnimmt: Intuitiv oder doch einigermaßen<br />
systematisch.<br />
Die Delphi-‐Methode<br />
Die Delphi-Methode ist ein mehrstufiges Verfahren,<br />
bei dem Expertinnen und Experten aus unterschiedlichen<br />
Disziplinen in moderierten Gruppendiskussionen<br />
zukünftige Trends und Entwicklungen identifizieren.<br />
Durch den Austausch der Experten und Zusammenfassung<br />
der ersten Runde wird erwartet, dass<br />
sich die Einschätzungen in den weiteren Runden<br />
konsolidieren. Die Delphi-Methode kann auch<br />
schriftlich erfolgen, wie es beispielsweise bei einer<br />
Befragung zur Einschätzung der zukünftigen Entwicklungen<br />
von Online-Prüfungen eingesetzt wurde:<br />
Schaffert (2004) hat dazu 48 Expertinnen und Experten<br />
in einer zweistufigen schriftlichen Befragung<br />
Aussagen bewerten lassen. Während es beim ersten<br />
Durchgang noch ein weites Spektrum an Aussagen<br />
und zukünftigen Entwicklungen gab, ergab sich in<br />
der zweiten Runde ein moderateres Bild: Die Befragten<br />
kamen beispielsweise zu dem Ergebnis, dass<br />
Online-Prüfungen vor allem in Branchen in denen<br />
Computer als Arbeitsgerät zum Alltag gehören, zukünftig<br />
häufiger eingesetzt werden wird.<br />
Die Szenario-‐Technik<br />
Einen sehr breiten Ansatz verfolgt die Szenario-<br />
Technik (Steinmüller, 2002; Grunwald 2002). Die<br />
Szenario-Technik wurde in den 1950er Jahren im Militär<br />
entwickelt um Strategien zu entwickeln sowie<br />
Entwicklungen und Ergebnisse von komplexen Situationen<br />
einzuschätzen. Die Szenario-Technik versucht<br />
dabei Orientierungswissen zu geben, was in naher<br />
Zukunft passieren wird. Typischerweise werden dabei<br />
drei Szenarien untersucht: Zunächst einmal das wahrscheinlichste,<br />
überraschungsfreie mögliche Szenario.<br />
Dann gibt es das Worst-Case-Szenario, also eine Beschreibung<br />
der Entwicklung im schlechtesten Falle.<br />
Schließlich gibt es noch ein bestmögliches Szenario,<br />
also eine Beschreibung für eine bestmögliche, gewünschte<br />
Entwicklung (Boon et al., 2005, 207). Die<br />
Szenario-Technik zielt also darauf ab, das ganze<br />
Spektrum möglicher Entwicklungen aufzuzeigen, und<br />
nutzt dabei nicht nur Zahlen und Fakten (quantita-<br />
tives Vorgehen) sondern auch Einschätzungen und<br />
Vermutungen von Expertinnen und Experten (qualitatives<br />
Vorgehen). Beispielsweise wird diese Methode<br />
am „Institute for Prospective Technological Studies“<br />
im Feld des technologiegestützten Lernens eingesetzt<br />
(Miller et al., 2008, 23). E-Learning-Szenarien zu entwickeln<br />
wird, beispielsweise als Methode empfohlen,<br />
wenn man Entscheidungen zum zukünftigen Einsatz<br />
von Lerntechnologien in Einrichtungen treffen will<br />
(Hamburg et al., 2005).<br />
Die Methode Road Mapping<br />
Beim „Road Mapping“ werden Landkarten beziehungsweise<br />
Fahrpläne zukünftiger Entwicklungen beschrieben<br />
und aufgezeichnet. Typischerweise werden<br />
dazu systematisch zentrale Herausforderungen und<br />
Möglichkeiten für Aktivitäten beschrieben und mit<br />
Entwicklungszielen und Meilensteinen auf einer<br />
Zeitachse illustriert (Kosow & Gaßner, 2008, 65).<br />
Road Mapping wird dabei in vier Formen durchgeführt:<br />
für Unternehmen, für Branchen, für Forschung<br />
und Entwicklung sowie problemorientiertes Road<br />
Mapping (ebenda). Wie bei der Szenario-Technik<br />
werden dabei auch unterschiedliche Entwicklungen<br />
beschrieben. Dabei wird auch der Rückwärtsblick eingesetzt:<br />
Ausgehend von einer in der Zukunft (erwünschten)<br />
Entwicklung werden Meilensteine und<br />
das Vorgehen beschrieben, wie man diese erreicht hat<br />
und welche Faktoren dabei entscheidend waren.<br />
Ein Beispiel für Road Mapping in unserem Feld ist<br />
die Arbeit eines EU-Projekts zu freien Bildungsmaterialien<br />
(siehe Kapitel #openaccess). Die „OLCOS<br />
Roadmap 2012“ untersucht so mögliche Wege zu<br />
einer Erhöhung der Erstellung, Verbreitung und<br />
Nutzung von freien Bildungsmaterialien und gibt<br />
dabei Empfehlungen für notwendige Maßnahmen<br />
auf Ebene von (politischen) Entscheidern (Geser,<br />
2007).<br />
Die Methode des Horizon-‐Reports<br />
Wegen seiner großen Verbreitung und Bekanntheit,<br />
beschreiben wir auch eigens das Vorgehen des Horizon-Reports<br />
(Johnson et al., 2009). Basierend auf<br />
der Delphi-Methode nutzt das Horizon-Report-Team<br />
die Wiki-Technologie um fast hundert Technologien<br />
und mehrere Dutzend Trends und Herausforderungen<br />
zu sammeln, die möglicherweise im Report<br />
erscheinen könnten (ebenda, S. 30). Die beteiligten<br />
Expertinnen und Experten können diese Entwicklungen<br />
des Wikis durch RSS-Feeds verfolgen, erhalten<br />
auch weitere Materialien zu Lerntrends und<br />
Technologien und bekommen dann den Auftrag, die<br />
fünf Fragen des Horizon-Reports zu beantworten.
Für den Report des Jahres 2009 haben auf diese<br />
Weise 45 internationale Expertinnen und Experten<br />
beispielsweise folgende erste Frage beantwortet<br />
„Welche Technologien zählen Sie zu den etablierten<br />
Technologien in Bildungseinrichtungen die heute<br />
breit eingesetzt werden sollten, um das Lehren,<br />
Lernen, Forschung und Kreativität zu unterstützen<br />
oder zu verbessern?“. Zu allen Antworten erfolgen<br />
(gewichtete) Abstimmungen, die schließlich in der<br />
Auswahl von Aussagen beziehungsweise Technologien<br />
und Lerntrends resultieren. Dann werden<br />
schließlich für unterschiedliche Zeithorizonte jeweils<br />
zwei Trends ausgewählt, die auf breiter Basis in Bildungseinrichtungen<br />
implementiert werden. Für den<br />
Zeithorizont bis zu einem Jahr waren das für das Jahr<br />
2010 „Mobile Computing“ und „Open Content“<br />
(Abbildung 2).<br />
Predic8on Markets<br />
Ein weiteres Verfahren nennt Alexander (2009) in<br />
einer Auflistung von Verfahren zur Zukunftsforschung,<br />
das eventuell zukünftig auch für technologiegestütztes<br />
Lernen und Lehren eingesetzt werden<br />
könnte: Bei der Methode „Prediction Markets“ lassen<br />
Unternehmen Mitarbeiter/innen oder auch erweitere<br />
Kreise auf zukünftige Entwicklungen Wetten abschließen.<br />
?<br />
Recherchieren Sie nach einem Beitrag zu den künf-‐<br />
'gen Entwicklungen des technologiegestützten<br />
Lernens und beschreiben Sie -‐ sofern nachvollziehbar<br />
-‐ die Methode, mit der die Aussagen generiert<br />
wurden!<br />
ZukunHsforschung und Innova'on … wissen was kommt— 5<br />
5. Güte und Kri8k der ZukunLsforschung<br />
Zukunftsforschung gehört in eine Grauzone wissenschaftlicher<br />
Verfahren. Ihre Güte zu bewerten und<br />
sie kritisch zu betrachten ist notwendig.<br />
Gütekriterien wissenschaftlichen Arbeitens sind<br />
unter anderem die Gültigkeit von Aussagen und ihre<br />
Korrektheit. Auf den ersten Blick sind das auch Erwartungen,<br />
die man an die Forschung über zukünftige<br />
Entwicklungen heranträgt: Man will<br />
schließlich verlässlich erfahren, was zukünftig passiert.<br />
Gute Aussagen sollten demnach zukünftig zutreffen.<br />
Auf dem zweiten Blick wird jedoch deutlich,<br />
dass Zukunftsforschung häufig betrieben wird, um<br />
Planungen und Strategien zu beeinflussen, also auch<br />
um Zukunft aktiv zu beeinflussen. In diesem Sinne<br />
kann Zukunftsforschung auch davor bewahren,<br />
falsche Entscheidungen zu treffen. Die Vorhersagen<br />
treffen dann gerade eben wegen der guten Forschung<br />
nicht ein (Grunwald, 2002).<br />
Ob es sich um eine qualitativ hohe Studie zur Zukunft<br />
von Lernen und Lehren mit Technologien<br />
handelt, lässt sich aber dennoch bewerten. Boon et al.<br />
(2005) haben so ein Konzept zur Bewertung der<br />
Qualität von Zukunftsstudien entwickelt und teilen<br />
22 Kriterien vier Dimensionen zu: (a) Autor/innen<br />
und ihre Autorität, (b) Forschung und Datensammlung,<br />
(c) Genauigkeit des Reports und (d) Objektivität<br />
der präsentierten Inhalte. Man muss nicht<br />
lange nach „Zukunftsstudien“ im Bereich des technologiegestützten<br />
Lernens suchen, um Beiträge zu<br />
finden, die diese Kriterien nur unzureichend erfüllen.<br />
Boon et al. (2005, 210) haben dies für die Jahre 2000<br />
bis 2002 unternommen. Sie haben damals festgestellt,<br />
dass die Untersuchungen in diesem Bereich nur<br />
selten auf überzeugendem methodischen Vorgehen<br />
Abbildung 2: Überblick ausgewählter Trends des Horizon-‐Reports der letzten Jahre.<br />
Quelle: Johnson et al. (2009). Anmerkung: Abbildung in Anlehnung an eine Zusammenschau von Robes (2010).
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
basieren. Daran hat sich kaum etwas geändert; auch<br />
aktuelle Beiträge tragen häufig unsystematisch Aussagen<br />
als „Trends“ zusammen.<br />
Es gibt auch Bedenken gegenüber dem typischen<br />
methodischen Vorgehen, der Einbindung<br />
mit und Diskussion von Expertinnen und Experten.<br />
So haben diese eine persönliche Geschichte, spezifisches<br />
Vorwissen, persönliche Haltungen und auch<br />
persönliche Eigenschaften wie beispielsweise einen<br />
ausgeprägten Optimismus. Es zeigt sich, dass die Erwartungen<br />
an den Nutzen von technologiegestützten<br />
Lernens positiv von der eigenen Interneterfahrung,<br />
Computerängstlichkeit und Selbstwirksamkeit beeinflusst<br />
werden (Rezaei et al., 2008, 86). Auch beeinflusst<br />
der kulturelle Hintergrund das Bild von technologiegestütztem<br />
Lernen. So soll es beispielsweise<br />
drei unterschiedliche Metaphern geben, welche die<br />
Möglichkeiten von technologiegestütztem Lernen beschreiben:<br />
Im deutschsprachigen Raum spricht man<br />
häufig vom „Potenzial“ des technologiegestützten<br />
Lernens, in englischsprachigen Veröffentlichungen<br />
wird hingegen das Bild vom „Katalysator“ oder vom<br />
„Hebel“ verwendet. Während der Katalysator eingesetzt<br />
wird, um mit geringerem Einsatz gleiche oder<br />
bessere Ergebnisse zu erhalten, kann die Hebelwirkung<br />
nur einsetzen, wenn die Zielsetzungen des<br />
Technologieeinsatzes bekannt sind (Klebl, 2007 verweist<br />
auf Venezky & Davis, 2002, 14). Studien sollten<br />
also mit dem Blick auf die beteiligten Expertinnen<br />
und Experten die Ergebnisse reflektieren und bewerten.<br />
Eine weitere Kritik an der Zukunftsforschung betrifft<br />
unter anderem aggregierende Vorgehen, beispielsweise<br />
das Berechnen von Mittelwerten, die<br />
kreative oder überraschende Ergebnisse ausbügeln,<br />
unsichtbar machen können oder auch grundlegende<br />
medientheoretisch fundierte Kritik an der Reflexionsfähigkeit<br />
in der eigenen Medienwelt (siehe Mediosphäre<br />
nach Debray, 2004; vgl. Meyer, 2008; Schaffert<br />
& Schwalbe, 2010).<br />
?<br />
In welcher Weise lässt sich das methodische Vorgehen<br />
bei der von Ihnen recherchierten Studie (siehe oben)<br />
bewerten? Wie könnte man die Methode op'mieren?<br />
Disku'eren Sie Ihre Vorschläge!<br />
6. Ansätze der Innova8onsentwicklung<br />
Abschließend werden in diesem Kapitel Methoden<br />
vorgestellt, die Unternehmen für die Entwicklung<br />
von Innovationen verwenden und Verfahren, die im<br />
Bildungsbereich die Entwicklung von Innovationen<br />
fördern können.<br />
Nicht jede Innovation ist jedoch Ergebnis eines<br />
geplanten Prozesses. So entwickeln Nutzer/innen<br />
von Produkten und Dienstleistungen immer wieder<br />
innovative Ideen; bekannte Beispiele lassen sich im<br />
Sport- und Freizeitbereich finden: Mountainbikes,<br />
Skateboards und Snowboards sind allesamt von<br />
ihnen und nicht von professionellen Produktentwicklern<br />
erfunden worden („User Based Innovations“,<br />
siehe Schroll 2007, 4f). Unternehmen haben<br />
längst das erkannt und versuchen Nutzer/innen als<br />
Innovationsquelle systematisch zu erschließen. In<br />
diesem Zusammenhang spricht man von Open Innovation.<br />
!<br />
Mit dem Begriff „Open Innova'on“ werden alle Ver-‐<br />
fahren bezeichnet, bei den Kundinnen und Kunden<br />
sowie Nutzerinnen und Nutzer ak'v bei der Ent-‐<br />
wicklung von Innova'onen eingebunden werden<br />
(Reichwald & Piller, 2006).<br />
Auch Innovationen beim Lernen und Lehren mit<br />
Technologien können durch Endnutzer/innen, das<br />
heißt Lernende entstehen. Häufig sind jedoch Lehrende<br />
die Treiber von Innovationen, also tatsächlichen<br />
Neuerungen im Unterrichtsgeschehen.<br />
Lead-‐User-‐Ansatz<br />
Eine mittlerweile empirisch umfassend untersuchte<br />
Methode der Open Innovation ist der Lead-User-<br />
Ansatz. Dies ist eine qualitative Methode zur Identifikation<br />
und Integration von Träger innovativer Bedürfnisse<br />
in den (innerbetrieblichen) Innovationsprozess.<br />
Die Methode geht auf Erich von Hippel<br />
vom dem Massachusetts Institute of Technology<br />
(MIT) zurück. Die Grundlage der Methode ist die<br />
Diffussionstheorie, also die oben vorgestellte Theorie<br />
der Verbreitung von Produkten am Markt. Von<br />
Hippel geht davon aus, dass die Lead User die Bedürfnisse<br />
des Massenmarktes vorwegnehmen und<br />
diese Bedürfnisse durch Veränderungen bestehender<br />
Produkte oder sogar durch neue Produktkreationen<br />
befriedigen. Durch diese spezifische Konstellation<br />
sind sie für die Lösung von Innovationsaufgaben optimal<br />
geeignet (von Hippel 2005, 22f)
Die Lead-User-Methode wird meistens mehrstufig<br />
dargestellt. Sie beginnt mit der Identifikation des<br />
Suchfeldes in welchem innovative Lösungen gesucht<br />
werden. Ein Suchfeld ist zum Beispiel die technologisch<br />
gestützte Kollaboration sein. Lead User kann<br />
man per Selbstauskunft oder mit der Schneeballsuche<br />
identifizieren, bei der Lead User andere Lead User<br />
empfehlen. Lead User weisen folgende Eigenschaften<br />
auf: Sie haben neue, (am Markt) kaum verbreitete Bedürfnisse;<br />
sie sind bezüglich mangelnder Befriedigung<br />
dieser Bedürfnisse unzufrieden und möchten hier<br />
tätig werden; sie verfügen über Anwenderwissen; sie<br />
verfügen über Produkt- beziehungsweise Objektwissen;<br />
sie können intrinsisch oder extrinsisch motiviert<br />
werden. (Tinz, 2007, 91). In der letzten Phase<br />
wird ein zweitägiger Workshop mit den Lead-User<br />
abgehalten, wo mit Hilfe von Kreativitätstechniken<br />
innovative Lösungen gesucht und bewertet werden.<br />
Eine vom MIT und dem Unternehmen 3M vorgenommene<br />
Untersuchung zeigt, dass die Lead-User-<br />
Ideen zwar teurer, aber auch wesentlich innovativer<br />
sind als Ideen, die man im Alleingang generiert<br />
(Lilien et al., 2002).<br />
?<br />
IdeenweVbewerb / Crowdsourcing-‐Innova8on<br />
Eine andere weit verbreitete Open-Innovation-Methode<br />
ist der Ideenwettbewerb, oft auch als Crowdsourcing-Innovation<br />
bezeichnet.<br />
Das Leitmotiv von Crowdsourcing ist: Wenn du<br />
ein Problem hast, suche nach der Lösung nicht nur<br />
bei den Spezialisten, zum Beispiel in der Forschungsund<br />
Entwicklungsabteilung, sondern frage einfach<br />
alle. Beim „Crowdsourcing“ wird so von der Idee<br />
ausgegangen, dass Gruppen aufgrund von Phänomenen<br />
wie der Schwarmintelligenz oder auch der<br />
Schwarmkreativität (Gloor, 2006) in der Lage sind,<br />
hilfreiche Unterstützung bei Innovationsprozessen zu<br />
bieten (Shuen, 2008, 136ff).<br />
!<br />
Ist der Lead-‐User-‐Ansatz auf das technologiege-‐<br />
stütztes Lernen übertragbar? Bes'mmen Sie ein<br />
Suchfeld und disku'eren Sie dazu, wer die Lead User<br />
sein können und wie Sie diese iden'fizieren könnten.<br />
Ein IdeenweEbewerb stellt nach Walcher (2007) „eine<br />
Aufforderung eines privaten oder öffentlichen Veran-‐<br />
stalters an die Allgemeinheit oder eine spezielle Ziel-‐<br />
gruppe dar, themenbezogene Beiträge innerhalb eines<br />
bes'mmten Zeitraums einzureichen. Die Einsen-‐<br />
dungen werden dann in aller Regel von einer Exper-‐<br />
tengruppe an Hand von verschiedenen Beurteilungs-‐<br />
dimensionen bewertet und leistungsorien'ert prä-‐<br />
miert.“ (S. 39)<br />
ZukunHsforschung und Innova'on … wissen was kommt— 7<br />
Durch einen Ideenwettbewerb werden Nutzer/innen<br />
in die frühesten Phasen des Innovationsprozesses<br />
eingebunden (Walcher, 2007, 38), womit sich<br />
der Nutzerbeitrag, streng betrachtet nicht auf die Innovation,<br />
sondern auf Ideengebung und -bewertung<br />
beziehungsweise auf die Invention konzentriert. Als<br />
Veranstalter von Ideenwettbewerben treten allgemein<br />
sowohl Firmen als auch öffentliche Einrichtungen<br />
auf. Beispielsweise suchte die Bundeszentrale für gesundheitliche<br />
Aufklärung Motive für eine HIV-Präventionskampagne.<br />
Im Bereich des technologiegestützten<br />
Lernens gibt es seltener Wettbewerbe, bei<br />
denen Ideen oder Konzepte prämiert werden. An der<br />
Universität Augsburg wurde mit „betacampus“ ein<br />
solcher universitätsinterner Wettbewerb durchgeführt<br />
bei dem gute Ideen für IKT-Projekte gesucht wurden<br />
(Bauer & Henke, 2011).<br />
Häufig werden jedoch bei Wettbewerben auch<br />
existierende Konzepte und Realisierungen ausgezeichnet:<br />
Beispiele dafür sind D-ELINA, der „Deutschen<br />
E-Learning-Innovations- und Nachwuchs-<br />
Award“ oder der europäischen Wettbewerb „European<br />
Award for Technology Supported Learning“<br />
(eureleA). Auch an den Hochschulen werden Auszeichnungen<br />
für gute Lehre in Einzelfällen, wie mit<br />
dem ELCH („E-Learning Champion“) an der Universität<br />
Graz, auch an den innovativen Einsatz von<br />
Technologien geknüpft.<br />
Als Anreiz von Ideenwettbewerben wird in der<br />
Regel eine „leistungsorientierte Prämierung“ angeboten,<br />
wie Sachpreise oder Geldbeträge. Im Bereich<br />
des technologiegestützten Lernens werden in der<br />
Regel die Namen der Gewinner/innen veröffentlicht,<br />
womit als Anreizmittel die Statusfaktoren fungieren.<br />
Die existierenden Beispiele legen jedenfalls den<br />
Schluss nahe, dass extrinsischen Motivationsfaktoren<br />
eine wichtige Rolle spielen, an solchen Wettbewerben<br />
teilzunehmen.<br />
Offene Bildungsini8a8ven<br />
In offenen Bildungsinitiativen wird nicht systematisch<br />
an der Entwicklung von technologiegestützten Bildungsinnovationen<br />
gearbeitet. Allerdings wird ihnen<br />
ein hohes Potenzial für solche Ideen und Entwicklungen<br />
zugesprochen und sie selbst setzen Technologien<br />
häufig kreativ und neu ein. Beispiele für solche<br />
Initiativen, die als mögliche Orte der Entstehung von<br />
Innovationen betrachtet werden, sind Educamps, ein<br />
Szene-Treffen von an Bildungsthemen Interessierten<br />
und technologischen „Early Adopters“ ohne fixe<br />
Vortragslisten und auch zahlreiche studentische Initiativen<br />
und Projekte (Dürnberger et al., 2011).
8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
7. Zusammenfassung und Ausblick<br />
„Wissen was kommt“ ist das Ziel von Untersuchungen<br />
zu zukünftigen Entwicklungen im Bereich<br />
des technologisch gestützten Lernen und Lehrens.<br />
Gleichzeitig gibt es eine Reihe von Initiativen in<br />
denen aktiv kreative und innovative Konzepte und<br />
Werkzeuge für das Lernen und Lehren mit Technologien<br />
gesucht und entwickelt werden.<br />
Existierende Modelle und Verfahren der Zukunftsforschung<br />
und Innovationsentwicklung werden<br />
dabei fortlaufend weiterentwickelt. Durch das Web<br />
und den Erfolgen und Zuwächsen bei Anwendungen<br />
für soziale Netzwerke und Online-Gemeinschaften<br />
sind hier zukünftig auch neue Entwicklungen zu erwarten,<br />
die beispielsweise durch Web-Monitoring und<br />
Auswertung entsprechend innovativer Gruppen und<br />
ihrer Diskussionen möglich werden (Brauckmann,<br />
2010). Passende Modelle, die aus dem Verfolgen von<br />
Diskussionen Innovationen oder zukünftige Entwicklungen<br />
ableiten lassen, müssen dabei weitestgehend<br />
erst noch entwickelt und evaluiert werden.<br />
Danksagung<br />
Herzlichen Dank an Walther Nagler und Jochen Robes für ihr<br />
konstruktives Feedback!<br />
Zum Weiterlesen<br />
▸ Horx, M.; Huber, J.; Steinle, A.; Wenzel, E. (2007). Zukunft<br />
machen. Wie Sie von Trends zu Business-Innovationen<br />
kommen. Ein Praxis-Guide. Frankfurt / New York.<br />
Literatur<br />
▸ Alexander, B. (2009). Apprehending the Future: Emerging<br />
Technologies, from Science Fiction to Campus Reality. In:<br />
EDUCAUSE Review, 44 (3), 12–29.<br />
▸ Bauer, P. & Henke, H. (2011). Förderung von offenen Bildungsiniativen<br />
an der Hochschule. Der Innovationswettbewerb<br />
betacampus. In: H. Dürnberger, S. Hofhues & T. Sporer<br />
(Hrsg.), Offene Bilungsinitiativen. Münster: Waxmann, 79-92.<br />
▸ Boon, M. J., Rusman, E., & Klink, M. R. van der (2005). Developing<br />
a critical view on e-learning reports: Trend watching or<br />
trend setting? International Journal of Training and Development,<br />
9(3), 1-27, URL: from http://www.qou.edu/homePage/arabic/researchProgram/eLearningResearchs/developingACritical.pdf<br />
[2008-09-12.]<br />
▸ Brauckman, P. (2010). Web-Monitoring. Gewinnung und<br />
Analyse von Daten über das Kommunikationsverhalten im Internet,<br />
Konstanz: UVK-Verlag.<br />
▸ Debray, R. (2004). Für eine Mediologie. In: Kursbuch Medienkultur.<br />
Die maßgeblichen Theorien von Brecht bis Baudrillard.<br />
Stuttgart: DVA, 76-75.<br />
▸ Dürnberger, H.; Hofhues, S. & Sporer, T. (2011). Offene Bilungsinitiativen.<br />
Münster: Waxmann.<br />
▸ Boon, M. J.; Rusman, E. & Klink, M. R. van der (2005). Developing<br />
a critical view on e-learning reports: Trend watching or<br />
trend setting?. In: International Journal of Training and Development,<br />
9(3), 1-27, URL:<br />
http://www.qou.edu/homePage/arabic/researchProgram/eLe<br />
arningResearchs/developingACritical.pdf [2008-12-25].<br />
▸ Debray, R. (2004). Für eine Mediologie. In: Kursbuch Medienkultur.<br />
Die maßgeblichen Theorien von Brecht bis Baudrillard.<br />
Stuttgart: DVA, 76-75.<br />
▸ Geser, G. (2007). Open Educational Practices and Resources<br />
-OLCOS Roadmap 2012. Salzburg: Salzburg Research, URL:<br />
http://edumedia.salzburgresearch.at/images/stories/Edu-<br />
Media/Inhalte/Publications/olcos_roadmap.pdf [2008-12-30].<br />
▸ Giesecke, M. (1994). Der Buchdruck in der frühen Neuzeit.<br />
Eine historische Fallstudie über die Durchsetzung neuer Informations-<br />
und Kommunikationstechnologien. Frankfurt am<br />
Main: Suhrkamp.<br />
▸ Gloor, P.A. (2006). Swarm Creativity: Competitive Advantage<br />
through Collaborative Innovation Networks. Oxford: Oxford<br />
University Press.<br />
▸ Grunwald, A. (2002). Technikfolgenabschätzung. Eine Einführung.<br />
Berlin: Edition Sigma.<br />
▸ Hamburg, I.; Busse, T. & Marin, M. (2005). Using E-Learning<br />
Scenarios for Making Decisions in Organisations. In: 6th European<br />
Conferene E-COMM-LINE 2005, Bucharest, September<br />
19- 20, 2005, URL:<br />
http://www.iatge.de/aktuell/veroeff/2005/hamburg01.pdf<br />
[2008-12-26].<br />
▸ Johnson, L.; Levine, A. & Smith, R. (2009). The 2009 Horizon<br />
Report. Austin, Texas: The New Media Consortium, URL:<br />
http://wp.nmc.org/horizon2009 [2009-02-16].<br />
▸ Klebl, M. (2007). Die Verflechtung von Technik und Bildung<br />
-Technikforschung in der Bildungsforschung. In: Bildungsforschung,<br />
Jahrgang 4, Ausgabe 2, URL: http://bildungsforschung.org/index.php/bildungsforschung/article/view/67<br />
[2010-12-29].<br />
▸ Kosow, H. & Gaßner, R. (2008). Methoden der Zukunfts-und<br />
Szenarioanalyse Überblick, Bewertung und Auswahlkriterien.<br />
In: WerkstattBericht Nr. 103, Berlin: Institute for Futures<br />
Studies and Technology Assessment, URL:<br />
http://www.izt.de/fileadmin/downloads/pdf/IZT_WB103.pd<br />
f [2010-12-29].<br />
▸ Lilien, G.L.; Morrison, P.D.; Searls, K.; Sonnack, M. & von<br />
Hippel, E. (2002). Performance Assessment of the Lead User<br />
Idea-Generation Process for New Product Development.<br />
URL: http://userinnovation.mit.edu/papers/5.pdf [2010-12-<br />
29].<br />
▸ Meyer, T. (2008). Zwischen Kanal und Lebens-Mittel: pädagogisches<br />
Medium und mediologisches Milieu. In: J. Fromme &<br />
W. Sesink (Hrsg.), Pädagogische Medientheorie. Wiesbaden: VS<br />
Verlag für Sozialwissenschaften, 71-94.<br />
▸ Miller, R.; Shapiro, H. & Hilding-Hamann, K. E. (2008).<br />
School's Over: Learning Spaces in Europe in 2020: An Ima-
gining Exercise on the Future of Learning. In: JRC Scientific<br />
and Technical Reports, October 2008, URL:<br />
http://ftp.jrc.es/EURdoc/JRC4741<strong>2.pdf</strong> [2010-12-29].<br />
▸ Moore, G. A. (2002). Crossing the Chasm: marketing and<br />
selling high-tech products to mainstream customers. New<br />
York: Harper Business Essential.<br />
▸ Papsdorf, C. (2009). Wie Surfen zu Arbeit wird. Crowdsourcing<br />
im Web 2.0. Frankfurt am Main: Campus.<br />
▸ Petrat, G. (1979). Schulunterricht. München.<br />
▸ Reichwald, R. & Piller, F. (2006). Interaktive Wertschöpfung.<br />
Open Innovation, Individualiserung und neue Formen der Arbeitsteilung.<br />
Wiesbaden: Gabler.<br />
▸ Rezaei, M., Mohammadi, H. M., Asadi, A. and Kalantary, K.<br />
(2008). Predicting E-Learning Application In Agricultural<br />
Higher Education Using Technology Acceptance Model.<br />
Turkish Online Journal of Distance Education, 9 (1), 85-95,<br />
URL: http://tojde.anadolu.edu.tr/tojde29/pdf/Volume9-<br />
Number1.pdf [2009-02-09].<br />
▸ Robes, J. (2010). Horizon Report 2010. Weblogeintrag. URL:<br />
http://www.weiterbildungsblog.de/2010/01/15/horizonreport-2010/<br />
[2011-01-01].<br />
▸ Rogers, E. M. (2003). Diffusion of Innovations. New York:<br />
Free Press.<br />
▸ Schaffert, S. & Schwalbe, C. (2010). Future Media Adoption in<br />
Learning and Teaching: Current Study Design from the Perspective<br />
of Cultural Studies. In: M. Ebner & M. Schiefner<br />
(Hrsg.), Looking Toward the Future of Technology Enhanced<br />
Education: Ubiquitous Learning and the Digital Native,<br />
Hershey: IGI Global, 1-11.<br />
▸ Schaffert, S. (2004). Einsatz von Online-Prüfungen in der beruflichen<br />
Weiterbildung: Gegenwart und Zukunft. Bonn: Deut-<br />
ZukunHsforschung und Innova'on … wissen was kommt— 9<br />
sches Institut für Erwachsenenbildung, URL: http://www.diebonn.de/esprid/dokumente/doc-2000/schaffert00_01.pdf<br />
[2010-12-29].<br />
▸ Schroll, A. (2007). Community Based Innovation. Einsatz von<br />
Innovation Communities im Projekt „Opensourcing University“.<br />
Wien: Diplomarbeit an der Universität Wien.<br />
▸ Shuen, A. (2008). Web 2.0: A Strategy Guide. Business thinking<br />
and strategies behind successful Web 2.0 implementations.<br />
Canada: O’Reilly Media.<br />
▸ Steinmüller, K. (2002). Workshop Zukunftsforschung. Teil 2<br />
Szenarien: Grundlagen und Anwendungen. Essen: Z_punkt<br />
GmbH.<br />
▸ Tinz, T. V. (2007). Spitzenprodukte durch Spitzensportler? Kooperative<br />
Produktentwicklung bei Sportartikeln. Zürich: Dissertation<br />
der Wirtschaftswissenschaftlichen Fakultät der Universität<br />
Zürich.<br />
▸ Venezky, R. & Davis, C. (2002). Quo Vademus? The Transformation<br />
of Schooling in a Networked World. URL: http://www.oecd.org/<br />
dataoecd/48/20/2073054.pdf [2009-02-02].<br />
▸ von Hippel, E.(2005). Democratizing Innovation. Cambridge:<br />
MIT Press,<br />
http://web.mit.edu/evhippel/www/books/DI/DemocInn.pdf<br />
[2010-12-29].<br />
▸ Wagner, W.-R. (2004). Medienkompetenz revisited. München:<br />
kopaed.<br />
▸ Walcher, D. (2007). Der Ideenwettbewerb als Methode der aktiven<br />
Kundenintegration. Theorie, empirische Analyse und Implikationen<br />
für den Innovationsprozess. Wiesbaden.
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Einleitung<br />
In diesem Kapitel werden die Auswirkungen, die zentrale<br />
Fragestellungen und Konzepte der Kognitionswissenschaft<br />
auf unser Verstehen von Lehr-Lernprozessen<br />
und die Verwendung von Lerntechnologien,<br />
untersucht.<br />
!<br />
Kogni:onswissenscha> ist ein interdisziplinäres For-‐<br />
schungsfeld, das Phänomene der Kogni:on erforscht,<br />
mit dem Ziel, menschliche Kogni:on – unsere Wahr-‐<br />
nehmung, unser Denken und letztlich Handeln – zu<br />
verstehen.<br />
Die Kognitionswissenschaft ist keine wissenschaftliche<br />
Disziplin im herkömmlichen Sinne,<br />
sondern ein immer noch recht junges interdisziplinäres<br />
Forschungsfeld, in dem unterschiedliche Disziplinen<br />
gemeinsam Antworten auf Fragen zur Kognition<br />
– Wahrnehmung, Denken und Handeln –<br />
suchen, die sie aus Ihrer Perspektive und mit ihren<br />
Methoden allein nicht zufriedenstellend beantworten<br />
können. In gewisser Weise stellt sich die Kognitionswissenschaft<br />
Fragen, die sich Philosophen seit jeher<br />
stellen und versucht diese mit Mitteln der Psychologie,<br />
Linguistik, Neurowissenschaft, Biologie und Informatik<br />
zu beantworten, wobei letzterer in der Entstehungsgeschichte<br />
dieses Forschungsfelds wegen der<br />
damals neuen Methode der Computersimulation eine<br />
besondere Rolle zukommt.<br />
Warum lohnt es sich, sich in einem so anwendungsbezogenen<br />
Feld, wie „Lehren und Lernen mit<br />
Technologien“ überhaupt, mit Fragen und Konzepten<br />
aus der Grundlagenforschung auseinanderzusetzen?<br />
Wir sehen drei Gründe:<br />
▸ Aus vielen Modellen der kognitionswissenschaftlichen<br />
Grundlagenforschung ist Kognitionstechnik<br />
geworden, mit der wir im Alltag ständig konfrontiert<br />
sind.<br />
▸ Lehrende und Lernende (und natürlich auch Designer/innen<br />
von Lerntechnologien) haben notwendigerweise<br />
ein Konzept von Kognition und<br />
eine „Theorie“ wie sie „funktioniert“. Die Frage<br />
ist lediglich, wie bewusst und reflektiert diese persönliche<br />
„Theorie“ ist und damit, ob sie zur Reflexion<br />
über die eigene Praxis dienen kann.<br />
▸ Unsere Konzepte von Kognition haben eine Auswirkung<br />
auf die Vorstellung was Lernen ist und<br />
was gelernt wird – und damit auf unseren Wissensbegriff.<br />
Hier sehen wir eine Nahtstelle zu Ergebnissen<br />
der Bildungsforschung, die zeigen, dass<br />
unser Wissensbegriff Lernstrategien beeinflusst.<br />
Dieses Kapitel orientiert sich in seinem Aufbau an<br />
den Phasen der Kognitionswissenschaft seit ihrer<br />
Entstehung. Diese ideengeschichtliche Betrachtung<br />
ist notwendig, um konkrete Implikationen auf aktuelle<br />
Fragen des Lernen und Lehrens, des Wissens<br />
und zu Lerntechnologien abzuleiten. Ziel dieses Kapitels<br />
ist es zu zeigen, wie Konzepte aus der kognitionswissenschaftlichen<br />
Grundlagenforschung<br />
Eingang in die Alltagssprache, in unser Denken über<br />
Lernprozesse und Wissen, und letztlich in Technologien<br />
gefunden haben, mit den wir tagtäglich interagieren,<br />
um so ein „Denkwerkzeug“ für die Reflexion<br />
der eigenen Praxis zur Verfügung zu stellen. Kein<br />
Ziel ist es hingegen, didaktische oder Usability-Rezepte<br />
auszustellen.<br />
2. Das Entstehen eines neuen Forschungsfeldes<br />
Wurzeln der Kogni:onswissenscha<<br />
Eine fundierte Vorgeschichte würde im Rahmen<br />
dieses Buches zu weit führen, daher möchten wir hier<br />
nur vier Strömungen und Ideen aus den Disziplinen<br />
Philosophie, Psychologie, Linguistik und Informatik<br />
skizzieren, deren interdisziplinäres Zusammenwirken<br />
wesentlich für das Entstehen des neuen Forschungsfeldes<br />
Kognitionswissenschaft war:<br />
Die Vorstellung, dass menschliches Denken<br />
letztlich Rechnen sei, findet sich schon im 17. Jahrhundert<br />
bei Gottfried Wilhelm Leibniz (1646-1716),<br />
der, nebenbei bemerkt, auch das Binärsystem erfand,<br />
das mit der Erfindung des Computers eine große Bedeutung<br />
erhalten sollte. Die Analytische Philosophie,<br />
wurde Anfang des 20. Jahrhunderts von den<br />
britischen Philosophen Bertrand Russell (1872–1970)<br />
und George Edward Moore (1873–1958) und vom<br />
Wiener Kreis begründet und kann als eine Fortführung<br />
der Leibniz'schen Ideen begriffen werden.<br />
Ihre Vertreter wiesen folgende Gemeinsamkeiten auf:<br />
Ein systematisches, anstatt geschichtliches Herangehen<br />
an philosophische Fragen, eine Orientierung<br />
an empirischen Wissenschaften sowie der Versuch<br />
eine logische Formalsprache (widerspruchsfreie<br />
Idealsprache) zu schaffen oder – je nach Richtung die<br />
Analyse von Sprache mit Mitteln der Logik, letztlich<br />
mit dem Ziel, die angenommene logische Formalsprache<br />
hinter unserer Alltagssprache zu beschreiben.<br />
Es soll nicht unerwähnt bleiben, dass viele Vertreter<br />
dieser Richtung vor dem nationalsozialistischen<br />
Regime fliehen mussten und Ihre Arbeit in England<br />
und den USA fortsetzen.<br />
In der Psychologie hatte der Behaviorismus, von<br />
John B. Watson 1913 ursprünglich als Gegenposition<br />
zur Phänomenologie formuliert, die Untersuchung<br />
von Verhalten mit naturwissenschaftlichen Methoden
und damit eine „Objektivierung“ der Psychologie<br />
eingeführt und war zum vorherrschenden Paradigma<br />
geworden. Ein zunehmend kritisierter „Nebeneffekt“<br />
war, dass nun nur das Ereignis in der Umwelt (Reiz)<br />
und das mutmaßlich daraus resultierende Verhalten<br />
(Reaktion) Gegenstand einer wissenschaftlichen Untersuchung<br />
sein durfte. Das Gehirn wurde als<br />
„Black Box“ betrachtet und innere Zustände zur<br />
Erklärung von Verhalten nicht mit herangezogen.<br />
1957 erschien das Buch „Verbal Behavior“, in dem<br />
der Behaviorist seiner Zeit, Burrhus Fredric Skinner,<br />
seine Hypothese zum Spracherwerb formulierte. In<br />
einer Buchbesprechung übte der Linguist Noam<br />
Chomsky (1959) harsche Kritik und argumentierte,<br />
dass ein so komplexes Verhalten wie Sprache unmöglich<br />
durch den Behaviorismus, und somit durch<br />
assoziatives Lernen, allein, erklärt werden könne.<br />
Vielmehr müsse es ein genetisch determiniertes mentales<br />
„Modul“ geben, das es Menschen erlaubt<br />
Sprache zu erwerben, eine Universale Grammatik, die<br />
die genetische Basis für den Erwerb jeglicher<br />
menschlichen Sprache biete. Damit revolutionierte er<br />
nicht nur die Linguistik; die Kritik an Skinner wird<br />
auch als Meilenstein auf dem Weg zu einem neuen<br />
Paradigma gesehen: dem Kognitivismus.<br />
Bevor der Kognitivismus näher diskutiert wird,<br />
muss vielleicht die für die Entstehung der Kognitionswissenschaften<br />
wesentlichste Erfindung und Voraussetzung<br />
hingewiesen werden: der Computer und<br />
seine formalen Grundlagen. 1936 hatte der Mathematiker<br />
Alan Turing (1912-1954) gezeigt, dass jede<br />
berechenbare Funktion durch eine Turingmaschine<br />
implementiert werden kann (Turing, 1936; Turing,<br />
1950). Eine genaue Erklärung würde an dieser Stelle<br />
zu weit führen; wesentlich ist in unserem Kontext,<br />
dass sie – unendlich großen Speicher vorausgesetzt –<br />
jede berechenbare Funktion berechnen kann und,<br />
dass sie den Begriff Algorithmus exakt präzisiert. Als<br />
solche bildete sie die theoretische Basis für die Ent-<br />
Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 3<br />
Disziplin Linguis:k Mathema:k (Infor-‐<br />
ma:k)<br />
Beitrag zur Kogni:-‐<br />
ons-‐wissenscha< und<br />
Entstehung des Ko-‐<br />
gni:vismus<br />
Beschreibung sprach-‐<br />
licher Strukturen<br />
Neu: Universal-‐gram-‐<br />
ma1k<br />
Mathema:scher Be-‐<br />
weis, Computer<br />
Neu: formale Spra-‐<br />
chen, Simula1on<br />
Philosophie Psychologie<br />
Philosophische Basis<br />
(„Denken ist<br />
rechnen“)<br />
Neu: Formale Logik<br />
Empirische Daten, Ex-‐<br />
periment<br />
Neu: in die „Black Box<br />
hineinschauen“<br />
Tabelle 1: Überblick über die Disziplinen und ihren Beitrag an der Entstehung der frühen Kognitionswissenschaft<br />
wicklung des Computers (etwa 1946 durch den Mathematiker<br />
John von Neumann), dessen Architektur<br />
nach wie vor die Basis jedes Computers bildet.<br />
Zusammengefasst, lässt sich der wissenschaftsgeschichtliche<br />
Kontext um 1950 in sehr vereinfachter<br />
Form zuspitzen (vgl. Tabelle 1): In der Psychologie<br />
gibt es eine weit verbreitete Unzufriedenheit mit dem<br />
Behaviorismus, dessen Methoden es nicht erlauben<br />
etwas darüber auszusagen oder zu untersuchen was,<br />
salopp gesagt, „im Kopf passiert“. Gerade daran<br />
haben aber all jene Interesse, die menschliche Kognition<br />
verstehen wollen. Auf Seiten der Analytischen<br />
Philosophie gibt es ein Angebot: Denken ist<br />
logisch und basiert auf einer (formalen) Sprache; wir<br />
müssen also „nur“ einen Weg finden die Formalsprache<br />
„hinter“ der Alltagssprache zu beschreiben.<br />
Chomskys Idee der Universalgrammatik bietet eine<br />
neue Brücke zwischen formaler Logik und natürlichen<br />
Sprachen. Und der Computer bietet eine vollkommen<br />
neue Herangehensweise, mit der wissenschaftliche<br />
Theorien einer Prüfung unterzogen<br />
werden konnten. Anstatt Modelle mit Papier und<br />
Bleistift durchzurechnen, konnten diese Modelle,<br />
wenn man sie in eine formalisierte Form (entspricht<br />
Algorithmen, die als Computerprogramme implementiert<br />
werden) bringt, automatisch berechnet<br />
werden und gegebenenfalls Vorhersagen für die empirische<br />
Forschung machen: die Methode der Computersimulation.<br />
Ein weiteres wichtiges „Puzzlestück“ für die Analogie<br />
zwischen Denken und Logik lieferten der Neurophysiologe<br />
Warren McCulloch und der Logiker<br />
Walter Pitts 1943. Die Turingmaschine (und in der<br />
Folge auch von Neumann-Computer) verwenden das<br />
von Leibniz erfundene Binärsystem, das heißt sie<br />
„kannte“ die zwei Symbole „1“ und „0“. Auch Nervenzellen<br />
kennen zwei Zustände: sie feuern („1“)<br />
oder sie feuern nicht („0“). Auf Basis dieser Überlegung<br />
entwickelten McCulloch und Pitts (1943) ein<br />
sehr vereinfachtes, abstrahiertes Neuronenmodell,
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
mit dessen Hilfe sie zeigen konnten, dass ein<br />
Netzwerk dieser Neuronenmodelle – und damit auch<br />
das menschliche Gehirn – im Prinzip die selben Berechnungskapazitäten<br />
hat, wie eine Turingmaschine,<br />
das heißt jede berechenbare Funktion berechnen und<br />
damit auch logische Formalsprachen verkörpern.<br />
?<br />
Aufgabe: Das MIU-‐System (Hofstadter, 1985)<br />
Folgende Aufgabe soll Ihnen helfen, die Grundprin-‐<br />
zipien formaler Sprachen zu verstehen.<br />
Das MIU-‐System besteht aus einem Axiom „MI“, das<br />
als Startbedingung gegeben ist, sowie den Symbolen<br />
„I“ und „U“, die nach Regeln manipuliert werden, um<br />
Sätze zu bilden (abzuleiten). Die Regeln lauten:<br />
▸ Regel 1: Wenn der letzte Buchstabe ein I ist, darf<br />
ein U angehängt werden (MI → MIU)<br />
▸ Regel 2: Alles nach dem M darf verdoppelt<br />
werden (MIU → MIUIU)<br />
▸ Regel 3: Aus III darf U werden (III → U)<br />
▸ Regel 4: UU kann gestrichen werden (UUU → U)<br />
Bice nehmen Sie sich 10 bis 15 Minuten Zeit und<br />
leiten Sie aus dem Axiom MI mit Hilfe der Regeln des<br />
MIU-‐Systems MU ab!<br />
Waren Sie erfolgreich? Was hat Ihnen bei der Lösung<br />
der Aufgabe Probleme bereitet und was kann der<br />
:efere Grund dafür sein?<br />
3. Klassische Kogni/onswissenscha1<br />
Die oben beschriebene wissenschaftliche Konstellation<br />
führte zu einer neuen Sicht auf menschliche<br />
Kognition und begründete so Mitte der 1950er Jahre<br />
das Entstehen der Kognitionswissenschaft (Bechtel<br />
& Graham, 1998). Was sie einte, war die Annahme<br />
einer Vergleichbarkeit von Mensch und Computer in<br />
dem Sinne, dass der Computer ein reaktionsfähiger<br />
Mechanismus sei, der flexibles, komplexes und zielorientiertes<br />
Verhalten zeigen kann, ebenso wie Menschen.<br />
Daher sei es nur natürlich von der Hypothese<br />
auszugehen, dass ein solches System offenlege, wie<br />
Menschen zu eben dieser Flexibilität kämen, ergo<br />
zeige, wie der menschliche Geist funktioniere<br />
(Newell, 1963). Diese Annahme schlug sich in dem<br />
zentralen Postulat „cognition is information processing“,<br />
Kognition ist Informationsverarbeitung,<br />
nieder. Informationsverarbeitung wird in folgendem<br />
Sinne verstanden: ein Algorithmus verarbeitet, verändert<br />
und generiert Symbole, von den behauptet<br />
wird, dass sie einen Ausschnitt der Welt repräsentieren<br />
(zum Beispiel das Symbol „Haus“ repräsentiert<br />
ein reales Haus). Deswegen wird dieser Ansatz auch<br />
als symbolverarbeitender Ansatz der Kognitionswissenschaft<br />
bezeichnet. Aufgabe einer Wissenschaft,<br />
die menschliche Kognition verstehen wollte,<br />
war es somit, jene „Algorithmen“ menschlicher Ko-<br />
gnition zu identifizieren, die die Erkenntnisse aus<br />
oben genannten Disziplinen künstlich erzeugen (im<br />
Sinne von am Computer simulieren) und diese Simulationsergebnisse<br />
wiederum im empirischen (psychologischen)<br />
Experimenten zu überprüfen.<br />
Das neue wissenschaftliche Paradigma, das – in<br />
Abgrenzung zum auf extern beobachtbares Verhalten<br />
fokussierten Behaviorismus – die Untersuchung<br />
jener „innerer Mechanismen“, die für menschliche<br />
Kognition verantwortlich sind, zum Ziel hatte,<br />
wird als Kognitivismus (Varela, 1990; Bechtel et al.,<br />
1998) bezeichnet. Die Grenzen zum praktisch zeitgleich<br />
entstandenen Forschungsfeld der „Künstlichen<br />
Intelligenz“ (KI) können wir, zumindest für den<br />
Zweck dieses Lehrbuchs, als fließend erachten.<br />
Während für die KI der technische Aspekt im Vordergrund<br />
stand, war es für die Kognitionswissenschaft<br />
der Versuch, menschliche Kognition zu verstehen.<br />
Das Revolutionäre an der neu entstandenen Kognitionswissenschaft<br />
war, dass zum erste Mal zwei<br />
?<br />
Begeben Sie sich zur nächsten Kaffeemaschine (am<br />
besten eine Filtermaschine, jedenfalls aber kein Au-‐<br />
tomat), beobachten Sie genau, wie jemand einen<br />
Kaffee kocht, bis zu dem Zeitpunkt zu dem der Kaffee<br />
trinkfer:g (Milch, Zucker usw.) ist.<br />
▸ Halten Sie das bice in einer genauen Be-‐<br />
schreibung des Ablaufs fest, die sich auf das We-‐<br />
sentliche konzentriert. Auf dieser Basis soll eine<br />
fehlerfreie Wiederholung der Handlung möglich<br />
sein. (Für die Informa:ker/innen unter Ihnen:<br />
schreiben Sie bice einen Algorithmus in Alltags-‐<br />
sprache.)<br />
▸ Versuchen Sie eine Person zu finden, die bereit ist,<br />
Ihrer Beschreibung sklavisch Folge zu leisten und<br />
zu versuchen Ihnen (oder wenigstens sich selbst)<br />
auf Basis Ihrer Beschreibung eine Tasse Kaffee zu<br />
kochen.<br />
Gruppenvariante: Bilden Sie Kleingruppen zur Be-‐<br />
schreibung (op:mal: Dreiergruppen) und lassen Sie<br />
zwei bis drei unterschiedliche Beschreibungen auspro-‐<br />
bieren, bevor Sie die Fragen zur Aufgabe im Plenum<br />
besprechen<br />
Fragen zur Aufgabe<br />
▸ War Ihre Beschreibung erfolgreich?<br />
▸ Oder musste „geschummelt“ werden, damit Sie zu<br />
Ihrem Kaffee kommen konnten, das heißt es<br />
wurden Handlungen gesetzt, die nicht zu 100 Pro-‐<br />
zent in Ihrer Beschreibung angegeben wurden?<br />
▸ Wie und warum?<br />
Gruppenvariante:<br />
▸ Gibt es unterschiedliche Beschreibungen?<br />
▸ Worin unterscheiden sie sich?<br />
▸ Auf welche Probleme sind Sie beim Anfer:gen der<br />
Beschreibung gestoßen?
Methoden zur Verfügung standen, eine Theorie zu<br />
überprüfen: neben der Empirie, die eine Untersuchung<br />
des Forschungsgegenstands „in der Realität“<br />
ermöglicht, stand nun ein mächtiges Instrument zur<br />
Verfügung, eine Theorie in Form eines Modells auf<br />
Kohärenz zu testen – um dann seine Vorhersagen<br />
wieder mit Hilfe der Empirie zu überprüfen. Die<br />
ersten Systeme brachten schnelle Erfolge, konnten<br />
Probleme, wie den „Turm von Hanoi“ lösen und –<br />
zur damaligen Zeit als Krone menschlicher Kognition<br />
gesehen – mathematische Gleichungen lösen<br />
und Schach spielen.<br />
Kritiker/innen waren jedoch weniger beeindruckt.<br />
Ihrer Ansicht nach waren die Systeme nicht wirklich<br />
intelligent, sondern führten nur Programme aus. Die<br />
Probleme, die diese Programme bearbeiteten, seien<br />
so ausgewählt, dass sie in sich geschlossen und leicht<br />
als formales System zu fassen seien.<br />
Ein weiterer Kritikpunkt war, dass ein Programm,<br />
nur weil es eine Art von Problemen lösen konnte,<br />
?<br />
diese Fähigkeit noch lange nicht auf einen anderen<br />
Bereich übertragen konnte, das heißt diese „kognitiven<br />
Systeme“ waren hochgradig domänenspezifisch.<br />
Die Flexibilität menschlichen Denkens und Handelns<br />
zeichnet sich hingegen dadurch aus, dass wir<br />
?<br />
Denken Sie an Ihre Erfahrung mit dem MIU-‐System:<br />
Entspricht es Ihrem Alltagsdenken? Wann haben Sie<br />
aufgehört innerhalb des Systems zu denken und<br />
immer weitere Sätze abzuleiten und stacdessen be-‐<br />
gonnen sich zu fragen, ob eine Lösung möglich ist?<br />
Denken Sie an Ihren „Kaffeekoch-‐Algorithmus“:<br />
Wie genau muss die Beschreibung sein und wieviel<br />
Wissen über die Welt erfordert diese rela:v einfache<br />
Aufgabe?<br />
Wie reagiert Ihr Algorithmus auf eine plötzlichen Ver-‐<br />
änderungen der Umwelt (z.B. einen neuen Ort für den<br />
Kaffee, eine etwas anders gebaute Maschine)?<br />
Welche Handlungsop:onen hat Ihr Algorithmus und<br />
was tut eine Versuchsperson, wenn er/sie auf ein<br />
Problem bei der Ausführung trifft?<br />
nicht nur unterschiedliche Strategien zur Problemlösung<br />
zur Verfügung haben, die wir nach Belieben<br />
abbrechen und wechseln können, sondern darüber<br />
hinaus auch Fähigkeiten zur Adaptation haben. Das<br />
heißt, wir können unser Handeln hinterfragen, verändern<br />
und improvisieren. Wir sind auch mit unvollständigen<br />
Informationen handlungsfähig, weil wir<br />
über Kontextwissen über die Welt verfügen, feh-<br />
Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 5<br />
lendes Wissen nahezu automatisch vervollständigen,<br />
etc. Und wir können eines, das diese Systeme nicht<br />
konnten: wir können lernen und tun es ständig.<br />
Um eine lange Geschichte kurz zu machen: Es gab<br />
in der Folge viele Versuche die Systeme dieser frühen<br />
Phase der Kognitionswissenschaft mit Weltwissen<br />
auszustatten, die im Wesentlichen mit der Erkenntnis<br />
endete, dass unsere Sprache und unser Wissen über<br />
die Welt in Teilbereichen, aber nicht als Ganzes den<br />
Regeln einer Logik folgt, sondern vielfach widersprüchlich<br />
ist. Für uns Menschen ist es in unterschiedlichen<br />
Situationen ganz natürlich unterschiedlichen<br />
Regeln zu folgen. Auch mit den Widersprüchen<br />
natürlicher Sprachen haben wir kein<br />
Problem: Wenn jemand meint sich auf die nächste<br />
Bank setzen zu müssen, wissen wir, dass kein Geldinstitut<br />
gemeint sein kann.<br />
Rückwirkend kann man die klassische Kognitionswissenschaft<br />
als Unterfangen betrachten, jahrhundertealte<br />
Vorstellungen über die menschliche Kognition<br />
mit Hilfe einer zu ihrer Zeit revolutionären neuen<br />
Methode auszutesten: der Computersimulation.<br />
Dadurch haben wir einige falsche Hypothesen über<br />
Bord werfen können und eine ganze Menge über uns<br />
gelernt. Unsere Vorstellung, was menschliche Kognition<br />
in ihrem Kern ausmacht, hat sich verschoben<br />
– mathematische Gleichungen lösen zu<br />
können, ist es nicht – und Fähigkeiten, die keine<br />
weitere Beachtung fanden, wie Sprechen, den<br />
Heimweg finden oder über einen Witz lachen<br />
können, können gewürdigt werden. Darüber hinaus<br />
wurde auch klar, dass sowohl formale als auch natürliche<br />
Sprachen nur einen Teil der Welt repräsentieren<br />
können und in diesem Ansatz viele feine Nuancen,<br />
emotionale Zustände, implizite Bedeutungen, usw.,<br />
die für kognitive Prozesse oft entscheidend sind, in<br />
diesem Ansatz unberücksichtigt bleiben.<br />
4. Konsequenzen für Lernen und Lehren mit Techno-‐<br />
logien: Die Frage des adäquaten Wissensbegriffs<br />
Aber was hat das alles in einem Buch über Lernen<br />
und Lehren mit Technologien zu suchen? Der Einfluss<br />
der klassischen Kognitionswissenschaft ist in<br />
vielen wissenschaftlichen Bereichen (ebenso wie in<br />
unserer Alltagsauffassung von Kognition) nach wie<br />
vor zu erkennen, was sich sowohl in den Metaphern<br />
ausdrückt, mit denen Lernprozesse beschrieben<br />
werden, als auch in deren, häufig implizit angenommenen,<br />
Wissensbegriffen.<br />
Wann immer es um Lernen und Erinnern geht, ist<br />
die Computermetapher „Kognition ist Informationsverarbeitung“<br />
allgegenwärtig: es wird von Abspeichern,<br />
Updaten, Speichern, Informationsverar-
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
beitung und Abrufen gesprochen. Unser Gedächtnis<br />
wird von der Kognitiven Psychologie in ein Sensorisches<br />
Gedächtnis (engl. „sensory buffer“, analog zum<br />
Tastaturbuffer oder -puffer), ein Kurzzeit- oder Arbeitsgedächtnis<br />
(engl. „working memory“, analog<br />
zum Arbeitsspeicher) und ein Langzeitgedächtnis<br />
(engl. „long term memory“, analog zum Speicher,<br />
„Festplatte“) eingeteilt, zwischen denen „Information“<br />
fließt (Zimbardo, 2004, 298).<br />
Wie wir gesehen haben, ist es kein Zufall, dass<br />
dieses Modell damit in wesentlichen Teilen der Computerarchitektur<br />
entspricht. Treffen diese Ausdrücke<br />
den Kern der Sache? Oder suggerieren Sie eine spezifische<br />
Sichtweise, die den Blick auf Wesentliches verstellt?<br />
Vieles deutet darauf hin, dass letzteres der Fall<br />
ist, denn diese Sichtweise auf Kognition und Gedächtnis<br />
„funktioniert“ nur mit einem Wissensbegriff,<br />
der folgende Eigenschaften aufweist:<br />
▸ Wissen beschreibt die Welt,<br />
▸ Wissen besteht aus Einheiten (und ist damit in gewisser<br />
Weise quantifizierbar),<br />
▸ Wissen ist strukturunabhängig, das heißt es kann<br />
gespeichert und abgerufen werden, ohne sich qualitativ<br />
zu verändern und<br />
▸ Wissenseinheiten werden nach Bedarf miteinander<br />
in Beziehung gesetzt.<br />
Kurz gesagt: Wissen verhält sich wie Information,<br />
wobei mitschwingt, dass es bezüglich der Bedeutung<br />
zwischen der gesendeten und der empfangenen Information<br />
keinen Unterschied gibt, das heißt dieser<br />
Wissensbegriff behandelt Wissen nicht nur als<br />
Objekt, sondern suggeriert zusätzlich eine Objektivität<br />
(im Sinne von invarianten und subjektunabhängigen<br />
Bedeutungen) von Wissen.<br />
In einem Bildungskontext suggeriert ein solches<br />
Modell unterschwellig zumindest folgende Annahmen:<br />
▸ dass es beim Lernen darum geht etwas zu memorieren<br />
und bei Bedarf korrekt abzurufen,<br />
▸ dass dieses Etwas, das gelernt werden soll, wie ein<br />
Gegenstand von einem Gehirn ins andere weitergegeben<br />
werden kann,<br />
▸ dass dieses Etwas eine gewisse Objektivität und<br />
Unveränderbarkeit besitzt und,<br />
▸ dass Lernen eine intellektuelle Angelegenheit ist,<br />
bei dem Körper (inklusive Emotionen) und dem<br />
sozialen Umfeld bestenfalls die Rolle eines „Motivators“<br />
zukommt.<br />
Polemisch ausgedrückt, macht ein solcher Wissensbegriff<br />
Lehrende zu Bereitsteller/innen von Information,<br />
während Lernende zum beliebigen Container<br />
für Wissensobjekte werden. Selbstverständlich gehen<br />
wir nicht davon aus, dass Lehrende die skizzierte Position<br />
ernsthaft vertreten, es ist uns aber wichtig herauszuarbeiten,<br />
was in der Computermetapher für<br />
menschliches Denken implizit mitschwingt, das heißt<br />
welche Fragen und Schlussfolgerungen sie fördert<br />
und wo sie blinde Flecken hat. Gerade im Bereich des<br />
Lehrens und Lernens mit Technologien – also unter<br />
Einsatz eines Computers – ist es besonders verführerisch,<br />
Wissen als Objekt zu behandeln, vergleiche das<br />
Konzept von Lernobjekten. Im Bereich des<br />
E-Learning findet es sich in mediendidaktischen<br />
Konzepten wieder, die von einer De- und Rekontextualisierbarkeit<br />
von Wissen oder, wie das Microlearning<br />
auf „Wissensbrocken’“ basieren. Wir<br />
möchten das nicht als Verurteilung verstanden<br />
wissen, als Elemente eines umfassenderen didaktischen<br />
Konzepts können sie durchaus sinnvoll eingesetzt<br />
werden. Was wir herausarbeiten möchten ist,<br />
wie eine Metapher – nämlich menschliche Kognition<br />
funktioniert wie ein Computer – und die Verwendung<br />
des Computers konzeptuell nahtlos zusammengehen<br />
und eine Allianz bilden, die einen Wissensbegriff<br />
transportiert und eine Didaktik des „Wissenstransfers“<br />
nahelegt.<br />
Nun könnte man einwenden, dass es egal sei, mit<br />
welchem Wissensbegriff jemand lernt, die Fakten<br />
seien schließlich klar durch den Kursinhalt oder vom<br />
Lehrplan vorgegeben. Der Wissensbegriff, mit dem<br />
Lernende ans Lernen herangehen ist aber wesentlich<br />
für einen nachhaltigen Lernerfolg. Ference<br />
Marton und Roger Säljö haben in einer Studie (1976,<br />
zitiert in Land et al., 2008) zwei qualitativ unterschiedliche<br />
Lernstrategien identifizieren können, die<br />
sie als oberflächliches Lernen (engl. „surface<br />
learning“) und tiefes Lernen (engl. „deep learning“)<br />
bezeichnen. Letzteres ist der Wunsch aller Lehrenden:<br />
Lernende, die intrinsisch motiviert um profundes<br />
Verstehen ringen und das Gelernte mit Vorwissen<br />
und Erfahrung verknüpfen. Gerade im<br />
Kontext unseres Bildungssystems kommt es leider<br />
viel zu häufig zur alternativen Strategie des Surface<br />
Learning. Lernende lernen ohne eigene Motivation<br />
isolierte Fakten auswendig, um sie bei Bedarf zu reproduzieren<br />
(und ggf. gleich wieder zu vergessen), ein<br />
Verhalten das auch gerne als Bulimie-Lernen bezeichnet<br />
wird (Tabelle 2 stellt die beiden Lernstrategien<br />
noch einmal gegenüber). Surface Learning<br />
geht dabei mit einem Wissensbegriff einher, der auf<br />
einzelne Fakten fokussiert, also Wissen als isolierte<br />
„Wissensobjekte“ behandelt. Mit der Computerme-
tapher für menschliche Kognition liefert der Kognitivismus<br />
eine Sicht auf menschliche Kognition, die<br />
eben diese Wissenskonzeption unterstützt.<br />
Forderungen nach einer Didaktik, die mehr<br />
leistet als ein Fokussieren auf Faktenwissen, gibt<br />
es spätestens seit der Reformpädagogik. Im Laufe der<br />
letzten Jahrzehnte hat sich die Sicht auf menschliche<br />
Kognition sehr gewandelt und wir möchten Sie einladen<br />
sich mit uns wieder auf die Ebene der kognitionswissenschaftliche<br />
Grundlagenforschung zu begeben<br />
und Teile dieser Entwicklung mit uns nachzuvollziehen,<br />
die Konsequenzen für unser Bild von<br />
Lernen und Wissen sowie den Einsatz von Technologien<br />
vor diesem Hintergrund zu reflektieren.<br />
5. Der Übergang zu einer neuen Sicht auf Kogni/on:<br />
?<br />
Der Konnek/onismus und die Simula/on neuronaler<br />
Prozesse<br />
Wie oben ausgeführt, führte die Sichtweise der Klassischen<br />
Kognitionswissenschaft zu einer starken<br />
Kritik, wobei in unserem Kontext ein zentraler Punkt<br />
ist, dass die oben skizzierten Systeme nicht lernen<br />
konnten. Mitte der 1980er Jahre kam es, ausgelöst<br />
durch eine in dem Doppelband „Parallel Distributed<br />
Processing“ von David E. Rumelhart und James F.<br />
McClelland (1986) veröffentlichte Sammlung von<br />
Einzelarbeiten, zu einem Siegeszug eines neurowis-<br />
Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 7<br />
Surface Learning Deep Learning<br />
Stützt sich aufs Auswendiglernen Suche nach der Bedeutung und Verstehen<br />
Stützt sich auf Faktenwissen & Rou:nen Stützt sich auf das „Wesentliche“, den „Kern“<br />
Fokussiert auf Regeln und Formeln, die für die Lösung ei-‐<br />
nes Problems angewendet werden<br />
Fakten und Konzepte werden unreflek:ert „aufgenom-‐<br />
men“ und abgespeichert<br />
Vernachlässigt den Kontext Bezieht Kontext ein<br />
Fokussiert auf zentrale Argumente, die für die Lösung ei-‐<br />
nes Problems von Bedeutung sind<br />
Verknüp> theore:sche Ansätze mit eigenem Erfahrungs-‐<br />
hintergrund<br />
Fokussiert auf nicht vernetzte Teile einer Aufgabe verbindet vorhandenes Wissen mit neuem Wissen<br />
Mo:va:on ist extrinsisch Mo:va:on ist intrinsisch<br />
Tabelle 2: Charakteristika von Surface Learning und Deep Learning nach Marton und Säljö (1976, zitiert in Land et al., 2008)<br />
Wo ist Ihnen die Computermetapher, das Benennen<br />
kogni:ver Prozesse als speichern, abrufen, usw. be-‐<br />
reits begegnet? Reflek:eren Sie Ihre „Alltagsphilo-‐<br />
sophie“: Wie denken Sie selbst über Kogni:on, Lernen<br />
und Wissen? Wie, in welchen Metaphern, sprechen<br />
Sie darüber?<br />
senschaftlich inspirierten Modells, das bislang vom<br />
Mainstream der Kognitionswissenschaft ignoriert<br />
worden war: den künstlichen neuronalen Netzen<br />
(KNN).<br />
Ein KNN (in der Regel eine Computersimulation,<br />
es sind aber auch physische Umsetzungen möglich)<br />
besteht aus vielen sehr einfachen, identisch aufgebauten<br />
Einheiten, die als units oder auch Neuronen<br />
bezeichnet werden und über Gewichte (diese simulieren<br />
in sehr vereinfachter Weise die Funktion von<br />
Synapsen) untereinander verbunden sind. Typischerweise<br />
haben KNN, die für die Modellierung kognitiver<br />
Leistungen herangezogen werden eine Schicht<br />
von Neuronen, der Stimuli präsentiert werden (engl.<br />
„input layer“), eine Schicht von Neuronen, die etwas<br />
ausgeben (engl. „output layer“) sowie eine oder<br />
mehrere Neuronenschichten dazwischen (engl.<br />
„hidden layer“), die jeweils linear oder rekursiv miteinander<br />
verbunden sind.<br />
Die Aufgabe oder Funktion jedes einzelnen<br />
Neurons besteht darin, die Aktivierungen der eingehenden<br />
Verbindungen zu integrieren und an die jeweils<br />
„angeschlossene“ Units weiterzugeben. Dies geschieht<br />
durch einfaches Aufsummieren der gewichteten<br />
Inputs und Weitergabe der eigenen Aktivierung,<br />
wenn diese einen bestimmten Schwellenwert überschreitet.<br />
Dies wird von allen Units parallel durchgeführt<br />
und führt, auf der Ebene des gesamten Netzwerks,<br />
zu einer emergenten Verhaltensdynamik. Wesentlich<br />
ist, dass diese Netze in ihrer Architektur<br />
(meist) fest „verdrahtet“ sind, die Gewichte aber veränderbar<br />
sind. In Kombination mit den Inputs aus<br />
der Umwelt sind die Gewichte für die Verhaltensdynamik<br />
des Netzwerks verantwortlich. Anstatt die Gewichte<br />
von Hand einstellen zu müssen, wurde in den
8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
frühen 1980er Jahren ein Algorithmus gefunden, der<br />
die schrittweise Veränderung der Gewichte in einem<br />
Trainingsprozess in einer Weise durchführt, dass das<br />
Netz seine Aufgabe schließlich fast perfekt lösen<br />
kann: KNN können ohne Eingabe von Regeln und<br />
Symbolen, nur anhand von Beispielen, mit denen sie<br />
trainiert werden, lernen. Nach jeder Aufgabe bekommen<br />
sie ein Feedback, ob die Antwort richtig<br />
oder falsch war, indem Ihre Gewichte ganz minimal<br />
in Richtung der korrekten Lösung verändert werden,<br />
bis sie fast zu 100 Prozent richtig liegen. Allerdings<br />
können sie nicht alle Aufgaben gleichermaßen gut<br />
lösen. Gut sind sie, kurz gesagt, bei Mustererkennung,<br />
Kategorisierungsaufgaben, Vorhersage von<br />
Wahrscheinlichkeiten, usw. Modelle von Aspekten<br />
menschlicher Kognition, die auf KNN basieren,<br />
weisen einige sehr charakteristische Eigenschaften<br />
auf:<br />
▸ Bei Kategorisierungsaufgaben kann ein KNN generalisieren.<br />
Trainiert man ein solches Netz zum<br />
Beispiel Bilder von Blumen und Tiere zu unterscheiden,<br />
wird es ein Bild mit einem Tier, dass es<br />
nicht im Rahmen seines Trainings „gelernt“ hat,<br />
mit sehr, sehr hoher Wahrscheinlichkeit der Kategorie<br />
„Tier“ zuordnen.<br />
▸ Sie können dieselben Fehler bei der Generalisierung<br />
machen wie Menschen. Zum Beispiel<br />
übergeneralisieren Kinder beim Spracherwerb<br />
häufig unregelmäßige Formen, wenn sie Grammatik<br />
lernen, sagen zum Beispiel plötzlich „gehte“<br />
statt „ging“.<br />
▸ Die Lernkurve gleicht häufig der, die bei Menschen<br />
gefunden wurde: KNN lernen zunächst<br />
sehr schnell, dann flacht die Lernkurve zusehends<br />
ab<br />
▸ Auch wenn das Netz richtige Antworten liefert,<br />
kann es sein, dass das, was es gelernt hat, nicht der<br />
Intention des Architekten des Netzes entspricht.<br />
So unterschied ein KNN, das lernen sollte Gesichter<br />
voneinander zu unterscheiden, die gezeigten<br />
Bilder auf Basis des Haaransatzes voneinander.<br />
▸ Das in einem KNN repräsentierte Wissen ist in<br />
zweifacher Weise robust: (1) beim Lernen eines<br />
neuen Assoziationspaares „vergisst“ das Netz<br />
nicht das bereits Gelernte; (2) auch vergisst das<br />
Netz nicht schlagartig alles, wenn man einzelne<br />
Neuronen und Gewichte entfernt.<br />
Mit diesen Eigenschaften stellten KNN noch keinen<br />
grundsätzlichen Widerspruch zur klassischen Sicht<br />
auf Kognition dar. Man konnte sie durchaus als eine<br />
Ergänzung begreifen, die eine Erklärung lieferte, wie<br />
durch Lernen (von Kategorien) Symbole „in den<br />
Kopf kommen“ können. Allerdings stellte sich die<br />
Frage, welcher Natur diese Symbole denn seien. In<br />
neuronalen Netzwerken sind Symbole und Regeln<br />
nicht sauber voneinander getrennt „abgespeichert“,<br />
vielmehr ist alles, was das Netz „weiß“ in der gesamten<br />
Architektur des Netzes, das heißt in allen<br />
Neuronen, allen Gewichten und deren Konfiguration,<br />
verteilt repräsentiert. Man spricht daher<br />
auch von einem Subsymbolischen Ansatz (vgl. Rumelhart<br />
et al., 1986; Smolensky, 1998; Elman, 1990).<br />
!<br />
Eigenscha>en Künstlicher Neuronaler Netze (KNN):<br />
▸ KNN lernen anhand von Beispielen („Erfahrungs-‐<br />
lernen“), ohne explizit eingegebene Regeln und<br />
Symbole.<br />
▸ Sie können sehr gut, kategorisieren, generalisieren<br />
und Muster erkennen.<br />
▸ Die Repräsenta:on ist verteilt (subsymbolischer<br />
Ansatz<br />
▸ und robust.<br />
▸ Sie machen ähnliche Fehler wie wir und<br />
▸ sind „biologisch plausibler“, weil von der Struktur<br />
natürlicher Neuronaler Netze inspiriert<br />
Konsequenzen für unsere Begriffe von Wissen und<br />
Lernen<br />
Der erste Erfolg der Künstlichen Neuronalen Netze<br />
war zunächst, ein biologisch plausibles Modell<br />
dafür zu liefern, wie Symbole und Regeln gelernt<br />
werden können. In gewisser Weise setzen sie eine<br />
Ebene tiefer an als der symbolverarbeitende Ansatz:<br />
sie bieten eine Alternative auf der „subsymbolischen<br />
Ebene“ an (Smolensky, 1998). Konsequenz war aber<br />
ein neues Bild von Repräsentation und den Eigenschaften<br />
kognitiver Systeme.<br />
Damit erlauben die KNN eine fundamental<br />
andere Sichtweise auf Wissen (Peschl, 1994;<br />
Peschl, 1997). Zunächst ist klar: das „Wissen im<br />
Kopf“ muss strukturell keineswegs identisch mit den<br />
in Symbolen und Regeln beschriebenen Strukturen<br />
der Welt sein. Nicht die „korrekte“ Abbildung der<br />
Welt ist relevant, sondern das adäquate Ergebnis,<br />
also gewissermaßen die Handlung, die in die Struktur<br />
der Umwelt passen muss. Als eine Konsequenz der<br />
Aufgabe des Konzeptes der Abbildung sind die Inhalte<br />
der Repräsentation, im Gegensatz zu klassischen<br />
symbolverarbeitenden Systemen, nicht mehr<br />
unmittelbar verständlich; vielmehr bedarf es aufwändiger<br />
statistischer Verfahren, um herauszufinden, was<br />
so ein Netz eigentlich gelernt hat.
Eine weitere interessante Konsequenz der verteilten<br />
Repräsentation ist, dass, im Gegensatz zum<br />
klassischen Ansatz, keine Trennung zwischen<br />
Inhalt und Substrat besteht: das Netz ist sein<br />
Wissen und dieses Wissen ist in der Architektur verkörpert<br />
(zumindest potentiell, zumeist handelt es sich<br />
bei KNN ja um Computersimulationen (zum Beispiel<br />
Clark, 1999; Clark, 2001)). Damit gibt es auch keine<br />
leicht voneinander trennbaren Wissensobjekte<br />
mehr, vielmehr werden alle dem neuronalen<br />
Netzwerk präsentierten Stimuli (zum Beispiel Bilder)<br />
von allen Neuronen und allen Gewichten repräsentiert.<br />
Die Repräsentation das KNN kann man als<br />
einen Raum verstehen, in dem Inputs kategorisiert<br />
und dadurch in eine Beziehung (in diesen einfachen<br />
Modellen ist es Ähnlichkeit) gesetzt werden.<br />
Die Analogien zu Bildungskontexten, insbesondere<br />
Frontalsituationen liegen auf der Hand: Die<br />
„Input-Output-Relation“ ist dadurch bestimmt, dass<br />
Lernende durch Vortrag, durcharbeiten eines Lernpfades,<br />
usw. einen Stoff präsentiert bekommen und<br />
in einer Prüfungssituation den gewünschten<br />
„Output“ zu liefern haben. Doch Lernen ist kein Kopiervorgang<br />
von Wissensobjekten – was gelehrt wird,<br />
muss noch lange nicht das sein, was gelernt wird.<br />
Nachdem Lernen in unserem Bildungssystem häufig<br />
„Output-getrieben“ ist („Was muss ich tun, um eine<br />
gute Note zu bekommen?“), liegt es daher nahe, Prüfungen<br />
so anzulegen, dass nicht isolierte Fakten abgefragt<br />
werden, sondern ein Verständnis der Kategorien<br />
und Bezüge des gesamten „Wissensraumes“ gefordert<br />
ist.<br />
?<br />
Welche Prüfungssitua:onen, die Sie als Lernende<br />
erlebt oder als Lehrende gestaltet haben, haben<br />
Fakten abgefragt und welche Prüfungsmethoden sind<br />
„:efer“ gegangen?<br />
6. Embodied and Situated Cogni/on<br />
Verkörperte Kogni/on<br />
Rückwirkend kann der Konnektionismus, der zu<br />
seiner Zeit eine Revolution war, als Bindeglied und<br />
Übergangsphase zwischen zwei Paradigmen gesehen<br />
werden. Was als „Nebenwirkung“ des Konnektionismus<br />
begann, rückte schließlich ins Zentrum des<br />
Interesses: Während die klassische Kognitionswissenschaft<br />
versucht hatte die Welt möglichst genau in formalisierten<br />
Strukturen abzubilden, rückte durch den<br />
Konnektionismus die Frage in den Mittelpunkt, wie<br />
KNN-Architektur und -Prozesse mit der Struktur<br />
und Dynamik der Umwelt (Stimuli) zweckmäßig und<br />
dem jeweiligen System angemessen interagieren.<br />
Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 9<br />
Damit war der Weg frei, die zentrale implizite Annahme<br />
der Klassischen Kognitionswissenschaft in<br />
Frage zu stellen: Wie „biologisch plausibel“ ist überhaupt<br />
die stillschweigende Annahme, dass Kognition<br />
vor allem dafür da ist, abstrakte Symbole und Regeln<br />
zu verarbeiten?<br />
Der Fokus auf die Interaktion eines verkörperten<br />
kognitiven Systems, also eines kognitiven Systems<br />
dessen physische Beschaffenheit eine zentrale Rolle<br />
für seine Repräsentationsfunktionen spielt, mit seiner<br />
physischen Umwelt erlaubte eine neue, „biologischere“<br />
Sichtweise: Die Aufgabe von Kognition ist<br />
es, einem Organismus sinnvolles, das heißt überlebensförderliches<br />
Handeln in Raum und Zeit zu ermöglichen.<br />
Im Paradigma der Embodied Cognition<br />
wird die Koppelung von Kognition, Körper und Welt<br />
daher zum zentralen Thema. Damit ändern sich auch<br />
die Modelle und die Perspektive auf Wissen (-srepräsentation).<br />
Sie kommen nun vielfach aus dem Bereich<br />
der Robotik.<br />
Anforderung an ein kognitives System ist nicht<br />
länger, über möglichst viel und präzises Weltwissen<br />
zu verfügen, um in seiner Umwelt „funktionieren“ zu<br />
können, es geht vielmehr darum, zeitgerecht mit Veränderungen<br />
der Umwelt adäquat umzugehen, (pro-)<br />
aktiv und intentional zu handeln. Schon 1986 postulierte<br />
Rodney Brooks, Robotiker am MIT, man<br />
brauche keine Repräsentation und schlug eine Roboterarchitektur<br />
vor, die robustes und gleichzeitig flexibles<br />
Verhalten hervorbrachte, die sogenannte Subsumption<br />
Architecture (Brooks 1991).<br />
Das Wesentliche dabei ist, dass ein solches System<br />
ohne eine klassische Form der Repräsentation, das<br />
heißt ohne eine Beschreibung, die die Welt abbildet,<br />
auskommt. Stattdessen ist das Wissen in der Architektur<br />
selber verkörpert und dient der Generierung<br />
von Verhalten in Interaktion mit der Welt. An die<br />
Stelle der Abbildung der Welt tritt eine enge erfolgreiche<br />
Koppelung mit der Umwelt. Basis dieser Architektur<br />
bilden Reflexbögen (engl. „layer“ oder<br />
Schichten), die auf Basis eines Reizes aus der Umwelt<br />
eine Handlung ausführen (denken sie an den Lidschlussreflex).<br />
Untereinander sind die Schichten hierarchisch<br />
gekoppelt, das heißt ein Reflex in Ausführung<br />
kann bestimmte andere unterbinden oder<br />
von anderen unterbunden werden. Damit ist sichergestellt,<br />
dass der Roboter fortlaufend auf die Ereignisse<br />
in seiner Umwelt reagiert (wobei schon aus Sicherheitsgründen<br />
eine Aktivität „steh still“ ist) beziehungsweise<br />
Aktivität produziert. Dabei ordnen („subsummieren“)<br />
die Schichten ihre Aktivitäten gegenseitig,<br />
unabhängig davon, wie viele Schichten dem<br />
System hinzugefügt werden. Dies geschieht ohne In-
10 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Embodiment Kogni/vismus<br />
Koppelungsmetapher: Kogni:on („Geist“), Körper und Welt<br />
sind gekoppelt und interagieren<br />
Will man sie verstehen, müssen ihre Zusammenhänge un-‐<br />
tersucht werden<br />
Im Vordergrund: zielgeleitetes Handeln in Echtzeit im dreidi-‐<br />
mensionalen Raum<br />
Kogni:on als ak:ve Konstruk:on, die in verkörperten, ziel-‐<br />
gerichteten Handlungen des Organismus verankert ist<br />
formationsaustausch, das heißt es gibt weder ein zentrale<br />
Verhaltensplanung und Entscheidungsinstanz,<br />
noch eine Abbildung der Welt.<br />
Brooks’ Ansatz stellt ein Extrem dar, aber er<br />
bringt einige Punkte ans Tageslicht, die generell<br />
kennzeichnend für den Ansatz der embodied cognitive<br />
science sind (eine etwas ausführlichere Übersicht<br />
von Cowart (2006) finden Sie in Tabelle 2: Kognition<br />
ist eine Aktivität: die Handlung steht im Vordergrund,<br />
nicht die (passive) Perzeption). Untersucht<br />
wird Kognition an der Schnittstelle Körper –<br />
Umwelt, also an der „Peripherie“ des kognitiven<br />
Systems. Im Gegensatz zur klassischen Kognitionswissenschaft,<br />
die bei menschlichen kognitiven<br />
Höchstleistungen ansetzte, beginnt dieser Ansatz mit<br />
sehr einfachen Strukturen und Verhaltensweisen, aber<br />
dafür mit einem verkörperten, sich in seiner Umwelt<br />
autonom verhaltenden System.<br />
Ganz ohne Repräsentation wird man nicht auskommen,<br />
wenn man menschliche Kognition verstehen<br />
will, aber Kognition als rein „geistiges“, von<br />
Körper, physischer und sozialer Umwelt unabhängiges<br />
Phänomen zu betrachten führt, wie wir ausgeführt<br />
haben, ebenfalls in eine Sackgasse.<br />
Computermetapher – Kogni:on („Geist“) ist regelbasiert<br />
und logisch<br />
Isolierte Analyse: Kogni:on wird ausschließlich durch Ana-‐<br />
lyse interner Prozesse verstanden<br />
Im Vordergrund: computa(on<br />
Kogni:on als passives Abrufen<br />
Repräsenta:onen sind sensomotorisch Repräsenta:onen sind symbolisch encodiert<br />
Tabelle 3: Unterschiede von Embodiment und Kongitvismus nach Cowart (2006)<br />
In der Praxis: Das Experiment von Presson und Montello (1994)<br />
Zwei Versuchsgruppen wurden gebeten, sich die Posi:on ei-‐<br />
niger Gegenstände in einem Raum zu merken. Anschließend<br />
wurde ihnen die Augen verbunden. Die erste Gruppe wurden<br />
gebeten sich um 90° zu drehen und nacheinander auf die<br />
Objekte zu zeigen, die angesagt wurden. Die zweite Gruppe<br />
wurde gebeten sich lediglich vorzustellen sie häcen sich<br />
gerade um 90° gedreht und sollten auf die Posi:on zeigen,<br />
die die Objekte einnehmen würden, wenn sie sich gedreht<br />
häcen. Aus Sicht des kogni:vis:schen Paradigmas tun beide<br />
Gruppen dasselbe: sie ro:eren ihre Repräsenta:on des<br />
Ein elegantes Experiment, das diese Sichtweise<br />
stützt, kommt von Presson und Montello (1994, vgl.<br />
Box „Aus der Forschung“). Glenberg (1993) schließt<br />
daraus, dass unsere Repräsentationen keineswegs körperunabhängig,<br />
sondern im Gegenteil, stark von der<br />
Position unseres Körpers im dreidimensionalen<br />
Raum abhängen. Mit anderen Worten, das Experiment<br />
zeigt, dass die Repräsentation der Probandinnen<br />
und Probanden einen sensomotorischen<br />
Anteil hatte.<br />
Die Hervorbringung und Nutzung von Artefakten als Teil<br />
unserer Kogni/on: Die Rolle der sozialen Interak/on,<br />
der Sprache und der „Kultur“<br />
Francisco Varela postulierte bereits 1984, dass „Intelligenz“<br />
nicht mehr als die Fähigkeit des Problemlösens<br />
zu verstehen sei, sondern als die Fähigkeit, in<br />
eine mit anderen geteilte Welt einzutreten (Varela,<br />
1994). Einen Hinweis darauf, dass schon die Gegenwart<br />
anderer eine „geteilte Welt“ erzeugt, gibt das<br />
Experiment von Sebanz et al. (2009, vgl. „Aus der<br />
Forschung:“). Die „geteilte Welt“ ist jedoch nicht<br />
einfach gegeben, ebenso wie Kognition entsteht sie in<br />
einem aktiven Prozess: Menschen reagieren nicht nur<br />
Raumes und der Objekte darin um 90°. Daher wäre anzu-‐<br />
nehmen, dass es keine Rolle spielt, ob die Probandinnen und<br />
Probanden sich zusätzlich physisch in eine andere Posi:on<br />
begeben. Tatsächlich aber zeigten die Probandinnen und Pro-‐<br />
banden der ersten Gruppe, die sich tatsächlich gedreht<br />
hacen, schnell und akkurat auf die gefragten Objekte,<br />
während die Zeigebewegungen der zweiten Gruppe, die sich<br />
die Drehung lediglich vorstellen musste, zögerlich und un-‐<br />
genau waren.
auf Stimuli in der Umwelt, sondern wir verändern<br />
und strukturieren sie in hohem Maße. Der Philosoph<br />
Andy Clark (1995) bezeichnet dies das als „Scaffolding“<br />
(Errichten eines Gerüsts): wir strukturieren<br />
unsere Umwelt so, dass sie uns in unseren Handlungen,<br />
bzw. beim Erwerb von Fähigkeiten unterstützt.<br />
Ein alltägliches Beispiel ist der Terminkalender:<br />
Wir müssen uns nicht länger jeden Termin<br />
merken, statt dessen werfen wir kognitiven Ballast ab<br />
(man spricht von engl. „offloading cognitive load“)<br />
und interagieren mit unserem Terminkalender, indem<br />
wir Einträge machen oder ihn konsultieren. Eine kognitiv<br />
anspruchsvolle Aufgabe – hier: viele unterschiedliche<br />
Termine exakt „im Kopf haben“ – wird<br />
auf wenige Handlungsmuster in Form der Interaktion<br />
mit einem Artefakt heruntergebrochen.<br />
Darüber hinaus strukturieren wir unsere Umwelt<br />
nicht nur durch Artefakte, wie Werkzeuge, Terminkalender,<br />
Städte, sondern durch soziale Konventionen,<br />
Organisationen und – nicht zuletzt - durch Sprache.<br />
Letztere bezeichnet Clark (1995) als „ultimatives Artefakt“,<br />
weil sie folgende Funktionen erfüllt:<br />
▸ Ein symbolisches Artefakt hat immer den Aspekt<br />
der Referenz. Das heißt ein Symbol referiert auf<br />
den Gegenstand, für den es steht. Es ist klar, dass<br />
diese Referenz nicht im Symbol selber, sondern<br />
durch eine Zuschreibung durch ein oder mehrere<br />
kognitive Systeme geschieht. Das Artefakt ist sozusagen<br />
nur Träger für eine potentielle Referenzfunktion.<br />
▸ Darüber hinaus vermögen symbolische Artefakte<br />
Teile unseres Gedächtnisses stabil zu halten und<br />
▸ die Strukturierung der Umwelt zu verhandeln.<br />
Über Artefakte beeinflussen wir die Interaktionsmöglichkeiten<br />
anderer mit der Welt und werden in noch<br />
stärkerem Maße selbst beeinflusst. Mit anderen<br />
Worten: Kognition (hier ist weitgehend menschliche<br />
Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 11<br />
Aus der Forschung: Das Experiment von Sebanz et al. (2009)<br />
Sebanz et.al. (2009) zeigten ihren Versuchspersonen ver-‐<br />
schiedene Bilder aus drei Kategorien (Tier, Frucht/Gemüse<br />
und Haushaltsgerät) auf einem Computerbildschirm, wobei<br />
eine Versuchsperson immer auf eine Kategorie mit Tasten-‐<br />
druck reagieren sollte. Diese Aufgabe wurde unter zwei Um-‐<br />
ständen durchgeführt: alleine und in Gegenwart einer<br />
zweiten Versuchsperson, deren Aufgabe es war, auf eine<br />
andere Kategorie zu reagieren.<br />
Nach dieser Aufgabe wurden die Versuchspersonen jeweils<br />
gebeten, möglichst viele der gesehenen Objekte aller Kate-‐<br />
Kognition gemeint) hat immer eine sozio-kulturellen<br />
Dimension, man spricht in diesem Kontext auch von<br />
Situated Cognition (Clark, 2001), Die nächste Generation<br />
erhält nicht nur die Gene der Elterngeneration,<br />
sondern wächst in die entstandenen sozialen<br />
und organisationalen Strukturen sowie die Interaktion<br />
mit physischen Artefakten hinein. Tomasello<br />
(1999) bezeichnet diesen Umstand in seinem Buch<br />
„The Cultural Origin of Human Cognition“ als Ratscheneffekt<br />
(engl. „ratchet effect“): Wie die Zacken<br />
des Zahnrads, die die Drehung der Ratsche in eine<br />
Richtung erzwingen, ermöglichen Artefakte den<br />
Aufbau neuer Interaktionsmuster auf der Basis der<br />
vorangegangenen.<br />
?<br />
Überlegen Sie bice, in welchen alltäglichen Situa-‐<br />
:onen Sie Artefakte verwenden, die Ihnen „kogni:ven<br />
Ballast“ abnehmen. Welche Cogni:ve Load laden Sie<br />
ab und welche Interak:onsmuster treten an ihre<br />
Stelle?<br />
Hutchins (1995) wechselt daher die Betrachtungsebene:<br />
In seinem Artikel „How a cockpit remembers<br />
its speeds“ ist der Forschungsgegenstand „kognitives<br />
System“ nicht mehr das Individuum, sondern ein<br />
sozio-technisches System, das nicht nur aus Individuen<br />
(Piloten), sondern auch aus Artefakten (Messinstrumente<br />
und Unterlagen) im Cockpit, besteht<br />
(siehe Kapitel #ant). Um zu verstehen, warum das<br />
Flugzeug sicher landet, reicht es aus seiner Sicht nicht<br />
aus, die kognitiven Prozesse im Kopf der Piloten zu<br />
analysieren, eine Erklärung für die Leistung findet<br />
sich erst, wenn man alle Formen der Repräsentation<br />
– sei diese im Gehirn, auf Papier, einem Messinstrument<br />
oder eine sprachliche Äußerung sowie die<br />
Interaktionsmuster zwischen ihnen analysiert. (Man<br />
beachte an dieser Stelle eine weitere Umdeutung des<br />
Begriffs der Repräsentation!)<br />
gorien zu erinnern. Das Ergebnis war verblüffend: Personen,<br />
die ihre Aufgabe in Gegenwart einer zweiten Versuchsperson<br />
erfüllt hacen, erkannten signifikant mehr Objekte aus der<br />
Kategorie der anderen Person wieder, als wenn sie die<br />
Aufgabe alleine bewäl:gten. Die Anwesenheit der zweiten<br />
Person hace weder Auswirkung auf das Erinnern der „ei-‐<br />
genen“ Kategorie noch auf das der dricen Kategorie. Allein<br />
die soziale Situa:on, ohne eine im eigentlichen Sinne ge-‐<br />
meinsame Aufgabe, hace Auswirkungen auf die Aufmerk-‐<br />
samkeit und das Gedächtnis der Versuchspersonen.
12 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Im Bereich des Lehrens und Lernens ist eine<br />
solche Betrachtungsweise eine gute Basis, um Lernprozesse<br />
als situiert zu konzeptualisieren. In ihrem<br />
Buch „Situated Learning“ (1991) analysieren Lave<br />
und Wenger (1991) außerschulische Lernprozesse,<br />
wie sie beispielsweise in einer Lehre, bei der Ausbildung<br />
zum Steuermannsmaat auf Schiffen (ein Beispiel<br />
von Hutchins) oder bei den Anonymen Alkoholikern<br />
stattfinden, als Lernprozesse in denen sich<br />
Person, Handlung und Welt gegenseitig konstituieren.<br />
Ihr Augenmerk ist dabei weniger auf Artefakte, als<br />
auf die sozialen und organisationalen Strukturen gerichtet,<br />
die dazu führen, dass Neulinge in einem Wissensgebiet<br />
nicht einfach nur Fakten lernen, sondern<br />
in eine Praxisgemeinschaft (engl. „community of<br />
practice“; Wenger, 1998) eintreten und mit zunehmender<br />
Expertise auch eine neue Identität entwickeln.<br />
Unter welchen Bedingungen Communities of<br />
Practice nicht ausschließlich im physischen Raum,<br />
sondern als „virtual communities“, virtuelle Gemeinschaften,<br />
im Internet existieren können, zeigt Powazek<br />
(2001).<br />
7. Konsequenzen für unsere Sicht auf Wissen, Lernen<br />
und Technologien<br />
Was sind die Konsequenzen einer verkörperten und<br />
situierten Kognitionswissenschaft für unseren Wissensbegriff?<br />
Vom leicht fassbaren, weil formalisierbaren<br />
Wissensbegriff der klassischen Kognitionswissenschaft<br />
ist nicht viel übrig geblieben. Stattdessen ist<br />
die Rede von verteilter Repräsentation, Interaktion<br />
und Koppelung mit der Umwelt, Verwendung von<br />
Artefakten, um kognitiven Ballast zu reduzieren, usw.<br />
Was davon ist „Wissen“ – was sind für das kognitive<br />
System interne und was sind externe Strukturen?<br />
Externalisiertes Wissen als Entität, das einen Teil<br />
der Welt beschreibt, gibt es in der Form nicht mehr;<br />
es handelt sich hier nicht um „Wissen“ im alltagssprachlichen<br />
Sinn, sondern um ein an sich bedeutungsloses<br />
Artefakt, dessen Bedeutung in einem fortlaufenden<br />
interaktiven Aushandlungsprozess zwischen<br />
den teilnehmenden kognitiven Systemen bzw.<br />
deren internen repräsentationalen Strukturen/-prozessen<br />
erst entsteht. Das bedeutet auch, dass an die<br />
Stelle des Begriffs von Wissen als statischen Gegenstand,<br />
der wahr oder falsch sein kann, das Konzept<br />
eines dynamischen zyklischen Prozesses getreten<br />
ist, dessen Entwicklungsstufen sich in immer neuen<br />
Artefakten niederschlagen, die ihrerseits neue Interaktionsmöglichkeiten<br />
anbieten, welche wiederum eine<br />
Veränderung der internen Strukturen und Handlungsmuster<br />
hervorrufen.<br />
Das geht insofern mit einem konstruktivistischen<br />
Denken Hand in Hand, als dass das Artefakt an sich<br />
bedeutungslos ist. Der Fokus liegt hier jedoch weniger<br />
auf der individuellen Kognition und Konstruktion<br />
der „Welt im Kopf“ als auf den Prozessen<br />
und Strukturen, die dazu führen, dass wir durch<br />
Kommunikation zu einer Einigung auf „gültiges<br />
Wissen“ -- im Sinne von verhandelt und vereinbart-kommen.<br />
Letztlich befähigt uns das zum Eintreten in<br />
eine „geteilte Welt“, die wir in Wissensprozessen<br />
fortwährend erzeugen.<br />
Nimmt man den konstruktivistischen Ansatz und<br />
das Paradigma der Embodied Cognition ernst, hat<br />
das auch Implikationen für das Verständnis von<br />
Lernen und Lehren. Etwas gelernt zu haben beschränkt<br />
sich nicht auf die korrekte Reproduktion<br />
einer Beschreibung eines Teils der Welt („Faktenwissen“).<br />
Relationen zwischen diesen Beschreibungen,<br />
Verhaltensstrategien zur erfolgreichen Umweltbewältigung<br />
und letztendlich di e Fähigkeit zur<br />
Teilnahme an Wissensprozessen sowie deren Reflexion<br />
sind ebenso unabdingbar, um „etwas zu<br />
wissen“.<br />
Dies hat auch Konsequenzen für die Rolle der<br />
Lehrenden: Sie sind nicht länger die Verkünder finaler<br />
Wahrheiten, sondern Coaches oder Moderatorinnen<br />
und Moderatoren, die „nur“ mehr die Wissensdynamik<br />
im Lehr- und Lern-Raum moderieren.<br />
Man könnte meinen, dass dies ihre Wichtigkeit und<br />
Autorität als „Wissende“ vermindert; sieht man<br />
jedoch genauer hin, wird sie bedeutsamer denn je, da<br />
sie die Umwelt gestalten, das heißt die Artefakte und<br />
damit die möglichen Interaktionsmuster auswählen,<br />
die Wissensprozesse erst ermöglichen und durch ihr<br />
Verhalten die Regeln der sozialen Interaktion festsetzen.<br />
Sie sind Gestalter/innen von Lernräumen, die<br />
entweder Bulimie lernen fördern, oder aber Enabling<br />
Spaces, Räume sein können (Peschl et al. 2008), die in<br />
einer Vielzahl an Dimensionen (architektonisch,<br />
sozial, technologisch, kognitiv, emotional, usw) ermöglichende<br />
Rahmenbedingungen bieten, um die<br />
Arbeit der Wissensgenerierung und Bedeutungsverhandlung<br />
zu unterstützen.<br />
Auf der Ebene von Technologien hat sich interessanterweise<br />
ein Wandel vollzogen, den man als<br />
Konsequenz eines veränderten Bildes von Kognition<br />
und Wissen deuten kann: Die monolithische Autorität<br />
eines Brockhaus ist abgelöst worden von Wikipedia,<br />
einem Artefakt, das gleichzeitig Raum für und<br />
Produkt eines permanenten Aushandlungsprozesses<br />
über Wissensartefakte ist.<br />
Nur Artefakt und Prozess gemeinsam konstituieren<br />
Wissen, die Aufgabe von Kognition ist es
nicht, „Wissensartefakte“ abzubilden, sondern mit<br />
ihnen zu interagieren und im besten Falle in gemeinsame<br />
Wissens- und Bedeutungsgebungsprozesse<br />
eintreten zu können. Nimmt man diese Überlegungen<br />
ernst, so ergibt sich für das Design von<br />
Wissens-, Lehr- und Lern-Technologien, dass nur<br />
solche Ansätze erfolgreich sein werden, die einen<br />
Raum für Interaktionen bieten und Aushandlungsprozesse<br />
von Bedeutung unterstützen, wie sie in<br />
Web-2.0-Technologien wie Wikis verwirklicht sind,<br />
nicht aber solche, die auf starren und vorgegebenen<br />
semantischen Strukturen basieren.<br />
?<br />
Literatur<br />
▸ Bechtel, W.; A. Abrahamsen & G. Graham (1998). The life of<br />
cognitive science. In: W. Bechtel & G. Graham (Hrsg.), A companion<br />
to cognitive science, Oxford: Blackwell, 1-104.<br />
▸ Brooks, R. A. (1986). A Robust Layered Control System for a<br />
Mobile Robot. In: IEEE Journalof Robotics and Automation,<br />
Vol. 2, No. 1, 14-23.<br />
▸ Brooks, R.A. (1991). Intelligence without representation. In:<br />
Artificial Intelligence 47, 139-159.<br />
▸ Chomsky, N. (1959). A Review of B. F. Skinner's Verbal Behavior.<br />
In: Language, 35, No. 1, 26-58.<br />
▸ Clark, A. (1995). Being There - Putting Brain, Body and World<br />
Together Again. Cambridge: MIT Press.<br />
▸ Clark, A. (1999). An embodied cognitive science?. In: Trends in<br />
Cognitive Sciences, 3(9), 345-351.<br />
▸ Clark, A. (2001). Mindware. An introduction to the philosophy<br />
of cognitive science. New York: Oxford University Press.<br />
▸ Elman, J.L. (1990). Finding structure in time. In: Cognitive<br />
Science 14, 179-211.<br />
▸ Glasersfeld, E.v. (1996). Radikaler Konstruktivismus. Ideen,<br />
Ergebnisse, Probleme. Frankfurt am Main: Suhrkamp.<br />
▸ Glenberg, A.M. (1997). What memory is for. In: Behavioral<br />
and Brain Sciences, 20, (1),1-55.<br />
▸ Hofstadter, D. (1979). Gödel Escher Bach. Ein Endloses geflochtenes<br />
Band.<br />
▸ Hutchins, E. (1995). How a cockpit remembers its speeds. In:<br />
Cognitive Science, 19, 265-88.<br />
▸ Land, R; Meyer, J. & Smith, J. (2008). Threshold Concepts<br />
within the Disciplines. Rotterdam: Sense Publishers.<br />
▸ Lave, J. & Wenger, E. (1991). Situated Learning: Legitimate Peripheral<br />
Participation. Cambridge: Cambridge University Press.<br />
Kogni:onswissenscha>. Ihre Perspek:ve auf Lernen und Lehren mit Technologien— 13<br />
Wie nehmen Sie die Lernräume wahr, mit denen Sie<br />
als Lernende/r, Lehrende/r oder Applika:ons-‐<br />
designer/in konfron:ert sind? Welcher Wissensbegriff<br />
wird durch welche Elemente gefördert? Wie könnte<br />
man den Raum so verändern, dass er Wissenspro-‐<br />
zesse (besser) unterstützt?<br />
▸ Maturana, H.R. (1970). Biology of cognition. In: H.R. Maturana<br />
& F.J. Varela (Hrsg.), Autopoiesis and cognition: the realization<br />
of the living, Dordrecht/Boston: Reidel Pub, 2-60.<br />
▸ McCulloch, W.S. & W. Pitts (1943). A logical calculus of the<br />
ideas immanent in nervous activity. In: Bulletin of Mathematical<br />
Biophysics 5, 115-133.<br />
▸ Newell, A. & Simon, H. (1963). GPS, a program that simulates<br />
human thought. In: E. Feigenbaum & J. Feldman, J. (Hrsg.),<br />
Computers and Thought, New York: McGraw-Hill.<br />
▸ Peschl, M.F. & S. Wiltschnig (2008). Emergente Innovation<br />
und Enabling Spaces. Ermöglichungsräume für Prozesse der<br />
Knowledge Creation. In: S. Seehusen; M. Herczeg; S. Fischer;<br />
M.C. Kindsmüller & U. Lucke (Hrsg.), Proceedings der Tagungen<br />
Mensch & Computer 2008, DeLFI 2008 und Cognitive<br />
Design 2008, Berlin: Logos, 446-451.<br />
▸ Peschl, M.F. (1994). Repräsentation und Konstruktion. Kognitions-<br />
und neuroinformatische Konzepte als Grundlage einer<br />
naturalisierten Epistemologie und Wissenschaftstheorie. Braunschweig/Wiesbaden:<br />
Vieweg.<br />
▸ Peschl, M.F. (1997). The Representational Relation Between<br />
Environmental Structures and Neural Systems: Autonomy and<br />
Environmental Dependency in Neural Knowledge Representation.<br />
In: Nonlinear Dynamics, Psychology, and Life Sciences<br />
(NDPSFS), 1(2), 99-121.<br />
▸ Powazek, D. (2002). Design for Community. Berkeley: New<br />
Riders.<br />
▸ Presson C. & Montello D. R. (1994). .Updating after rotational<br />
and translational body movements: coordinate structure of<br />
perspective space. In: Perception, 23,(12), 1447-1455.<br />
▸ Rumelhart, D. & McClelland, J. (1986). Parallel Distributed<br />
Processing, Vol. 1 & 2., Cambridge: MIT Press.<br />
▸ Rumelhart, D.; Smolensky, P.; McClelland, J.L. & Hinton G.E.<br />
(1986). Schemata and sequential thought processes in PDP<br />
models. In: J.L. McClelland & D.E. Rumelhart (Hrsg.), Parallel<br />
Distributed Processing: explorations in the microstructure of<br />
cognition, Psychological and biological models, Cambridge:<br />
MIT Press, 7-57.<br />
▸ Sebanz N.; Eskenazi T.; Doerrfeld A. & Knoblich G. (2009). I<br />
will remember you: Enhanced memory for information pertaining<br />
to a relevant other. In: Proceedings of the 3rd Joint<br />
Action Meeting, July 27-29,2009.<br />
▸ Skinner, B.F. (1957). Verbal Behavior. Acton: Copley Publishing<br />
Group.<br />
▸ Smolensky, P. (1988). On the proper treatment of connectionism.<br />
In: Behavioral and Brain Sciences 11, 1-74.<br />
▸ Tomasello (1999). The Cultural Origins of Human Cognition.<br />
▸ Turing, A. (1936). On computable numbers, with an application<br />
to the entscheidungsproblem. In: Proc London Mathematic<br />
Soc., 42, 230-265.<br />
▸ Turing, A. (1950). Computing machinery and intelligence. In:<br />
Mind LIX, 59, 236, 433-460.
14 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
▸ Varela, F.J. (1994). Kognitionswissenschaft - Kognitionstechnik.<br />
Eine Skizze aktueller Perspektiven. Frankfurt am Main:<br />
Suhrkamp.<br />
▸ Wenger, E. (1998). Communities of Practice: Learning,<br />
Meaning, and Identity. Cambridge: Cambridge University Press.
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
1. Hintergrund eines betriebswirtscha3lichen Service-‐<br />
verständnisses von technologiegestütztem Lernen<br />
Das Bildungswesen ist seit einigen Jahren massiven<br />
Veränderungen ausgesetzt. Dazu gehören im Hochschulkontext<br />
unter anderem die Umstellung der universitären<br />
Abschlüsse im Rahmen des Bologna-Prozesses,<br />
die Entwicklungen hin zu einem Konzept des<br />
„lebenslangen Lernens“ sowie der zunehmende Einfluss<br />
technologischer Impulse (zum Beispiel technologiegestütztes<br />
Lernen, Campus-Management-<br />
Systeme, Online-Erhebungen und -Tests; Gabriel et<br />
al., 2007).<br />
Diese Veränderungen haben nicht nur didaktische<br />
und hochschulpolitische Konsequenzen, sondern<br />
auch ökonomische Relevanz, was sich im Hochschulbereich<br />
vor allem durch sich ändernde Wertschöpfungs-<br />
und Wettbewerbsstrukturen zeigt. Die bisher<br />
dominierende Interpretation von Bildung als kulturhoheitlichem<br />
Gut musste beziehungsweise durfte sich<br />
nicht konsequent an ökonomischen Maßstäben<br />
messen und hat auf der Basis einer gesicherten öffentlichen<br />
Finanzierung über Jahre das vorherrschende<br />
Selbstverständnis der Akteurinnen und Akteure<br />
geprägt. Immer stärker müssen nun aber im<br />
Hinblick auf eine nachhaltige, qualitative, zukunftsorientierte<br />
und zugleich wettbewerbsfähige Hochschulbildung<br />
auch ökonomische Rahmenbedingungen<br />
berücksichtigt und durch die Hochschulen<br />
selbst mitgestaltet werden. In der Konsequenz erfahren<br />
die Hochschulen, wie auch die hochschulinternen<br />
Akteure als Leistungserbringer, immer deutlicher<br />
die Bedeutung sowie die Herausforderungen<br />
einer konsequenten Marktorientierung mit der Notwendigkeit<br />
zur Erschließung individueller Effizienzund<br />
Effektivitätspotenziale als Basis nachhaltiger<br />
Wettbewerbsvorteile. In diesem Zusammenhang<br />
kann technologiegestütztes Lernen den Hochschulen<br />
e i n e n Wettbewerbsvorteil verschaffen, da neue<br />
Technologien erhebliche neue Gestaltungsspielräume<br />
bieten.<br />
Nach Engelhardt (1966) können bei allen Leistungen<br />
drei Leistungsdimensionen unterschieden<br />
werden:<br />
▸ die Bereitstellungsleistung,<br />
▸ der Leistungserstellungsprozess und<br />
▸ das Leistungsergebnis.<br />
Technologiegestütztes Lernen hat dabei den entscheidenden<br />
Vorteil, dass in Bezug auf das Absatzobjekt<br />
Bildung ein verbessertes Leistungsergebnis (höhere<br />
Lernzufriedenheit und höherer Lernerfolg) bei<br />
gleichzeitig auch unter Kostengesichtspunkten ver-<br />
besserten Leistungserstellungs- und Bereitstellungsprozessen<br />
ermöglicht werden kann (Gabriel et al.,<br />
2007). Beim Leistungserstellungs- und Bereitstellungsprozess<br />
können sich Vorteile durch eine<br />
größere Orts- und Zeitunabhängigkeit der Lehre<br />
sowie die mögliche Wiederverwendbarkeit von techniologiegestützten<br />
Lerninhalten zeigen (Gabriel et al.,<br />
2008; Hofhues & Dürnberger, im Druck). Hinsichtlich<br />
der Leistungserstellungsprozesse und -ergebnisse<br />
bietet technologiegestütztes Lernen zudem besonderes<br />
Potenzial im Hinblick auf innovative, beispielsweise<br />
virtuelle kollaborative Lernformen, bei<br />
denen größerer Raum für Interaktionen zwischen<br />
und mit den Lernenden geschaffen wird, um die<br />
Handlungskompetenz der Lernenden nachhaltig zu<br />
fördern (Brauchle, 2007, 2). Gleichzeitig stellen technologiegestützte<br />
Ansätze des Lehrens und Lernens<br />
die Akteurinnen und Akteure aber auch vor enorme<br />
Herausforderungen. Auf Seiten der Anbieter sind<br />
oftmals erhebliche Investitionen erforderlich, unter<br />
anderem für den Aufbau des erforderlichen interdisziplinären<br />
Know-How und die erforderliche Infrastruktur.<br />
Etablierte Abläufe müssen oft angepasst<br />
und neu abgestimmt werden (zum Beispiel Anerkennung<br />
von Lehrdeputaten) und die Lehr- und<br />
Lernmaterialien bedürfen der kontinuierlichen Pflege<br />
und Wartung.<br />
Technologisch unterstützte Ansätze des Lernens<br />
und Lehrens werden daher im Folgenden in Anlehnung<br />
an Gabriel et al. (2008) als Lernservices –<br />
und damit aus einem ökonomischen Blickwinkel –<br />
thematisiert. Sie stellen große Potenziale in Aussicht,<br />
müssen aber hinsichtlich Ihrer systematischen Erstellung<br />
und Verwendung ökonomischen Ansprüchen<br />
genügen, um diese Potenziale nutzbar zu<br />
machen. Durch den Zusatz „Services“ (Englisch für<br />
„Dienstleistungen“) wird diese unmittelbare Bedeutung<br />
ökonomischer Konzepte hervorgehoben.<br />
Dies meint jedoch nicht, dass Lernservices ein ausschließlich<br />
ökonomisch geprägter Betrachtungsgegenstand<br />
sind. Sie unterliegen stets auch mindestens<br />
technischen, didaktischen sowie organisatorischen<br />
Rahmenbedingungen. Durch die Nähe des Begriffs<br />
Lernservices zu dem der elektronischen Services soll<br />
schließlich auch die Relevanz der technischen Unterstützung<br />
von Lehr- und Lernprozessen herausgestellt<br />
werden. Der Begriff „Lernservices“ bezieht sich<br />
damit unmittelbar auf Konzepte des technologiegestützten<br />
Lernens und stellt deren interdisziplinären<br />
Charakter heraus.
Lernservice-‐Engineering. Eine ökonomische PerspekBve auf technologiegestütztes Lernen — 3<br />
2. Typen technologiegestützter Lerninhalte<br />
Bevor näher auf die Gestaltung von Lernservices<br />
eingegangen wird, werden im Folgenden verschiedene<br />
Formen von technologiegestützten Lerninhalten<br />
definiert. Die dargestellte Klassifizierung und<br />
die darin enthaltenen Typen von Lerninhalten stellen<br />
damit das inhaltliche Rüstzeug für die Erstellung von<br />
Lernservices vor, bieten aber gleichzeitig auch eine<br />
Einschätzung über den mit den einzelnen Ausprägungen<br />
von Lernmaterialien verbundenen Erstellungsaufwand.<br />
Es werden dabei die drei Formen von technologiegestützten<br />
Lernmaterialien, nämlich webbasierte<br />
Selbstlerneinheiten, rasch erstellte Lernmaterialien<br />
(„Rapid E-Learning-Content“) sowie von Lernenden<br />
erstellte Inhalte („Lernergenerierte Inhalte“)<br />
unterschieden. Die Begriffe werden im Folgenden erläutert.<br />
Webbasierte Selbstlerneinheiten oder Lernmodule<br />
sind Lernprogramme, die auf Internet-Technologien<br />
basieren und werden auch als Web-Based<br />
Trainings bezeichnet (Mair, 2005). Sie zeichnen sich<br />
durch eine multimediale Darstellung der Lerninhalte<br />
aus. So können neben Texten auch Grafiken, Tabellen,<br />
Videos, Ton und (interaktive) Animationen für<br />
die Darstellung der Informationen verwendet<br />
werden.<br />
Technologiegestützte Lernmaterialien mit einem<br />
beschleunigten Erstellungsprozess werden auch<br />
als „Rapid E-Learning-Content“, also einer Wortzusammensetzung<br />
aus Rapid Prototyping und E-<br />
Learning, bezeichnet. Dazu gehören digital aufbereitete<br />
Vorträge, oft als E-Lectures bezeichnet, die<br />
aus einer Kombination von Audio- bzw. Videoelementen<br />
mit synchronisierten Text- und Bildelementen<br />
bestehen (Gersch et al., 2010; Reinmann &<br />
Mandl, 2009). Auf diesem Wege wird eine zeit- und<br />
kostengünstigere Erstellung von technologiegestützten<br />
Lerninhalten möglich, die zudem weniger<br />
technische Kompetenz auf Seiten der Erstellenden<br />
voraussetzt.<br />
Ähnliches gilt auch für von Lernenden erstellte<br />
Lerninhalte. Das sind technologiegestützte Lerninhalte,<br />
die im Rahmen von Lernarrangements durch<br />
die Lernenden selbst entwickelt und umgesetzt<br />
werden. Hierzu eignet sich insbesondere der Einsatz<br />
von Anwendungen wie Wikis oder Blogs, die es den<br />
Lernenden ermöglichen, Inhalte kollaborativ mit den<br />
Mitlernenden zu entwickeln und somit eine sehr viel<br />
intensivere Auseinandersetzung mit den Lerninhalten<br />
fördern. Die so erstellten Inhalte können zudem als<br />
Material für künftige Lernarrangements eingesetzt<br />
werden (Wheeler et al., 2008; Franklin & Van Harmelen,<br />
2007).<br />
Um durch den Einsatz von technologiegestütztem<br />
Lerninhalt den gewünschten Rahmen für die Lehrenden<br />
zu schaffen, muss die Wahl zwischen diesen<br />
drei Inhaltsformen auch unter Effizienzgesichtspunkten<br />
erfolgen. Ziel ist dabei ein möglichst positives<br />
Kosten-Nutzen-Verhältnis bei der Erstellung<br />
und Nutzung, um die knappen Ressourcen der Lehrenden<br />
und der Hochschule optimal einsetzen zu<br />
können. Eine geeignete Grundlage hierfür bietet die<br />
Systematisierung der verschiedenen technologiegestützten<br />
Inhaltsformen hinsichtlich ihrer Erstellungsund<br />
Nutzungsprozesse. Aus dieser können konkrete<br />
Handlungsempfehlungen für die Wahl bzw. Kombination<br />
und den Einsatz der verschiedenen Inhaltsarten<br />
in konkreten Lernarrangements abgeleitet<br />
werden.<br />
Dazu lassen sich die Inhaltsarten anhand zweier<br />
Dimensionen systematisieren:<br />
▸ Zum einen nach den Leistungserstellern: Erstellen<br />
die Lehrenden oder die Lernenden selbst die Inhalte?<br />
▸ Zum anderen nach dem im Leistungserstellungsprozess<br />
benötigten Ressourceneinsatz und der<br />
Qualität der so erstellen Leistungsangebote:<br />
Werden aufwendig hochwertige Inhalte erstellt<br />
oder eher kurzfristig tendenziell einfachere?<br />
Der erste Punkt entspricht der Unterscheidung von<br />
anbieter- und nachfragergenerierten Inhalten.<br />
Web-Based Trainings und E-Lectures sind dabei anbietergenerierten<br />
Inhalten zuzuordnen, während<br />
Learner-Generated-Content nutzergeneriert ist. Die<br />
zweite Dimension unterscheidet zwischen Fast- und<br />
Slow-Content. Dieser Begriff wird analog zur Einteilung<br />
in Fast-Food und Slow-Food verwendet.<br />
Ebenso wie Fast-Food zeichnet sich Fast-Content<br />
(Rapid-E-Learning-Inhalte) durch schnelle Umsetzbarkeit<br />
aus, mit der jedoch Abstriche in der Qualität<br />
einhergehen – ganz im Gegensatz zu Slow-Food bzw.<br />
-Content, dessen längerfristig umgesetzter aber auch<br />
ressourcenintensiverer Erstellungsprozess eine<br />
höhere Qualität der Inhalte in Aussicht stellt (Gabriel<br />
et al., 2009; Gersch et al., 2010).<br />
Mit Hilfe der fünf Merkmale Qualität, Kollaborativität,<br />
Produktionsaufwand, Flexibilität und Glaubwürdigkeit<br />
können die Felder der so entstehenden<br />
Matrix detailliert beschrieben und differenziert<br />
werden, um so Handlungsempfehlungen für einen effizienten<br />
Einsatz der unterschiedlichen Typen technologiegestützter<br />
Lerninhalte zu erhalten.
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Slow<br />
Content<br />
Fast<br />
Content<br />
Anbietergenerierte Inhalte Nachfragergenerierte Inhalte<br />
Merkmal Webbasierte Selbstlerneinheiten Wikibasierte Lerninhalte<br />
Qualität DidakBsch: hoch (beispielsweise individuelle<br />
Lernpfade)<br />
MulBmedial: hoch (vielfälBge mulBmediale<br />
Darstellungsformen)<br />
Inhaltlich: hoch<br />
Kollabora-‐<br />
Lvität<br />
ProdukL-‐<br />
onsauf-‐<br />
wand<br />
Flexibiltät<br />
Glaubwür-‐<br />
digkeit<br />
Auf Seiten der Lehrenden: zur Erstellung hohe<br />
KollaboraBvität erforderlich<br />
Auf Seiten der Lernenden: je nach didakB-‐<br />
schem Design, tendenziell gering<br />
Technisch: hohe Anforderungen an Hard-‐ und<br />
SoXware<br />
Personell: hoch (besondere Anforderungen an<br />
technische und didakBsche Kompetenz)<br />
Zeitlich: hoch<br />
Kosten: entsprechend hoch<br />
Auf Seiten der Lehrenden: vielfälBge Gestal-‐<br />
tungsopBonen; aber eingeschränkte Aktualisie-‐<br />
rungs-‐ und Anpassungsmöglichkeit<br />
Auf Seiten der Lernenden: vielfälBge Nutzungs-‐<br />
opBonen<br />
Grundsätzlich relaBv hoch (kann durch gezielte<br />
Maßnahmen zusätzlich gefördert werden; z.B.<br />
Nutzung von Personenmarken)<br />
DidakBsch: im Erstellungsprozess sehr hoch<br />
(ProdukBonsprozess ist Bestandteil des Lernpro-‐<br />
zesses; akBve Auseinandersetzung mit den In-‐<br />
halten); bei der erneuten Anwendung stark vari-‐<br />
ierend zwischen den verschiedenen Wikis.<br />
MulBmedial: miPel bis hoch (vielfälBge mulB-‐<br />
mediale Darstellungsformen)<br />
Inhaltlich: abhängig von den Lernenden<br />
Auf Seiten der Lehrenden: Grad der Unterstüt-‐<br />
zung der Lernenden je nach Lernarrangement<br />
Auf Seiten der Lernenden: sehr hoch (entschei-‐<br />
dend für die Erstellung der Ergebnisse)<br />
Technisch: miPel (abhängig von der gewünsch-‐<br />
ten MulBmedialität)<br />
Personell: auf Seiten der Lehrenden sehr gering;<br />
auf Seiten der Lernenden eher hoch<br />
Zeitlich: individuell eher gering; lange Wachs-‐<br />
tumsphase des Inhalts<br />
Kosten: eher gering (Freeware)<br />
Auf Seiten der Lehrenden: vielfälBge Nutzungs-‐<br />
opBonen (Wiederverwendbarkeit)<br />
Auf Seiten der Lernenden: vielfälBge Gestal-‐<br />
tungs-‐ und NutzungsopBonen<br />
Eher geringer (Notwendigkeit eines Qualitäts-‐<br />
managements von Seiten der Lehrenden); zu<br />
steigern durch Nutzerbewertungen und Quali-‐<br />
tätssiegel<br />
Merkmal Rapid-‐E-‐Learning-‐Inhalte (E-‐Lectures) Blogbasierte Lerninhalte<br />
Qualität DidakBsch: geringer (vorgegebener Lernpfad)<br />
MulBmedial: miPel (auf eine Darstellungsform<br />
beschränkt)<br />
Inhaltlich: hoch, aber beschränkt auf be-‐<br />
sBmmte Themenaspekte sowie abhängig vom<br />
Referenten<br />
Kollabora-‐<br />
Lvität<br />
ProdukL-‐<br />
onsauf-‐<br />
wand<br />
Flexibiltät<br />
Glaubwür-‐<br />
digkeit<br />
Auf Seiten der Lehrenden: gering<br />
Auf Seiten der Lernenden: gering<br />
Technisch: eher geringe Anforderungen an<br />
Hard-‐ und SoXware<br />
Personell: gering<br />
Zeitlich: gering<br />
Kosten: entsprechend gering<br />
Auf Seiten der Lehrenden: vorgegebene Gestal-‐<br />
tungsopBonen<br />
Auf Seiten der Lernenden: vorgegebene Nut-‐<br />
zungsopBonen<br />
Grundsätzlich hoch, allerdings stark abhängig<br />
vom Referenten<br />
DidakBsch: sehr hoch (ProdukBonsprozess ist<br />
Bestandteil des Lernprozesses; akBve Auseinan-‐<br />
dersetzung mit den Inhalten)<br />
MulBmedial: hoch (vielfälBge mulBmediale Dar-‐<br />
stellungsformen)<br />
Inhaltlich: abhängig von den Lernenden<br />
Auf Seiten der Lehrenden: Grad der Unterstüt-‐<br />
zung der Lernenden je nach Lernarrangement<br />
Auf Seiten der Lernenden: hoch (entscheidend<br />
für die Bewertung/ KommenBerung der Ergeb-‐<br />
nisse)<br />
Technisch: eher gering (abhängig von der ge-‐<br />
wünschten MulBmedialität)<br />
Personell: auf Seiten der Lehrenden sehr gering;<br />
auf Seiten der Lernenden eher hoch<br />
Zeitlich: eher gering<br />
Kosten: eher gering (Freeware)<br />
Auf Seiten der Lehrenden: eher gering<br />
Auf Seiten der Lernenden: vielfälBge Gestal-‐<br />
tungsopBonen, aber geringe ModifikaBonsmög-‐<br />
lichkeiten<br />
Geringer (Notwendigkeit eines Qualitätsmana-‐<br />
gements von Seiten der Lehrenden)<br />
Tabelle: Systematisierungsansatz von technologiegestützten Lerninhaltsarten (Gersch et al., 2010)
?<br />
Lernservice-‐Engineering. Eine ökonomische PerspekBve auf technologiegestütztes Lernen — 5<br />
3. Lernservice-‐Engineering: Ansätze zur Unterstützung<br />
einer systemaLschen Entwicklung von Lernservices<br />
Vor dem Hintergrund der dargestellten Veränderungen,<br />
Herausforderungen und Lernservicecharakteristika<br />
(insbesondere auch dem Leistungsbündelcharakter)<br />
wurde „Lernservice-Engineering“ als interdisziplinärer<br />
Erstellungsansatz für die Entwicklung<br />
von Lernservices erarbeitet.<br />
!<br />
In diesem Kapitel steht dabei die ökonomische Seite<br />
des Lernservice-Engineering im Vordergrund. Ziel ist<br />
die Umsetzung einer sogenannten Mass-Customization-Strategie<br />
in Bezug auf das technologiegestützte<br />
Lernen. Im Kern geht es dabei um eine zielgerichtete<br />
Standardisierung von Teilleistungen und Teilprozessen<br />
im Rahmen einer Modularisierungsstrategie,<br />
die zu individualisierten oder zielgruppenspezifischen<br />
Leistungsbündeln in Form von hybriden Lernarrangements<br />
kombiniert werden können (Da Silveira<br />
et al., 2001).<br />
!<br />
?<br />
In welcher Weise sind Microblogging-‐AkBvitäten von<br />
Lernenden im Seminar sowie Podcasts einer Bildungs-‐<br />
einrichtung mit Interviews von ExperBnnen und Ex-‐<br />
perten in dem vorgestellten System (siehe Tabelle auf<br />
der vorherigen Seite) zur Bewertung von Lerninhalten<br />
einzuordnen und zu beschreiben?<br />
Der Begriff des Lernservice-‐Engineering nimmt dabei<br />
Bezug auf das im Dienstleistungsmanagement eta-‐<br />
blierte „Service Engineering“ sowie das in der (Wirt-‐<br />
schaXs-‐) InformaBk etablierte „SoXware Engineering“.<br />
Es beschreibt die interdisziplinäre Bereitstellung und<br />
systemaBsche Verwendung von Prinzipien, Methoden<br />
und Werkzeugen für die zielorienBerte (arbeitsteilige,<br />
ingenieursgleiche) Gestaltung und Entwicklung von<br />
Lehr-‐Lern-‐Leistungsangeboten.<br />
Das aus den Begriffen Mass ProducBon und Customi-‐<br />
zaBon zusammengesetzte Oxymoron „Mass Customi-‐<br />
zaBon“ bezeichnet also ein zumeist technologisch ge-‐<br />
stütztes Konzept zur Auflösung der vermeintlichen Ge-‐<br />
gensätzlichkeit von Differenzierung und Kostenorien-‐<br />
Berung (Porter, 1995; Piller, 2006). Damit ist der Ge-‐<br />
gensatz zwischen individuellen und daher häufig kos-‐<br />
tenintensiven Leistungsangeboten (Differenzierung)<br />
und möglichst standardisierten und deswegen kosten-‐<br />
günsBg realisierbaren Leistungsangeboten (Kostenori-‐<br />
enBerung) gemeint.<br />
Können Sie erklären, warum Differenzierung und Kos-‐<br />
tenorienBerung sehr häufig als Gegensatz betrachtet<br />
wird?<br />
Nach Kundinnen und Kunden (zum Beispiel Lernenden)<br />
differenzierte Leistungsangebote sollen<br />
durch Mass-Customization-Ansätze zu einem der<br />
Massenproduktion vergleichbarem Kostenniveau realisiert<br />
und angeboten werden können (Piller, 2006).<br />
Diesbezüglich zeigen Erfahrungen aus anderen Serviceindustrien,<br />
dass Standardisierung und Differenzierung/Individualisierung<br />
keineswegs unvereinbare<br />
Gegensätze darstellen, sondern dass Standardisierung<br />
regelmäßig sogar mit einer, auch durch den Nachfrager<br />
empfundenen, Qualitätssteigerung des differenzierten/individualisierten<br />
Leistungsangebotes einhergehen<br />
kann.<br />
Es lassen sich im Kontext von technologiegestütztem<br />
Lernen verschiedene Ansatzpunkte für eine<br />
Umsetzung erkennen, wie zum Beispiel eine Modularisierung<br />
von Leistungskomponenten (siehe die vorgestellten<br />
Typen von Lerninhalten), die im Idealfall<br />
immer wieder zu differenzierten Leistungsbündeln<br />
(re-) kombiniert werden können (zu weiteren alternativen<br />
Umsetzungsmöglichkeiten einer Mass Customization<br />
siehe Büttgen, 2002).<br />
Im Folgenden steht die Umsetzung mit Hilfe sog.<br />
Serviceplattformen im Vordergrund, die sich nicht<br />
nur zur wettbewerbsstrategischen Ausrichtung,<br />
sondern insbesondere auch zur Förderung der Verbreitung<br />
und des Einsatzes innovativer Lehr- und<br />
Lernkonzepte an Institutionen mit dezentralen Strukturen<br />
und unterschiedlichen Kenntnisständen in<br />
Bezug auf deren Gestaltung und Einsatz – wie zum<br />
Beispiel den Hochschulen – eignen.<br />
!<br />
Serviceplaoormen sind konzepBonelle Sets von op-‐<br />
Bonalen Teilelementen/-‐systemen und SchniPstellen,<br />
die eine mehrfach verwendbare Struktur bilden auf<br />
deren Grundlage immer wieder differenzierte Leis-‐<br />
tungsangebote effizient und effekBv entwickelt und<br />
realisiert werden können (Stauss, 2006). Nicht zu ver-‐<br />
wechseln sind Serviceplaoormen mit LernplaP-‐<br />
formen (Learning Management Systeme, LMS; siehe<br />
Kapitel #infosysteme, #systeme)<br />
Im Kontext des Lernservice-Engineering stellen<br />
Serviceplattformen Veranstaltungsgrundtypen dar,<br />
die als Grundlage für verschiedene Bildungsangebote<br />
dienen. Sie setzen sich aus idealtypischen Veranstaltungsphasen,<br />
Leistungspotenzialen (wie Web-Based<br />
Trainings, Fallstudien, E-Lectures), Betreuern, Prozessen<br />
und Schnittstellen zusammen, die gemeinsam<br />
die Grundlage zur Entwicklung und Realisierung<br />
immer wieder differenzierter Leistungsangebote darstellen.<br />
Im Prozess des didaktischen Designs, welcher<br />
die Konkretisierung der abstrakten Serviceplatt-
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
Abbildung 1: Hierarchisches Begriffsverständnis (Weber, 2008, S. 29).<br />
formen zu konkreten Lernservices bezeichnet, ist<br />
dafür Sorge zu tragen, dass das zu konzipierende<br />
Leistungsangebot nicht nur effizient erstellt wird,<br />
sondern dass es auch den (Qualitäts-) Ansprüchen<br />
der jeweiligen Leistungsempfänger/innen entspricht<br />
und somit möglichst Effizienz- und Effektivitätsvorteile<br />
für den Leistungsanbieter zusammenbringt.<br />
Dem Konzept liegt auf dieser Ebene somit eine Unterscheidung<br />
von abstrakten Veranstaltungsgrundtypen<br />
(Lernszenarien bzw. Serviceplattformen) und<br />
Lernarrangements als konkreten Lernservices zugrunde.<br />
Abbildung 1 verdeutlicht den Zusammenhang<br />
und differenziert für die Betrachtung von<br />
Lernservices zudem zwischen einer Makro-, Mesound<br />
Mikroebene.<br />
Abbildung 2: Lernservice-‐Engineering (Gersch & Weber 2007, S. 23).<br />
Auch innerhalb der Lernszenarien als Veranstaltungsgrundtypen<br />
lässt sich das Konzept der Mass<br />
Customization mit Hilfe von Serviceplattformen<br />
fortsetzen. So können Lernszenarien auf (teil-)standardisierten<br />
Veranstaltungsphasen aufbauen, die jeweils<br />
spezifischen Lernzielen verpflichtet sind. Die<br />
Standardisierung auf Ebene der Veranstaltungsphasen<br />
bezieht sich dabei auf eine idealtypische Vorkombination<br />
von Leistungskomponenten, die als<br />
Teilarrangements bestimmte Zielsetzungen und Abläufe<br />
repräsentieren, so dass im Ergebnis eine zweistufige<br />
Serviceplattformstrategie resultiert. Abbildung<br />
2 verdeutlicht das Zusammenspiel von Leistungskomponenten,<br />
Veranstaltungsphasen und<br />
Lernszenarien und ihre Konkretisierung zu Lernar-
Lernservice-‐Engineering. Eine ökonomische PerspekBve auf technologiegestütztes Lernen — 7<br />
rangements.<br />
So verstandene Plattformen erlauben die systematische<br />
Entwicklung von neuen Lernservices auf der<br />
Basis dokumentierter technischer, didaktischer und<br />
ökonomischer Erfahrungen und Erkenntnisse zu den<br />
verfügbaren Komponenten und deren Kombination.<br />
So können etwa positive Erfahrungen in Bezug auf<br />
eine bestimmte Verknüpfung von Inhaltstypen, Veranstaltungsphasen,<br />
oder auch erfolgreiche Vorgehensweisen<br />
im Rahmen eines Lernszenarios bei der<br />
Neuentwicklung eines technologiegestützten Lernangebotes<br />
zugrunde gelegt werden. Die systematische<br />
Wiederverwendung von Komponenten, Veranstaltungsphasen<br />
und Lernszenarien bietet dabei erhebliches<br />
ökonomisches Potenzial.<br />
4. Fazit<br />
?<br />
Nennen Sie Vorteile des Lern-‐Service-‐Engineering und<br />
von Mass-‐CustomizaBon aus Sicht von Anbietern wie<br />
Lernenden!<br />
Die gegenwärtigen Veränderungen im Bildungswesen<br />
begründen insbesondere aufgrund der Wettbewerbsintensivierung<br />
und der veränderten Rahmenbedingungen<br />
die Notwendigkeit einer sowohl ökonomisch<br />
als auch didaktisch tragfähigen Leistungserstellungsstrategie<br />
von Hochschulen und anderen Bildungseinrichtungen.<br />
Großes Potenzial in diesem Zusammenhang<br />
birgt die Übertragung erprobter und etablierter<br />
Konzepte aus anderen Dienstleistungs- und<br />
Servicebranchen, was eine Interpretation von Bildungsangeboten<br />
als bestimmte Dienstleistungen (Services)<br />
impliziert. Unter Vernachlässigung ideologischer<br />
Streitigkeiten um den Charakter von Bildung<br />
eröffnet das vorgeschlagene Serviceverständnis ein<br />
Tor zu einer Bandbreite solcher Konzepte und Ansätze.<br />
Übertragen auf den Leistungsgegenstand der<br />
Lernservices bietet beispielsweise der skizzierte Systematisierungsansatz<br />
von technologiegestützten<br />
Lerninhalten eine Grundlage für ein effizientes und<br />
an die Erfordernisse des jeweiligen Lernarrangements<br />
anpassbares Produktions- und Einsatzkonzept der<br />
benötigten Lerninhalte. Dabei liegt der Fokus in<br />
diesem Kapitel auf den Kostenaspekten des Einsatzes<br />
von technologiegestützten Lerninhalten. Daneben<br />
müssen in die Analyse auch Nutzenaspekte<br />
einbezogen werden (Gust, & Weiß, 2005).<br />
Auch der dargestellte serviceplattformbasierte<br />
Mass-Customization-Ansatz bietet Bildungseinrichtungen<br />
Potenziale für eine standardisierungsbasierte<br />
Kostenorientierung und enthält gleichzeitig Möglichkeiten<br />
für eine auf Differenzierung ausgerichtete In-<br />
dividualisierung der Leistungsangebote. Zudem<br />
fördert der Ansatz über Serviceplattformen die Diffusion<br />
der Kenntnisse im Bezug auf die Realisierung<br />
innovativer Lehr- und Lernkonzepte. Im Vordergrund<br />
des Lern-Service-Engineering steht daher allgemein<br />
die effiziente Übertragung, Adaption und Integration<br />
von konkreten Unterstützungsmöglichkeiten<br />
für die Leistungserstellung im Bildungswesen.<br />
Literatur<br />
▸ Brauchle, B. (2007). Der Rolle beraubt: Lehrende als Vermittler<br />
von Selbstlernkompetenz. Berufs- und Wirtschaftspädagogik.<br />
URL: http://www.bwpat.de/ausgabe13/brauchle_bwpat13.pdf<br />
[24-09-2009].<br />
▸ Büttgen, M. (2002). Mass Customization im Dienstleistungsbereich.<br />
In: Mühlbacher, H. & Thelen, E. (Hrsg.), Neue Entwicklungen<br />
im Dienstleistungsmarketing, Wiesbaden: Gabler, 257-<br />
285.<br />
▸ Da Silveira, G.; Borenstein, D. & Fogliatto, F. S. (2001). Mass<br />
customization: Literature review and research directions. International<br />
Journal of Production Economics, 72(1), 1-13.<br />
▸ Engelhardt, W. H. (1966). Grundprobleme der Leistungslehre,<br />
dargestellt am Beispiel der Warenhandelsbetriebe. Zeitschrift<br />
für betriebswirtschaftliche Forschung, 18, 158-178.<br />
▸ Franklin, T. & Van Harmelen, M. (2007). Web 2.0 for content<br />
for Learning and Teaching in Higher Education. JISC. URL:<br />
http://www.jisc.ac.uk/media/documents/programmes/digitalrepositories/Web<br />
2.0-content-learning-and-teaching.pdf<br />
[17.09.2010].<br />
▸ Gabriel, R.; Gersch, M. & Weber, P. (2007). Mass Costumization<br />
und Serviceplattformstrategien im Blended Learning<br />
Engineering. Wirtschaftinformatik Proceedings 2007, Paper 57,<br />
URL: http://aisel.aisnet.org/wi2007/57 [15-11-2010].<br />
▸ Gabriel, R.; Gersch, M. & Weber, P. (2008). Möglichkeiten und<br />
Grenzen von Lern Services. WiSt, 2008(10), 563-565.<br />
▸ Gabriel, R.; Gersch, M.; Weber, P. & Le, S. (2009). Das Ende<br />
der WBTs? Kernaussagenansatz, Personenmarken und Bartermodelle<br />
als konzeptionelle Antworten auf zentrale Herausforderungen.<br />
In: A. Schwill & N. Apostolopoulos (Hrsg.), Lernen<br />
im digitalen Zeitalter. 7. e-Learning Fachtagung Informatik der<br />
Gesellschaft für Informatik e.V. (DeLFI 2009).<br />
▸ Gersch, M.; Lehr, C.;& Fink, C. (2010). Formen, Einsatz- und<br />
Kombinationsmöglichkeiten von E-Learning-Content - Ein<br />
Systematisierungsansatz am Beispiel kooperativer Lernarrangements.<br />
In: Tagungsband GML 2010. Münster: Waxmann.<br />
▸ Gersch, M. & Weber, P. (2007). E-Learning Geschäftsmodelle.<br />
Zeitschrift für e-Learning, 2(3), 19-28.<br />
▸ Gust, M. & Weiß, R. (2005). Praxishandbuch Bildungscontrolling<br />
für exzellente Personalarbeit. Wien: USP Publishing.<br />
▸ Hofhues, S. & Dürnberger, H. (im Druck). Anforderungen an<br />
E-Learning in pflegerischen und therapeutischen Studiengängen:<br />
Ergebnisse eines Workshops. Vortrag auf Hochschul-
8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)<br />
didaktik in pflegerischen und therapeutischen Studiengängen.<br />
Bielefeld.<br />
▸ Mair, D. (2005). E-Learning - das Drehbuch. Handbuch für<br />
Medienautoren und Projektleiter. Berlin/Heidelberg: Springer.<br />
▸ Piller, F.T. (2006). Mass Customization - Ein wettbewerbsstrategisches<br />
Konzept im Informationszeitalter. Wiesbaden, DUV<br />
Gabler Edition Wissenschaft.<br />
▸ Porter, M. E.(1995). Wettbewerbsstrategie. Frankfurt am<br />
Main/New York: Campus.<br />
▸ Reinmann, G. & Mandl, H. (2009). Wissensmanagement und<br />
Weiterbildung. In: R. Tippelt & A. Hippel (Hrsg.), Handbuch<br />
Erwachsenenbildung/Weiterbildung, Wiesbaden: VS, Verlag<br />
für Sozialwissenschaften, 1049-1066.<br />
▸ Stauss, B.(2006). Plattformstrategien im Service Engineering.<br />
In: H.-J. Bullinger; A.W. Scheer (Hrsg.), Service Engineering,<br />
Berlin/Heidelberg, Springer, 321-340.<br />
▸ Weber, P. (2008). Analyse von Lern-Service-Geschäftsmodellen<br />
vor dem Hintergrund eines sich transformierenden Bildungswesens.<br />
Frankfurt am Main: Peter Lang.<br />
▸ Wheeler, S.; Yeomans, P. & Wheeler, D. (2008). The good, the<br />
bad and the wiki: Evaluating student-generated content for collaborative<br />
learning. British Journal of Educational Technology,<br />
39(6), 987-995.