29.01.2013 Aufrufe

Informationen zu universitätsrechtlicher Theorie und Praxis 1 ... - ULV

Informationen zu universitätsrechtlicher Theorie und Praxis 1 ... - ULV

Informationen zu universitätsrechtlicher Theorie und Praxis 1 ... - ULV

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

eurteilung. Qualität ist eine soziale Konstruktion <strong>und</strong><br />

daher ein Verhandlungsgegenstand, der situations- <strong>und</strong><br />

interessenbezogen unterschiedlich definiert wird. Man<br />

kann daher nicht von Qualität an sich sprechen, sondern<br />

nur von Qualität aus unterschiedlichen Perspektiven <strong>und</strong><br />

in unterschiedlichen Kontexten. Deshalb macht eine Konzentration<br />

auf allgemeine Standardprozeduren oder Standardevaluierungen<br />

<strong>zu</strong>r Qualitätsförderung wenig Sinn.<br />

b) Was wird gemessen?<br />

Erweist sich die Definition von Qualität als Problem sozialer<br />

Konstruktion ohne sicheren Ankerpunkt, so setzen sich die<br />

Schwierigkeiten in die Messung fort. Hier geht es beispielsweise<br />

um die Frage, ob <strong>und</strong> woran man „gute“ Lehre erkennen<br />

kann. In diesem Zusammenhang identifiziert H<strong>und</strong>t<br />

(2000) bei der Lehrveranstaltungsbeurteilung mehrere<br />

kritische Punkte: So meint er, dass die meisten Instrumente<br />

an der didaktischen Oberfläche kratzen <strong>und</strong> inhaltliche<br />

Standards ausklammern, dass eine Orientierung an Mittelwerten<br />

die Vielfalt der Studierendeneinschät<strong>zu</strong>ngen ignoriert,<br />

<strong>und</strong> dass Messen allein noch lange keine Verbesserung<br />

bewirkt. Auch Rindermann (2009: 241f.) macht klar, dass<br />

die Durchführung einer studentischen Lehrevaluation nicht<br />

ausreicht, um Veränderungen in der Lehre <strong>zu</strong> bewirken.<br />

Führt man eine Lehrevaluierung mittels standardisierter<br />

Befragung von Studierenden durch, so unterstellt dies,<br />

dass Studierende aufgr<strong>und</strong> ihrer Betroffenheit ExpertInnen<br />

seien – aber sie bleiben Alltags-EvaluatorInnen, die nach<br />

ihren eigenen Kriterien bewerten, was wiederum die Bedeutung<br />

der Antworten nicht mehr rekonstruieren lässt.<br />

Die dafür meist eingesetzten kurzen Evaluationsbögen mit<br />

pauschalen Bewertungsfragen erzeugen darüber hinaus<br />

ein Erhebungsartefakt, weil nicht alle Studierenden so <strong>und</strong>ifferenziert<br />

wahrnehmen (dies aber nicht berücksichtigt<br />

wird). Und die Berechnung von Durchschnittswerten der<br />

TeilnehmerInnen produziert ein Auswertungsartefakt, weil<br />

sie die notwendig unterschiedlichen Urteile aufgr<strong>und</strong> der<br />

mangelnden Standardisierung von Vergleichsmaßstäben<br />

ausblendet (Kromrey 2001). Da<strong>zu</strong> kommt ein Vertrauensproblem:<br />

Je sorgfältiger die Messinstrumente konstruiert<br />

sind <strong>und</strong> je exakter die Ergebnisse dargestellt sind, desto<br />

stärker ist vielfach der Glaube an deren Objektivität19 .<br />

Noch dramatischer wird dieser Bef<strong>und</strong>, wenn man Lehr-<br />

veranstaltungen miteinander vergleicht. So hat Kromrey<br />

(1994) schon vor vielen Jahren festgestellt, dass ein Ranking<br />

von Lehrveranstaltungen methodischer Unsinn ist,<br />

weil lehrangebotsunabhängige Faktoren die Beurteilungen<br />

massiv beeinflussen. Dem<strong>zu</strong>folge kommen etwa Lehrende,<br />

deren Studierende Wahlmöglichkeiten zwischen Veranstaltungen<br />

haben, persönliches Interesse mitbringen, regelmäßig<br />

mitarbeiten, die Veranstaltungen regelmäßig besuchen<br />

<strong>und</strong> insgesamt studienerfahren sind, in den Genuss<br />

deutlich besserer studentischer Bewertungen. Die Evaluierung<br />

von Programmen oder gar didaktischen Ansätzen<br />

erweist sich keineswegs als einfacher, sondern noch um<br />

einiges komplexer.<br />

Wenngleich Kromrey (2001) Evaluierung als bedeutsames<br />

Instrument im Bemühen um die Qualitätsentwicklung<br />

sieht, so stellt er sich doch klar gegen die vielfach vor<strong>zu</strong>findende<br />

Vereinfachung. Im Zuge dessen führt er beispielsweise<br />

an, dass die Erfolgsmessung eines Studiengangs<br />

massive Probleme aufwirft: Da Studienpläne oder Prüfungsordnungen<br />

konstant bleiben, ist deren Wirkung nicht feststellbar;<br />

Lehrveranstaltungen wiederum sind einer Vielzahl<br />

nicht kontrollierbaren Bedingungen ausgesetzt, die aber<br />

das Ergebnis einer Erfolgsmessung beeinflussen; letztlich<br />

sind Interaktionen zwischen Studierenden <strong>und</strong> Lehrpersonal<br />

nicht rekonstruierbar20 .<br />

All das ist kein Argument gegen Evaluierungen oder gegen<br />

gute Instrumente, sondern eines gegen die Leichtgläubigkeit<br />

bezüglich der Ergebnisse. Kromrey (2001) verweist in<br />

seinen Ausführungen auf den enormen mit einer seriösen<br />

Evaluierung verb<strong>und</strong>enen Aufwand. Wenn man aber<br />

möchte, dass die Kosten gering bleiben, die Störung des<br />

normalen Betriebs vernachlässigbar ist <strong>und</strong> die Erhebung<br />

rasch abgewickelt werden kann, kommt man unversehens<br />

<strong>zu</strong> Minievaluierungen mit all ihren Schwachstellen. Und<br />

dann wird erhoben, was mit leicht einsetzbaren standardisierten<br />

Instrumenten einfach gemessen werden kann <strong>und</strong><br />

das Universitätsmanagement ist verleitet, sich an solchen<br />

fragwürdigen Indikatoren <strong>zu</strong> orientieren.<br />

c) Was sind die Folgen von Evaluierung?<br />

Evaluierungen können <strong>Informationen</strong> unter anderem darüber<br />

geben, für wen man lehrt, welche Erwartungen Studierende<br />

an eine Lehrveranstaltung haben, wie sie diese<br />

19 In diesem Sinne sind zwei oder drei Kommastellen bestenfalls pseudogenau, die Berechnung von gewichteten Medianen entzerren<br />

nur die Werte. Aber vielleicht sollte man Konfidenzintervalle berücksichtigen – dies würde vermutlich vor allem bei kleinen Lehrveranstaltungen<br />

den Glauben an die Genauigkeit der Werte relativieren <strong>und</strong> die mitunter beliebte (aber fragwürdige) Identifikation der<br />

besten oder schlechtesten 10% der Lehrenden ad absurdum führen.<br />

20 Um die Wirkung von Komponenten von Studienplänen feststellen <strong>zu</strong> können, müssten diese Komponenten variiert werden. Die<br />

Wirkung wäre an den unterschiedlichen Ergebnissen der variierten Bedingungen ablesbar. Dies ist aber unter regulären Studienbedingungen<br />

nicht möglich. Die nicht kontrollierbaren Kontextbedingungen wiederum verändern das Ergebnis auf eine nicht nachvollziehbare<br />

Weise. Deshalb lassen sich spezifische Maßnahmen nicht den Studienerfolgen der AbsolventInnen <strong>zu</strong>rechnen.<br />

51<br />

UNILEX 1–2/2010

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!