Informationen zu universitätsrechtlicher Theorie und Praxis 1 ... - ULV
Informationen zu universitätsrechtlicher Theorie und Praxis 1 ... - ULV
Informationen zu universitätsrechtlicher Theorie und Praxis 1 ... - ULV
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
eurteilung. Qualität ist eine soziale Konstruktion <strong>und</strong><br />
daher ein Verhandlungsgegenstand, der situations- <strong>und</strong><br />
interessenbezogen unterschiedlich definiert wird. Man<br />
kann daher nicht von Qualität an sich sprechen, sondern<br />
nur von Qualität aus unterschiedlichen Perspektiven <strong>und</strong><br />
in unterschiedlichen Kontexten. Deshalb macht eine Konzentration<br />
auf allgemeine Standardprozeduren oder Standardevaluierungen<br />
<strong>zu</strong>r Qualitätsförderung wenig Sinn.<br />
b) Was wird gemessen?<br />
Erweist sich die Definition von Qualität als Problem sozialer<br />
Konstruktion ohne sicheren Ankerpunkt, so setzen sich die<br />
Schwierigkeiten in die Messung fort. Hier geht es beispielsweise<br />
um die Frage, ob <strong>und</strong> woran man „gute“ Lehre erkennen<br />
kann. In diesem Zusammenhang identifiziert H<strong>und</strong>t<br />
(2000) bei der Lehrveranstaltungsbeurteilung mehrere<br />
kritische Punkte: So meint er, dass die meisten Instrumente<br />
an der didaktischen Oberfläche kratzen <strong>und</strong> inhaltliche<br />
Standards ausklammern, dass eine Orientierung an Mittelwerten<br />
die Vielfalt der Studierendeneinschät<strong>zu</strong>ngen ignoriert,<br />
<strong>und</strong> dass Messen allein noch lange keine Verbesserung<br />
bewirkt. Auch Rindermann (2009: 241f.) macht klar, dass<br />
die Durchführung einer studentischen Lehrevaluation nicht<br />
ausreicht, um Veränderungen in der Lehre <strong>zu</strong> bewirken.<br />
Führt man eine Lehrevaluierung mittels standardisierter<br />
Befragung von Studierenden durch, so unterstellt dies,<br />
dass Studierende aufgr<strong>und</strong> ihrer Betroffenheit ExpertInnen<br />
seien – aber sie bleiben Alltags-EvaluatorInnen, die nach<br />
ihren eigenen Kriterien bewerten, was wiederum die Bedeutung<br />
der Antworten nicht mehr rekonstruieren lässt.<br />
Die dafür meist eingesetzten kurzen Evaluationsbögen mit<br />
pauschalen Bewertungsfragen erzeugen darüber hinaus<br />
ein Erhebungsartefakt, weil nicht alle Studierenden so <strong>und</strong>ifferenziert<br />
wahrnehmen (dies aber nicht berücksichtigt<br />
wird). Und die Berechnung von Durchschnittswerten der<br />
TeilnehmerInnen produziert ein Auswertungsartefakt, weil<br />
sie die notwendig unterschiedlichen Urteile aufgr<strong>und</strong> der<br />
mangelnden Standardisierung von Vergleichsmaßstäben<br />
ausblendet (Kromrey 2001). Da<strong>zu</strong> kommt ein Vertrauensproblem:<br />
Je sorgfältiger die Messinstrumente konstruiert<br />
sind <strong>und</strong> je exakter die Ergebnisse dargestellt sind, desto<br />
stärker ist vielfach der Glaube an deren Objektivität19 .<br />
Noch dramatischer wird dieser Bef<strong>und</strong>, wenn man Lehr-<br />
veranstaltungen miteinander vergleicht. So hat Kromrey<br />
(1994) schon vor vielen Jahren festgestellt, dass ein Ranking<br />
von Lehrveranstaltungen methodischer Unsinn ist,<br />
weil lehrangebotsunabhängige Faktoren die Beurteilungen<br />
massiv beeinflussen. Dem<strong>zu</strong>folge kommen etwa Lehrende,<br />
deren Studierende Wahlmöglichkeiten zwischen Veranstaltungen<br />
haben, persönliches Interesse mitbringen, regelmäßig<br />
mitarbeiten, die Veranstaltungen regelmäßig besuchen<br />
<strong>und</strong> insgesamt studienerfahren sind, in den Genuss<br />
deutlich besserer studentischer Bewertungen. Die Evaluierung<br />
von Programmen oder gar didaktischen Ansätzen<br />
erweist sich keineswegs als einfacher, sondern noch um<br />
einiges komplexer.<br />
Wenngleich Kromrey (2001) Evaluierung als bedeutsames<br />
Instrument im Bemühen um die Qualitätsentwicklung<br />
sieht, so stellt er sich doch klar gegen die vielfach vor<strong>zu</strong>findende<br />
Vereinfachung. Im Zuge dessen führt er beispielsweise<br />
an, dass die Erfolgsmessung eines Studiengangs<br />
massive Probleme aufwirft: Da Studienpläne oder Prüfungsordnungen<br />
konstant bleiben, ist deren Wirkung nicht feststellbar;<br />
Lehrveranstaltungen wiederum sind einer Vielzahl<br />
nicht kontrollierbaren Bedingungen ausgesetzt, die aber<br />
das Ergebnis einer Erfolgsmessung beeinflussen; letztlich<br />
sind Interaktionen zwischen Studierenden <strong>und</strong> Lehrpersonal<br />
nicht rekonstruierbar20 .<br />
All das ist kein Argument gegen Evaluierungen oder gegen<br />
gute Instrumente, sondern eines gegen die Leichtgläubigkeit<br />
bezüglich der Ergebnisse. Kromrey (2001) verweist in<br />
seinen Ausführungen auf den enormen mit einer seriösen<br />
Evaluierung verb<strong>und</strong>enen Aufwand. Wenn man aber<br />
möchte, dass die Kosten gering bleiben, die Störung des<br />
normalen Betriebs vernachlässigbar ist <strong>und</strong> die Erhebung<br />
rasch abgewickelt werden kann, kommt man unversehens<br />
<strong>zu</strong> Minievaluierungen mit all ihren Schwachstellen. Und<br />
dann wird erhoben, was mit leicht einsetzbaren standardisierten<br />
Instrumenten einfach gemessen werden kann <strong>und</strong><br />
das Universitätsmanagement ist verleitet, sich an solchen<br />
fragwürdigen Indikatoren <strong>zu</strong> orientieren.<br />
c) Was sind die Folgen von Evaluierung?<br />
Evaluierungen können <strong>Informationen</strong> unter anderem darüber<br />
geben, für wen man lehrt, welche Erwartungen Studierende<br />
an eine Lehrveranstaltung haben, wie sie diese<br />
19 In diesem Sinne sind zwei oder drei Kommastellen bestenfalls pseudogenau, die Berechnung von gewichteten Medianen entzerren<br />
nur die Werte. Aber vielleicht sollte man Konfidenzintervalle berücksichtigen – dies würde vermutlich vor allem bei kleinen Lehrveranstaltungen<br />
den Glauben an die Genauigkeit der Werte relativieren <strong>und</strong> die mitunter beliebte (aber fragwürdige) Identifikation der<br />
besten oder schlechtesten 10% der Lehrenden ad absurdum führen.<br />
20 Um die Wirkung von Komponenten von Studienplänen feststellen <strong>zu</strong> können, müssten diese Komponenten variiert werden. Die<br />
Wirkung wäre an den unterschiedlichen Ergebnissen der variierten Bedingungen ablesbar. Dies ist aber unter regulären Studienbedingungen<br />
nicht möglich. Die nicht kontrollierbaren Kontextbedingungen wiederum verändern das Ergebnis auf eine nicht nachvollziehbare<br />
Weise. Deshalb lassen sich spezifische Maßnahmen nicht den Studienerfolgen der AbsolventInnen <strong>zu</strong>rechnen.<br />
51<br />
UNILEX 1–2/2010