17.12.2013 Aufrufe

Evaluation und Evaluationsforschung - Universität Bremen

Evaluation und Evaluationsforschung - Universität Bremen

Evaluation und Evaluationsforschung - Universität Bremen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Ursula Carle / Heinz Metzen (2003):<br />

<strong>Evaluation</strong> <strong>und</strong> <strong>Evaluation</strong>sforschung – ein neues<br />

Paradigma: Entwicklungsservice statt Werkzeugkiste<br />

The purpose of evaluation is to improve, not to prove.<br />

Daniel L. Stufflebeam et al. (1971)<br />

Gliederung<br />

1 Entwicklungslinien der <strong>Evaluation</strong> ...................................................... 2<br />

1.1 Perspektivenwechsel: Vom Begutachtungs- zum Serviceprozess ................ 6<br />

1.2 Zur Annäherung von Entwicklungsprojekt <strong>und</strong> <strong>Evaluation</strong>ssystem ............... 8<br />

2 <strong>Evaluation</strong>sforschung im schulischen Bereich ................................. 12<br />

2.1 Unterstützungssystem für die Schulen statt nur Remote Control durch die<br />

Behörden .................................................................................................... 13<br />

2.2 Konsequenzen für die wissenschaftliche Begleitung von Schulversuchen . 16<br />

3 Die methodische Struktur <strong>und</strong> Strategie der <strong>Evaluation</strong> <strong>und</strong> der<br />

<strong>Evaluation</strong>sforschung ...................................................................... 18<br />

3.1 Fünf methodische Logiken entwicklungs- <strong>und</strong> evaluationsspezifischer<br />

Teiltätigkeiten .............................................................................................. 19<br />

3.2 Enwicklungsorientierte <strong>Evaluation</strong> .............................................................. 21<br />

3.2.1 Planungs- <strong>und</strong> Projektsteuerungskonsequenzen ...................................... 22<br />

3.2.2 Methodische Konsequenzen ..................................................................... 23<br />

4 Statt einer Bilanz ein Plädoyer: Vorrang hat die Qualifizierung<br />

der EvaluatorInnen .......................................................................... 26<br />

Literaturverzeichnis ............................................................................... 32<br />

Das Interesse, das Diskursvolumen, teilweise sogar die Aufregung sind groß. Seit gut zehn<br />

Jahren erobert der Begriff "<strong>Evaluation</strong>" (engl.: Wirkungs- oder Leistungsbewertung) die Welt<br />

der deutschen Bildungsinstitutionen in vorher unbekannter Geschwindigkeit <strong>und</strong> Intensität.<br />

Dabei scheint sie aus Sicht vieler 'nur eine neue Mode' zu sein. Aber anders als bei alltäglichen<br />

Moden, bei Kleidung, Autos oder Smalltalkthemen gibt es keine stolzen WertsymbolträgerInnen,<br />

sondern nur Opfer <strong>und</strong> Täter, Evaluierte <strong>und</strong> Evaluatoren. Dabei ist es eigentlich<br />

ganz anders gemeint, wie Stuffelbeam's Motto oben prosaisch nahe legt: Der Förderung soll<br />

sie dienen, nicht der Verurteilung. Aber anders als bei anderen Neuerungen, etwa der 'Verlässlichen<br />

Halbtagsschule' oder der 'Neuen Schuleingangsstufe' werben Schulen noch kaum<br />

mit ihrer "<strong>Evaluation</strong>" als öffentlichkeitswirksamem Prädikat. Stattdessen erzeugt <strong>Evaluation</strong><br />

Opfer <strong>und</strong> Täter, Evaluierte <strong>und</strong> Evaluatoren, Gewinner <strong>und</strong> Verlierer. Das steht in einem auffallenden<br />

Widerspruch zu Stufflebeam's <strong>Evaluation</strong>sbegriff, soll doch aus seiner Sicht <strong>Evaluation</strong><br />

der Förderung <strong>und</strong> nicht der Überprüfung dienen.<br />

Gibt es förderliche Forschungsmethoden? – Dazu zwei Vorbemerkungen <strong>und</strong> ein paradigmatisches<br />

Bekenntnis. Erstens: <strong>Evaluation</strong>sforschung war zwar ein historisch wichtiger<br />

Begriff eines der Gründerväter der <strong>Evaluation</strong>sforschung, Donald T. Campbell (siehe Isaac /


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Michael 1997, 13; Campbell 1969 <strong>und</strong> 1988), ist aber aus heutiger Sicht nur noch ein notwendiger,<br />

keineswegs hinreichender Teilaspekt von <strong>Evaluation</strong>. Zweitens: Die <strong>Evaluation</strong>sforschung<br />

kennt keine eigenen Erhebungsmethoden. Spezifisch hingegen ist ihr historisch<br />

entwickelter Anwendungsbereich, Handlungs- <strong>und</strong> entscheidungsunterstützende Informationsbeschaffung<br />

in umfangreichen <strong>und</strong> deshalb ebenso komplexen (kontingenten) wie unübersichtlichen<br />

Entwicklungsprojekten bzw. –programmen <strong>und</strong> die dazu passende Methodenvielfalt<br />

<strong>und</strong> Methodenstruktur (zur Geschichte: Stockmann 2000; Mertens 2000; Leeuw 2000).<br />

Das Besondere an der <strong>Evaluation</strong>sforschung ist daher vor allem die anwendungsorientierte<br />

Felderfahrung der ForscherInnen <strong>und</strong> die Routine in der Zuordnung von Problemstellungen<br />

zu Instrumenten. Letztere zählen zig bis h<strong>und</strong>erte Varianten <strong>und</strong> finden sich in allen gängigen<br />

Methodenlehrbüchern für Pädagogen, Ökonomen, Soziologen, Politologen <strong>und</strong> Ethologen.<br />

Dort findet sich auch das gr<strong>und</strong>sätzliche Wissensgenerierungs- <strong>und</strong> –überprüfungsmuster von<br />

Thematisierung, Problemeingrenzung, Fragestellung, Wirkungsmodellierung, Indikatorenbildung,<br />

Erhebung, Auswertung, Interpretation, erneuter Thematisierung <strong>und</strong> allen in dieser Kette<br />

möglichen kleinen <strong>und</strong> großen Zwischenschleifen, Sprüngen <strong>und</strong> Wiederholungen (z.B.<br />

Kromrey 1990; Bortz / Döring 2002).<br />

1 Entwicklungslinien der <strong>Evaluation</strong><br />

Die folgenden Überlegungen sind insoweit auch methodischer Natur, als sie die zukünftige<br />

Entwicklung der gr<strong>und</strong>sätzlichen Vorgehensweise (Methode = lat.-gr. "Weg oder Gang einer<br />

Untersuchung…") von <strong>Evaluation</strong>en im Bildungsbereich zu skizzieren versuchen, dabei aber<br />

weniger die einzelne Erhebungsform <strong>und</strong> das zugehörige Erhebungsinstrument im Blick haben<br />

als die gesamte Vorgehensstruktur <strong>und</strong> -logik. Diese Bemerkung ist an dieser Stelle wichtig,<br />

weil <strong>Evaluation</strong> keine "eigenen" Forschungsmethoden besitzt, <strong>Evaluation</strong>sforschung also<br />

das Methodenrepertoire der Sozialwissenschaften nutzt.<br />

<strong>Evaluation</strong>sforschung als tertiärer Serviceprozess<br />

Entwicklungsprojekt<br />

Kernprozess<br />

Unterstützungssystem<br />

<strong>Evaluation</strong>ssystem<br />

<strong>Evaluation</strong>sforschung<br />

3. Serviceprozess<br />

2. Serviceprozess<br />

1. Serviceprozess<br />

Kompetenzüberschuss<br />

des Forschungssystems<br />

Kompetenzüberschuss<br />

des <strong>Evaluation</strong>ssystems<br />

Kompetenzüberschuss<br />

des Unterstützungssystems<br />

evaluation_als_service.ppt U. Carle 2002-12<br />

Abbildung 1: Stellenwert der <strong>Evaluation</strong>sforschung im <strong>Evaluation</strong>sprozess<br />

camz2003evaluation_service.docx Seite 2 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Diese evaluationsspezifische Methodenstruktur soll mit Blick auf ein hierzu entwickelndes<br />

systemisches <strong>Evaluation</strong>sverständnis im weiteren Verlauf dieser Abhandlungen noch um weitere<br />

Methoden <strong>und</strong> Instrumente erweitert werden. Dieses neue <strong>Evaluation</strong>sparadigma hat dabei<br />

noch eher prognostischen Charakter als dass es die gängige Praxis der Profession wider<br />

gibt. Insofern aber Prognosen niemals "richtig" sein können, sie aber trotzdem die Entwicklung<br />

dessen beeinflussen, was sie vorhersagen, ist die hier folgende Diskussion eines systemisch-evolutionären<br />

<strong>Evaluation</strong>skonzeptes vor allem das Bekenntnis zu einem für Schulentwicklung<br />

besonders zukunftsträchtigen Entwicklungsparadigma.<br />

Die obige Abbildung "Stellenwert der <strong>Evaluation</strong>sforschung im <strong>Evaluation</strong>sprozess"<br />

zeigt die Gewichtsverhältnisse zwischen realem (Schul-) Gestaltungsprojekt – auf welcher<br />

Strukturebene auch immer – <strong>und</strong> der sozialwissenschaftlichen Begleitforschung. Im Kern jeder<br />

<strong>Evaluation</strong> geht es um die Schaffung eines phasenspezifisches Prozessmonitoring-<br />

Systems: Klärung der Zielstellung => Ableitung von Indikatoren => Auswahl <strong>und</strong> Entwicklung<br />

von Erhebungsinstrumenten => Planung, Gestaltung <strong>und</strong> Durchführung entsprechender<br />

Erhebungen => Auswertung der Bef<strong>und</strong>e => Interpretation der Ergebnisse => Kommunikation<br />

der Schlussfolgerungen <strong>und</strong> Initiierung bzw. Bereicherung eines strategischen Diskurses<br />

im Gestaltungsfeld.<br />

Das sich bereits in der obigen Abbildung andeutende <strong>Evaluation</strong>sverständnis von einer<br />

<strong>Evaluation</strong>sforschung als tertiärem (drittrangigem) Serviceprozess hebt sich deutlich aus dem<br />

breiten Feld der augenblicklich publizierten <strong>und</strong> ventilierten Begriffsverwendungen zwischen<br />

Schülerbeurteilung <strong>und</strong> Weltbildungsbericht ab. Die Differenzen im Wortgebrauch kommen<br />

nicht von Ungefähr <strong>und</strong> sind auch nicht auf eine typisch deutsche <strong>Evaluation</strong>sfeindlichkeit zurück<br />

zu führen. Vielmehr gibt es auch im angelsächsischen pädagogischen Kontext zwei,<br />

mittlerweile völlig verschiedene Begriffskontexte mit dem Namen "<strong>Evaluation</strong>".<br />

Auf der einen Seite steht der alte Begriff <strong>Evaluation</strong>-1 mit der Bedeutung "schulische<br />

Leistungsbewertung" – angewandt auf Schüler, Lehrer, gar ganze Schulen (das, was PISA<br />

2000 maß). Dieser <strong>Evaluation</strong>sbegriff ist retrospektiv. Entsprechende Studien ermitteln mit<br />

punktuellen Erhebungen einen Indikator für zurück liegende Leistungsveränderungen (Längsschnitt).<br />

Sie lassen im Querschnitt Leistungsvergleiche zwischen unterschiedlichen Systemen<br />

zu. Die zugr<strong>und</strong>e liegende testtheoretisch f<strong>und</strong>ierte Messmethodik ist international hoch entwickelt<br />

<strong>und</strong> technisch so weit standardisiert, dass großflächiger Einsatz möglich ist. Die Aussagefähigkeit<br />

solcher Untersuchungen lässt sich also statistisch gut absichern. Sie hängt jedoch<br />

außerdem wesentlich davon ab, was der Indikator sicher repräsentiert, d. h. davon, in<br />

wie weit das der Testkonstruktion zugr<strong>und</strong>e liegende Wirkfaktorenmodell die realen Zusammenhänge<br />

abbildet.<br />

Auf der anderen Seite steht der (historisch gesehen) neue Begriff der sozialwissenschaftlichen<br />

<strong>Evaluation</strong>(-2), <strong>Evaluation</strong>sforschung oder Systementwicklungsevaluation – das<br />

"Joint Committee on Standards for Educational <strong>Evaluation</strong>" nennt seine diesbezüglichen<br />

Standards auch "Program <strong>Evaluation</strong>" (zur Unterscheidung von "Student <strong>Evaluation</strong>") als ein<br />

professionelles Verfahren <strong>und</strong> Wissensmanagementsystem zur informativen Versorgung von<br />

Unterstützungssystemen für umfassende (Um-) Gestaltungsprojekte ("Programs") sozialer<br />

Systeme. Hierbei handelt es sich um prozessnahe, meist prozessbegleitende Forschung. Ziel<br />

ist die Arbeit an einer systematischen Verbesserung des Lernens, Unterrichtens, Schule Gestaltens<br />

oder einer konkreten Erneuerung im Bildungswesen. In größeren sozialen Systemen<br />

kann <strong>Evaluation</strong>-2 <strong>und</strong> Unterstützung nicht von ein <strong>und</strong> derselben Person geleistet werden.<br />

Daher ist Systementwicklungsevaluation deutlicher auf Kooperation angewiesen als <strong>Evaluation</strong><br />

mit Testcharakter.<br />

Was sich als Trend bei der sozialwissenschaftlichen <strong>Evaluation</strong> abzeichnet, nämlich die<br />

konstruktive Zielrichtung, <strong>Evaluation</strong>en vor allem zur informativen Unterstützung systematischer<br />

Entwicklungen einzusetzen, gewinnt auch für die schulische Leistungsbewertung zu-<br />

camz2003evaluation_service.docx Seite 3 von 38


Institutionelle Strukturleiter<br />

(Von der Mikro- über die Meso- bis zur Makroebene)<br />

Gutachterliche<br />

Festsetzung des<br />

Wertes einer Sache<br />

Sozialwissenschaftliche<br />

F<strong>und</strong>ierung der<br />

Gutachtenerstellung<br />

Sozialwissenschaftlich<br />

f<strong>und</strong>ierte Diagnose der<br />

erreichten Veränderung<br />

Sozialwissenschaftlich f<strong>und</strong>ierte<br />

Bewertung aller Phasen eines<br />

Gestaltungsprojektes<br />

Bereitstellung der notwendigen<br />

Informationen zur Optimierung<br />

aller Phasen des Projektes<br />

Wissenschaftlich f<strong>und</strong>ierte Prozess<br />

begleitende <strong>und</strong> –verbessernde<br />

Handlungs- <strong>und</strong> Teilergebnisbewertung<br />

Schaffung eines Informationssystems<br />

zur informativen Verbesserung<br />

des Projekt-Unterstützungssystems<br />

Partieller, leichter Eingriff<br />

Partieller, mittelfristiger Eingriff<br />

Vielseitiger, mittelfristiger Eingriff<br />

Umfassender, mittelfristiger Eingriff<br />

Nachhaltige Gestaltungsmaßnahme<br />

Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

nehmend an Relevanz. Dazu hat im November 2002 das Joint Committee durch eine weitere<br />

gr<strong>und</strong>legende Arbeit beigetragen: "The Student <strong>Evaluation</strong> Standards. How to Improve <strong>Evaluation</strong>s<br />

of Students" (dies. 2002). Das Joint Committee ist am gleichen "<strong>Evaluation</strong> Center"<br />

der Western Michigan University in Kalamazoo, Michigan (USA) beheimatet, in dem auch<br />

die von James R. Sanders heraus gegebenen "Program Standards" (1999) <strong>und</strong> die <strong>Evaluation</strong>sexpertisen<br />

von Stufflebeam <strong>und</strong> KollegInnen (1971) erarbeitet wurden 1 . Zwischen1997<br />

<strong>und</strong> heute hat das Joint Committee mit Unterstützung der W. K. Kellogg Fo<strong>und</strong>ation an der<br />

Entwicklung von Leistungsbewertungsstandards gearbeitet <strong>und</strong> damit sowohl den Lehrerinnen<br />

<strong>und</strong> Lehrern bei ihrer Bewertungsarbeit eine praktische Hilfe als auch den Schülern, Eltern<br />

<strong>und</strong> allen Interessierten eine konzise Information darüber geliefert, wie gute, faire, transparente<br />

<strong>und</strong> entwicklungsförderliche Leistungsermittlung (Assessment) <strong>und</strong> Leistungsbewertung,<br />

sensu <strong>Evaluation</strong>-1 aussehen kann.<br />

Die kulturelle Übereinstimmung <strong>und</strong> strukturelle Ähnlichkeit zwischen der individuellen<br />

Leistungsbewertung (<strong>Evaluation</strong>-1) mit der sozialwissenschaftlichen Entwicklungsunterstützung<br />

(<strong>Evaluation</strong>-2) schließen nun den Begriffskreis, der in den dreißiger Jahren mit einer<br />

Anleihe aus dem Werkzeugkasten der Lehrer (<strong>und</strong> staatlichen Gutachter) begann <strong>und</strong> heute<br />

mit einer gemeinsamen systemisch orientierten Feedbackprozedur, wenn auch auf zwei ganz<br />

unterschiedlichen institutionellen Strukturebenen (Carle 2000, 359 ff) <strong>und</strong> mit deutlich unterschiedlichem<br />

methodisch-apparativem Aufwand endet. Die eigentlich große Frage ist also,<br />

wie auf allen Strukturebenen die beiden Traditionen zusammen kommen können, wie also<br />

Leistungsbewertung zugleich der informativen Gr<strong>und</strong>legung der Entwicklung von Lernen,<br />

Unterricht, Schule <strong>und</strong> Bildungswesen dienen kann – individuell <strong>und</strong> gesellschaftlich.<br />

Tragweite von <strong>Evaluation</strong>sprojekten<br />

Dreidimensionales Kategorienschema zu ihrer Einschätzung<br />

Gesellschaftl.<br />

Ebene<br />

Organisationale<br />

Ebene<br />

Kollektive<br />

Ebene<br />

Individuelle<br />

Ebene<br />

Systemhaftigkeit der <strong>Evaluation</strong><br />

(Sieben Grade: von der gutachterlichen Stellungnahme bis hin zum Entwicklungsservice)<br />

Veränderungstiefe<br />

(Intensität, Reichweite <strong>und</strong><br />

Nachhaltigkeit des Wandels)<br />

eval-tragweite-wuerfel.ppt U. Carle 2002-12<br />

Abbildung 2: Drei Dimensionen zur Kennzeichnung der Tragweite von <strong>Evaluation</strong>sprojekten<br />

1 Ein Besuch auf der Homepage des "<strong>Evaluation</strong> Centers" ist von hohem professionellem Interesse, werden doch<br />

dort eine Fülle von Checklists <strong>und</strong> Artikel zur praktischen <strong>Evaluation</strong>sarbeit zum kostenlosen Herunterladen<br />

angeboten: <br />

camz2003evaluation_service.docx Seite 4 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Kern eines integrativen <strong>Evaluation</strong>sbegriffes ist das Veränderungsvorhaben – auf welcher<br />

Strukturebene auch immer. Die obige Abbildung der Tragweitedimensionen von zu evaluierenden<br />

Gestaltungsprojekten macht deutlich, dass diese Veränderungsprojekte von der begrenzten<br />

individuellen Lernaufgabe bis hin zum gesamtgesellschaftlichen Vorhaben zur Neugestaltung<br />

der schulischen, universitären <strong>und</strong> betrieblichen Bildung reichen können.<br />

Wie auch immer man die strukturelle Dimensionalität von anthropogenen Gestaltungsunternehmungen<br />

bewerten mag, von der Komplexität <strong>und</strong> vom methodischen Anspruch her sind<br />

"Nachhaltige Gestaltungsmaßnahmen" auf individueller Ebene methodisch nicht weniger anspruchsvoll<br />

<strong>und</strong> aufwendig große bildungspolitische "Revolutionen" – ein Blick auf Einzelfallstudien<br />

(siehe Lamnek 1995; Friebertshäuser / Prengel 1997), auf Untersuchungen ohne<br />

große Zahlen, belegt das. Professionelle <strong>Evaluation</strong> unterscheidet also nicht die Zahl der Fälle<br />

oder die globale Reichweite des Gestaltungsprojektes vom schlichten, situativen Gutachten,<br />

sondern die gestalterisch beanspruchte <strong>und</strong> methodisch abgebildete Veränderungstiefe.<br />

Wie verlief die Karriere eines mittlerweile für die Consulting Profession aber auch für die<br />

Scientific Community so bedeutungsschweren Alltagsbegriffs? - Der ebenso bescheidene wie<br />

methodisch anspruchsvolle oder gar existenziell überwältigende Begriff "<strong>Evaluation</strong>" wurde<br />

von amerikanischen Regierungsstellen in den dreißiger Jahren des zwanzigsten Jahrh<strong>und</strong>erts<br />

auf die sozialwissenschaftlich gestützte Begutachtung größerer sozial-ökonomischer Vorhaben<br />

übertragen <strong>und</strong> entwickelte sich nach dem 2. Weltkrieg zum kybernetisch inspirierten<br />

Wirkungsmodell der informativen Gr<strong>und</strong>legung (Feedback) bedeutsamer Eingriffe in große<br />

soziale Systeme. Die wissenschaftliche Politikberatung war geboren <strong>und</strong> ist zumindest in den<br />

USA nach mehreren Aufs <strong>und</strong> Abs zum Standard administrativer Projektgestaltung avanciert.<br />

Damit hat auch im öffentlichen Bereich die Verwissenschaftlichung der Alltagsarbeit Einzug<br />

gehalten – was es im deutschen Bildungssektor nach zu holen gilt.<br />

Die Improvement-Zielstellung ist seit den Siebzigern des vorigen Jahrh<strong>und</strong>erts in der<br />

deutschen <strong>Evaluation</strong>sprofession Gemeingut, nicht aber im überwiegenden Teil der deutschen<br />

behördlichen <strong>Evaluation</strong>spraxis, insbesondere nicht in der Kultusbürokratie. Wie klein die<br />

Profession noch ist, verrät ein Blick auf die Homepage der erst 1997 gegründeten "Deutschen<br />

Gesellschaft für <strong>Evaluation</strong>" (DeGEval) 2 . Damit hinken wir der amerikanischen Entwicklung<br />

gut 20 Jahre hinterher 3 . Entsprechend fallen hier die gängigen Fluchtmuster der "<strong>Evaluation</strong>sopfer"<br />

gegenüber den neuen behördlichen Bewertungszumutungen aus: Sie variieren zwischen<br />

Leugnung ("<strong>Evaluation</strong> ist eine Mode") <strong>und</strong> Ablenkung ("Wir evaluieren uns selbst<br />

nach unseren eigenen Kriterien"). Die zugehörigen Verfolgungsmuster der politisch-administrativen<br />

Täter bestehen aus Mittelkürzungsvorbehalten gestützt auf externen Sachverstand.<br />

Die Täterposition – obwohl im Sinne Stufflebeam's kontraproduktiv - ist unproblematisch,<br />

gründet sich ihre Praxis doch trotz des neuen Begriffes auf einer uralten Amtspraxis, nämlich<br />

der "Revision", der "Begutachtung" <strong>und</strong> der "Bewährungskontrolle".<br />

2 Die URL der Deutschen Gesellschaft für <strong>Evaluation</strong> (DeGEval) in Köln lautet (Stand Dezember 2002):<br />

http://www.degeval.de/<br />

3 Lee J. Cronbach gründete bereits 1970 das "Stanford <strong>Evaluation</strong> Consortium", ein Forschungs-, Service- <strong>und</strong><br />

Trainingszentrum an der School of Education der Stanford University. Das "<strong>Evaluation</strong> Center" an der Western<br />

Michigin University in Kalamazoo, Michigan, USA mit weltweit führenden <strong>Evaluation</strong>smethodikern wie Daniel<br />

L. Stufflebeam wurde 1973 gegründet. Für den schulischen Bereich konstituierte sich bereits 1975 das<br />

"Joint Committee on Standards for Educational <strong>Evaluation</strong>". Ein Vorläufer des Berufsverbandes der "American<br />

<strong>Evaluation</strong> Association", das "<strong>Evaluation</strong> Network" wurde 1976 ins Leben gerufen…<br />

camz2003evaluation_service.docx Seite 5 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

1.1 Perspektivenwechsel:<br />

Vom Begutachtungs- zum Serviceprozess<br />

Die Irritation der in der ganz überwiegender Zahl als Lehrende tätigen Evaluierten gründet in<br />

einer tiefen Verunsicherung des eigenen Professionsverständnisses: Sollen die traditionellen<br />

Werkzeuge der Pädagogik, persönliche Intuition, ein hoher pädagogischer Ethos <strong>und</strong> reiche<br />

berufliche Erfahrung durch die externen <strong>und</strong> nicht selten organisationsfremden Maßstäbe von<br />

Bürokraten völlig in Frage gestellt werden? Muss etwa die ganzheitliche, individuelle <strong>und</strong> situative<br />

Sicht- <strong>und</strong> Arbeitsweise der LehrerInnen einer punktuellen (<strong>und</strong> damit messbaren) <strong>und</strong><br />

landeseinheitlichen Testbürokratie weichen?<br />

"Die Sau wird durchs Wiegen nicht fetter", kalauerte diesbezüglich vor wenigen Jahren<br />

ein großer deutscher Lehrerverband <strong>und</strong> spiegelte damit die Stimmung des Berufsstandes treffend.<br />

Aber er verfehlte damit die sich im aktuellen <strong>Evaluation</strong>skonflikt äußernde Aufgabenstellung<br />

völlig. Denn die berechtigte Erwartung an ein professionelles <strong>Evaluation</strong>ssystem besteht<br />

nicht im schieren Messen, sondern in der Bereitstellung eines sozialwissenschaftlich<br />

f<strong>und</strong>ierten Kommunikationssystems zur zielführenden Verbindung aller an Schule, Hochschule<br />

<strong>und</strong> anderen Bildungseinrichtungen Beteiligten <strong>und</strong> Betroffenen in Richtung auf eine moderne,<br />

prozess-, entwicklungs- <strong>und</strong> schülerorientierte Bildungssystemgestaltung über alle<br />

Strukturebenen hinweg.<br />

Auf das Bildungssystem bezogen lässt sich bis hier zusammen fassen: <strong>Evaluation</strong> soll im<br />

Gestaltungsprozess handlungsleitendes Wirkungswissen bereit stellen <strong>und</strong> zwar für den gemeinsamen<br />

strategischen Diskurs 4 der verschiedenen Interessengruppen über die weitere Ausformung<br />

des Gestaltungsprojektes. Dabei ist erfolgversprechende <strong>Evaluation</strong> – dies lehren alle<br />

<strong>Evaluation</strong>serfahrungen (Carle 2000, 67-70) im Bildungssektor - immer demokratisch <strong>und</strong><br />

bietet den Gestaltenden für ihr gemeinsames Vorhaben:<br />

Zielführungssystem<br />

Kommunikationsplattform <strong>und</strong><br />

Integrationsmedium der Strukturebenen<br />

Jede Ebene <strong>und</strong> jede Interessengruppe des Bildungssystems erhält so die Zahlen <strong>und</strong> Einschätzungen,<br />

die es ihr erlauben, ein höheres Maß an Verantwortung <strong>und</strong> Zweckmäßigkeit des<br />

eigenen <strong>und</strong> des gemeinsamen Handelns zu erreichen. Dies gilt auf der schulfernen Regierungsebene<br />

ebenso wie auf der konkreten Ebene des Unterrichts. Ein erfolgversprechendes<br />

<strong>Evaluation</strong>ssystem verbindet persönliche Lernzuwachs-Portfolios mit staatsweiten Bildungskennzahlen.<br />

Eine solche "Umfassende (comprehensive) <strong>Evaluation</strong>" gibt Schülern, Eltern,<br />

Lehrern, Administratoren <strong>und</strong> Politikern eine Rückmeldung darüber:<br />

dass das, was sie wollen, auch wirklich getan wird<br />

(Implementation <strong>Evaluation</strong> – Durchführungskontrolle)<br />

dass das, was sie tun, auch tatsächlich wirkt<br />

(Impact <strong>Evaluation</strong> – Wirkungskontrolle) <strong>und</strong><br />

dass die Art, wie es getan wird, der gebotenen Ökonomie <strong>und</strong> der aktuell möglichen<br />

Professionalität entspricht (Effectiveness <strong>Evaluation</strong> – Effizienzkontrolle)<br />

Das Design von <strong>Evaluation</strong>sforschungsvorhaben entsprach bereits um 1930 diesem gr<strong>und</strong>legenden<br />

Anspruch, nur dass das sozialwissenschaftliche Niveau <strong>und</strong> das Selbstverständnis der<br />

Gestalter wie das der Evaluatoren damals noch stark expertokratisch waren. Die weitere Ge-<br />

4 Wolfgang Beywl nennt diesen strategischen Diskurs prosaischer "Wirksamkeitsdialog" – ders. 2001: Die Perspektiven<br />

des Wirksamkeitsdialogs<br />

camz2003evaluation_service.docx Seite 6 von 38


hoch innovative <strong>und</strong><br />

trotzdem gesicherte<br />

Forschungsfrage<br />

ungelöste + schwierige<br />

Entwicklungsaufgabe<br />

eines Praxisfeldes<br />

Entwicklung einer praktisch<br />

relevanten Problemstellung<br />

Entwicklung einer theoretisch<br />

konsistenten Problemstellung<br />

Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

schichte der Entwicklung der <strong>Evaluation</strong>sforschung spiegelt also vor allem die jeweils vorherrschenden<br />

wissenschaftlichen Paradigmen (sensu Kuhn 176 <strong>und</strong> 1997) wieder. Das der<br />

heutigen Wissenschaftsentwicklung angemessene Interventions- <strong>und</strong> Forschungsparadigma<br />

folgt dem systemisch-evolutionären Verständnis (sensu Carle 2000, 281 ff) 5 .<br />

<strong>Evaluation</strong> <strong>und</strong> <strong>Evaluation</strong>sforschung sind inzwischen im Bildungsbereich der USA bereits<br />

seit den 50er Jahren des 20. Jahrh<strong>und</strong>erts fest etabliert (Mertens 2000). Damit einher<br />

ging die Herausbildung einer <strong>Evaluation</strong>skultur, die einzig einem Ziel dient, dass alle besser<br />

lehren <strong>und</strong> lernen – dies in einem durchaus allgemeinen <strong>und</strong> in einem sehr persönlichen Sinne.<br />

Zwei Voraussetzungen sind dazu unabdingbar: Erstens muss das Gestaltungsvorhaben einem<br />

State-of-the-art-Wirkungsmodell des Gestaltungsfeldes folgen. Dieses Modell wird so<br />

gut wie aktuell möglich gestaltet <strong>und</strong> muss allen bewusst gemacht werden. Zweitens muss das<br />

<strong>Evaluation</strong>ssystem, sprich seine Strategie <strong>und</strong> Methodenstruktur zur Erfassung der tatsächlich<br />

eintretenden Wirkungen diesem Wirkungsmodell angemessen sein. So können die entwicklungsrelevanten<br />

Wirkungsfaktoren erfassbar <strong>und</strong> der Systemgestaltung zugänglich gemacht<br />

werden. Ziel ist die Erhöhung des Einflusses auf das Wirkungsfeld durch die Wirkenden.<br />

Die folgende Abbildung zeigt eine Gleichgewichtigkeit des Gestaltens <strong>und</strong> Forschens, die<br />

in der alten Arbeitsteilung von universitärer Sozialforschung <strong>und</strong> betrieblich-lebensweltlicher<br />

Gestaltungspraxis so nicht denkbar war. Nicht die Dichotomie der beiden Welten, <strong>Evaluation</strong>sforschung<br />

<strong>und</strong> Systemgestaltung, sondern erst die Integration wichtiger Teile der jeweils<br />

anderen "Welt" in die eigene Disziplin oder Arbeit ermöglicht den gleitendenden Übergang<br />

von der nur praktisch einwirkenden zur reflexiv forschenden Entwicklungswerkstatt.<br />

<strong>Evaluation</strong>slogik zwischen<br />

Praxisproblem <strong>und</strong> Forschungsfrage<br />

Entwicklung einer wissenschaftlich beantwortbaren Fragestellung<br />

Zielstellung<br />

Problemstellung<br />

Vorgehen<br />

Auftrag<br />

Abklärung<br />

Bedarf<br />

prozessbegleitende Unterstützung<br />

<strong>und</strong> wechselseitige Abstimmung<br />

Untersuchungsfrage<br />

Design<br />

Publikation<br />

Interpretation<br />

Auswertung<br />

Erhebung<br />

Entwicklung einer praktisch bedeutsamen Antwort<br />

evaluationslogik.ppt U. Carle 2002-10<br />

Abbildung 3: <strong>Evaluation</strong>sforschung als Interaktionsprozess zwischen Gestaltungsprojekt<br />

<strong>und</strong> Forschungsprozess<br />

5 Ein Beispiel für entsprechende <strong>Evaluation</strong>svorhaben schulischer Gestaltungsprojekte bietet der Ansatz der<br />

"Systemischen Schulbegleitforschung" von Ursula Carle (Carle 2000, 2001 <strong>und</strong> 2002; Carle u.a. 2002).<br />

camz2003evaluation_service.docx Seite 7 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Die Intervention des evaluationsunterstützten Projektes muss also im besten Falle einer wissenschaftlich<br />

f<strong>und</strong>ierten Wirkungsprognose folgen, die das <strong>Evaluation</strong>ssystem dann ebenso<br />

professionell im Projektverlauf abzubilden versucht. Dies könnte man aus amerikanischpragmatischer<br />

Sicht in Anlehnung an Rossi / Freeman / Lipsey (1999, zuerst 1985) die "Theoretische<br />

Wende" in der <strong>Evaluation</strong>sforschung nennen (s.a. Chen 1999; Bamberg 2000). <strong>Evaluation</strong><br />

wird zu einem von mehreren wichtigen Serviceprozessen für das Entwicklungsprojekt.<br />

Ich schlage deshalb aus der europäischen, eher theorielastigen Position vor, die konzeptionelle<br />

Koppelung zwischen Projekt <strong>und</strong> <strong>Evaluation</strong> einer "Systemischen Wende" der <strong>Evaluation</strong>sforschung<br />

zuzuschreiben. Die obige Abbildung versucht, die Verschränkung <strong>und</strong> Parallelität<br />

der beiden Hälften erfolgversprechender <strong>Evaluation</strong>sprojekte zu veranschaulichen. Die hier<br />

skizzierte Systemverschränkung setzt allerdings mehr als nur konzeptionelle Anknüpfungspunkte<br />

voraus, nämlich die Fähigkeit zur strukturellen Koppelung auf beiden Systemseiten<br />

voraus – dazu später mehr.<br />

In der systemischen <strong>Evaluation</strong>sforschung oder – bezogen auf Schule – der "Systemischen<br />

Schulbegleitforschung" (Carle 2002) folgen Struktur <strong>und</strong> Methodik der <strong>Evaluation</strong>sstudie<br />

dem Sinn, der Struktur <strong>und</strong> der Methodik des Gestaltungsprojektes. Das <strong>Evaluation</strong>ssystem<br />

muss also das Wirkungsmodell des Entwicklungssystems "verstanden" haben. Somit sind<br />

sozialwissenschaftliche Forschungsmethoden für erfolgreiche <strong>Evaluation</strong> nur eine notwendige,<br />

bei weitem aber keine hinreichende Bedingung. Hinzu kommt, dass die Art <strong>und</strong> Weise der<br />

<strong>Evaluation</strong>skommunikation für den Wissensgewinn <strong>und</strong> den Lernerfolg der Gestaltenden eine<br />

nicht minder wichtige Rolle spielt – zur schriftlichen Gestaltung von <strong>Evaluation</strong>s-Exposees, -<br />

Berichten <strong>und</strong> –Artikeln siehe Isaac / Michael 1997, 237 ff). Felderfahrung <strong>und</strong> f<strong>und</strong>ierte theoretische<br />

Feldmodellierung einschließlich der Feldsprachenbeherrschung bilden also mindestens<br />

ebenso wichtige Erfolgsbedingungen wie die Kenntnis sozialwissenschaftlicher Erhebungsmethoden<br />

–zur Methodik später mehr in Kapitel 4.3.<br />

1.2 Zur Annäherung von Entwicklungsprojekt <strong>und</strong><br />

<strong>Evaluation</strong>ssystem<br />

Auch die Väter der amerikanischen <strong>Evaluation</strong>sforschung Donald T. Campbell (1988), Michael<br />

Scriven (Donaldson / Scriven (Eds.) 2003), Lee J. Cronbach, Daniel L. Stufflebeam<br />

(Stufflebeam / Madaus / Kellaghan) 2001) Peter F. Rossi (Rossi / Freeman / Lipsey 1999),<br />

Ernest R. House 6 (1999) <strong>und</strong> andere unterstreichen alle die "dienende" Funktion der <strong>Evaluation</strong><br />

(<strong>Evaluation</strong>sforschung als Serviceprozess für den Kernprozess der Systemgestaltung) <strong>und</strong><br />

die Notwendigkeit der paradigmatischen Verwandtschaft zwischen Gestaltungsprojektansatz<br />

<strong>und</strong> <strong>Evaluation</strong>sansatz. Nicht verwandt sind beispielsweise ein schulisches Entwicklungsprojekt,<br />

z.B. der Versuch einer Einbeziehung der Eltern in die pädagogisch-didaktische Arbeit<br />

der Schule <strong>und</strong> ein behördliches Testvorhaben zur Ermittlung der Schülerleistungen. Paradigmatische<br />

Verwandtschaft läge vor, wenn die Behörde das Projekt der Schule durch ein Unterstützungssystem<br />

fördern will <strong>und</strong> den gesamten Entwicklungsverlauf mittels einer begleitenden<br />

<strong>Evaluation</strong> erfassen <strong>und</strong> dokumentieren will.<br />

Was beide dann trotz dieser Projektsympathie im Detail unterscheidet ist die Arbeits- <strong>und</strong><br />

Forschungsmethodik sowie der "Fachdialekt", zumindest so lange bis die Gestaltung der Projekte<br />

– wie es Patton (1998) nennen würde – von der "<strong>Evaluation</strong>skultur" durchdrungen ist,<br />

bis also <strong>Evaluation</strong>sforschungskompetenz ein integraler Bestandteil der Systemgestaltungskompetenz<br />

geworden ist. Erst wenn eine ausreichende <strong>Evaluation</strong>skompetenz im Entwicklungssystem<br />

selbst ausgebildet ist <strong>und</strong> wenn diese in die Planung <strong>und</strong> Gestaltung des Ent-<br />

6 Prof. House, School of Education, University of Colorado, Boulder ist vielleicht der kompetenteste Kenner der<br />

<strong>Evaluation</strong>sforschung im schulischen Bildungssektor weltweit<br />

camz2003evaluation_service.docx Seite 8 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

wicklungsprojektes als integraler Bestandteil verankert ist, kann die fruchtbringende strukturelle<br />

Koppelung zum <strong>Evaluation</strong>ssystem gelingen. Die folgende Abbildung bietet zur schematischen<br />

Einschätzung der <strong>Evaluation</strong>skompetenz <strong>und</strong> der Feldkompetenz auf Seiten des Entwicklungssystems<br />

wie. des <strong>Evaluation</strong>ssystems einen ersten Überblick.<br />

In den USA <strong>und</strong> den angelsächsischen Ländern ist die <strong>Evaluation</strong> von Bildungseinrichtungen<br />

bereits eine zunehmend alltägliche Praxis. Die 'Organisation für wirtschaftliche Zusammenarbeit<br />

<strong>und</strong> Entwicklung', die OECD (Organization for Economic Cooperation and Development)<br />

forciert die weltweite Verbreitung dieser institutionellen Bewertungspraxis. Dem liegt<br />

die Annahme zugr<strong>und</strong>e, dass sich nationale Bildungssysteme ohne Messen <strong>und</strong> Bewerten<br />

nicht verbessern lassen – die Ergebnisse der PISA 2000-Studie bestätigen diese Auffassung<br />

im Großen <strong>und</strong> Ganzen (Baumert, Jürgen (Hrsg.) 2001: PISA 2000), auch wenn es sich hierbei<br />

nicht um eine <strong>Evaluation</strong>sstudie, sondern allenfalls um ein Systemmonitoring im Sinne<br />

"vergleichender Leistungsmessung" (Baumert 2002; BMBWK 2000) handelt, denn es fehlt<br />

das Gestaltungsprojekt.<br />

Abbildung 4: Stufenschema zur Entwicklung struktureller Koppelungsfähigkeit zwischen<br />

<strong>Evaluation</strong>sprofession <strong>und</strong> Entwicklungsfeld<br />

Inzwischen hat sich weltweit eine veritable Profession der EvaluatorInnen <strong>und</strong> der sie empirisch<br />

tragenden <strong>Evaluation</strong>sforschung etabliert. Wobei der Begriff der <strong>Evaluation</strong>sforschung<br />

cum grano salis in vier Wortbedeutungen gebraucht wird – im Sinne einer Methodologie<br />

(Forschung über Forschung), im Sinne einer Methodik (Verfahren <strong>und</strong> Regeln der <strong>Evaluation</strong>sforschung),<br />

im Sinne einer methodisch orientierten Praxis (<strong>Evaluation</strong>sagenturen mit<br />

feldspezifischen Anwendungserfahrungen) <strong>und</strong> schließlich im Sinne der konkreten <strong>Evaluation</strong>sstudien<br />

selbst:<br />

Forschung über <strong>Evaluation</strong> (Methodologie der <strong>Evaluation</strong>, Metaevaluation, z.B. Widmer<br />

1996)<br />

camz2003evaluation_service.docx Seite 9 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Forschungs- <strong>und</strong> Lehrinstitute, die sich auf die Förderung der sozialwissenschaftliche<br />

Methodenkompetenz für <strong>Evaluation</strong>sprozesse konzentrieren (etwa das "Centrum für<br />

<strong>Evaluation</strong> (Ceval)", z.B. Stockmann, <strong>Universität</strong> des Saarlandes)<br />

Inhaltlich spezialisierte Forschungsinstitute bzw. Abteilungen sozialwissenschaftlicher<br />

Forschungseinrichtungen, die <strong>Evaluation</strong>sstudien durchführen (beispielsweise die<br />

"Konzeptstelle <strong>Evaluation</strong>sforschung" des Deutschen Jugendinstituts in München oder<br />

EvaNet der deutschen Hochschulrektorenkonferenz)<br />

Sozialwissenschaftliche Studien zur informativen Gr<strong>und</strong>legung von <strong>Evaluation</strong>en (z.B. zu<br />

Schulentwicklungsprogrammen – Orth 2002, Carle 2002)<br />

Die Verwendung der Begriffe <strong>Evaluation</strong> <strong>und</strong> <strong>Evaluation</strong>sforschung ist äußerst vielfältig<br />

<strong>und</strong> reicht vom Fachgutachten eines Professors (Aufenanger 1998) über die langjährige<br />

Schulbegleitforschung eines wissenschaftlichen Teams (Carle 2002; McEwan 1995) bis hin<br />

zu landesweiten Schulprogramm-<strong>Evaluation</strong>en (Ministerium für Schule, Wissenschaft <strong>und</strong><br />

Forschung NRW 2002). Gut an dieser Beliebigkeit <strong>und</strong> der unscharfen Ausdrucksweise ist im<br />

memetischen Sinne die Offenheit <strong>und</strong> Anschlussfähigkeit für Neues. Die Beliebigkeit <strong>und</strong> begriffliche<br />

Unschärfe zeugt jedoch zugleich von einem geringen Professionalisierungsgrad.<br />

Dafür spricht auch, dass sich die Methodik der <strong>Evaluation</strong>sforschung in nichts von der Methodik<br />

der übrigen Sozialwissenschaften unterscheidet. Zudem handelt es sich bei <strong>Evaluation</strong>sforschung<br />

zumeist nur um den sozialwissenschaftlichen Teil des (informatorischen) <strong>Evaluation</strong>ssystems.<br />

Die Kopplung zwischen Projekt- <strong>und</strong> <strong>Evaluation</strong>skonzept wird in der Regel<br />

noch nicht systematisch betrieben.<br />

Die gängigen <strong>Evaluation</strong>sdefinitionen helfen da auch nicht weiter, da sie sich allesamt auf den<br />

Autoren jeweils nahe liegende Teilaspekte eines umfassenderen, systemischen <strong>Evaluation</strong>sverständnisses<br />

beschränken – hier einige Kostproben mit aufsteigendem Komplexitätsniveau:<br />

<strong>Evaluation</strong> ist jegliche Art der Festsetzung des Wertes einer Sache (Scriven 1980 –<br />

Konzentration auf Effektbestimmung [Merit, Worth, Significance])<br />

<strong>Evaluation</strong>sforschung ist die explizite Verwendung wissenschaftlicher Forschungsmethoden<br />

<strong>und</strong> Forschungstechniken für den Zweck der Durchführung einer Bewertung<br />

(Suchman 1968 – Wertbestimmung plus Sozialforschung)<br />

<strong>Evaluation</strong> ist eine begriffliche (bis hin zur mathematischen) Modellierung in einem<br />

Anwendungsfeld <strong>und</strong> dient dem Vergleich von angestrebter zu prognostizierter Veränderung<br />

(Henninger 2000 – Ergebnisbewertung als Soll-Ist-Vergleich im Sinne der<br />

Kybernetik 1. Ordnung)<br />

<strong>Evaluation</strong> ist die systematische Anwendung sozialwissenschaftlicher Methoden zur<br />

Bewertung der Konzeption, des Designs, der Implementation <strong>und</strong> des Nutzens einer<br />

sozialwissenschaftlichen Interventionsmaßnahme (Rossi / Freeman / Lipsey 1985 –<br />

prozessbegleitende Ergebnisbewertung plus Sozialforschung)<br />

Unterscheidung von "Formativer <strong>Evaluation</strong>", der Bereitstellung von Informationen<br />

<strong>und</strong> Bewertungen vor <strong>und</strong> während der Durchführung der <strong>Evaluation</strong>, um Probleme zu<br />

klären <strong>und</strong> die Gestaltung der Intervention (die evaluiert wird) zu konzipieren, zu<br />

steuern <strong>und</strong> zu optimieren) <strong>und</strong> "Summativer <strong>Evaluation</strong>", der Bewertung der Ausprägung<br />

der intendierten Effekte <strong>und</strong> der Nebenwirkungen einer bereits durchgeführten<br />

Intervention) (Bloom / Hastings / Madaus 1971 – Kennzeichnung der paradigmatischen<br />

Differenz zwischen Ergebnisbewertung <strong>und</strong> Gestaltungsprozessverbesserung)<br />

<strong>Evaluation</strong> ist Planungs- <strong>und</strong> Entscheidungshilfe <strong>und</strong> hat daher etwas mit Bewertung<br />

von Handlungsalternativen zu tun. Sie dient dazu praktische Maßnahmen zu überprüfen,<br />

zu verbessern oder über sie zu entscheiden. Die Vorgehensweise sollten dem ak-<br />

camz2003evaluation_service.docx Seite 10 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

tuellen wissenschaftlichen Stand angepasst sein (Wottawa / Thierau 1986 – prozessbegleitende<br />

<strong>und</strong> prozessverbessernde Ergebnis- <strong>und</strong> Handlungsbewertung plus Sozialforschung)<br />

Was für die Vielfalt der Definitionen <strong>und</strong> Verwendungskontexte galt, gilt auch für die professionell<br />

klingenden Adjektive zur <strong>Evaluation</strong>sforschung, wie "Partizipative <strong>Evaluation</strong>" (Henninger)<br />

oder "Experimentierende <strong>Evaluation</strong>" (Heiner, Scherrer) oder andere. Sie spiegeln nur<br />

Aspekte (Ebenen, Methoden, Verwendungskontexte…) des bis hier ausformulierten, umfassenden<br />

<strong>Evaluation</strong>ssystem-Begriffs. In einem Umfeld, wie dem deutschen, in dem sich <strong>Evaluation</strong><br />

als Profession <strong>und</strong> Systemgestaltungsmedium erst zu etablieren beginnt, tragen solcher<br />

Art "Spezifikationen" zwar auch zur weiteren Verwirrung über Sinn, Zweck <strong>und</strong> Vorgehen<br />

guter <strong>Evaluation</strong> bei. Andererseits helfen sie Brücken bauen zwischen ehemaligen <strong>Evaluation</strong>sopfern<br />

<strong>und</strong> angehenden <strong>Evaluation</strong>snutzern bzw. zwischen vormaligen Gutachtern <strong>und</strong><br />

zukünftigen <strong>Evaluation</strong>sdienstleistern.<br />

Doch nicht genug der Vieldeutigkeit von <strong>Evaluation</strong> <strong>und</strong> <strong>Evaluation</strong>sforschung. Mindestens<br />

fünfzig Prozent der Wortverwendungen verweisen auf begriffliche Verwandtschaften<br />

mit: Leistungsbewertung, Erfolgskontrolle, Effizienzforschung, Begleit- oder Bewertungsforschung,<br />

Wirkungskontrolle, Qualitätskontrolle oder Controlling. Wer die technische Präzision<br />

liebt, wird sich grausen, wer mehr der sozialen Quirligkeit zugetan ist, wird sich über das verbale<br />

Interesse am zukunftsweisenden Praxisfeld freuen. Wer kompetente <strong>Evaluation</strong>spartner<br />

sucht, kann an der (mangelnden) Begriffsklarheit den Professionalisierungsgrad ablesen. Allen<br />

zum Trost: Das Professionsfeld <strong>Evaluation</strong> ist in Deutschland <strong>und</strong> in der Welt in einer<br />

stürmischen Entwicklung begriffen <strong>und</strong> wird sich in den nächsten zehn Jahren noch einmal<br />

sprunghaft verändern.<br />

Zum Schluss der allgemeinen Entwicklungsdarstellung sollen weitere Entwicklungen der<br />

<strong>Evaluation</strong>sforschung an einem der amerikanischen <strong>Evaluation</strong>sväter, prominenten Bildungsevaluatoren,<br />

weltweit tätigen Gutachter <strong>und</strong> zugleich zutiefst unkonventionellen <strong>Evaluation</strong>s-<br />

"Philosphen" fest gemacht werden, an Prof. Ernest R. House von der School of Education an<br />

der University of Colorado in Boulder. Unter allen <strong>Evaluation</strong>sforscherInnen hat sich vor allem<br />

Ernest R. House mit der Frage der "kulturellen Koppelung" zwischen Gestaltungs- <strong>und</strong><br />

<strong>Evaluation</strong>ssystem befasst.<br />

So machten er <strong>und</strong> sein Kollege Prof. McQuillan in den meisten schulbezogenen Reformstudien<br />

der vergangenen Dekaden drei erkenntnisleitende Perspektiven aus: Eine technischorganisatorische,<br />

eine politisch-wirtschaftliche <strong>und</strong> eine sozial-kulturelle – aber nie alle drei<br />

zusammen. Jede dieser Sichtweisen konzentriert sich dabei auf relevante Faktoren schulischen<br />

Wandels <strong>und</strong> vernachlässigt die anderen. House' <strong>und</strong> McQuillan's Schlussfolgerung: "Schulreformen<br />

scheitern z.T. deshalb, weil sie wichtige Faktoren übersehen oder ihnen zu wenig Beachtung<br />

schenken" (House / McQuillan 1998, 199; Übers. Durch d.V.). Aus den drei Perspektiven<br />

auf schulischen Wandel lassen sich drei Leitfragen ableiten:<br />

Die technisch-organisatorische Leitfrage:<br />

Worin besteht die Aufgabe <strong>und</strong> wie wird sie erfüllt?<br />

Die wirtschaftlich-politische Leitfrage:<br />

Welche Fraktionen unterstützen diese Aufgabe <strong>und</strong> welche sind dagegen?<br />

Die human-kulturelle Leitfrage:<br />

Vereinigt die Aufgabe die Menschen zu gemeinsamen, kooperativen<br />

Anstrengungen?<br />

Die drei reformrelevanten Handlungsperspektiven von House / McQuillan entsprechen weitgehend<br />

den Luhmannschen Einflussfaktoren auf Organisationsverhalten (siehe Carle 2000,<br />

camz2003evaluation_service.docx Seite 11 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

347). Sie können daher als allgemeine (unspezifische) Einflussmedien für den institutionellen<br />

(schulischen) Wandel betrachtet werden 7 .<br />

Es ist ein offenes Geheimnis, dass Schul- wie Organisationsreformen überwiegend nicht<br />

gelingen. House <strong>und</strong> McQuillan behaupten deshalb die Notwendigkeit einer Integration dieser<br />

drei Sichtweisen beim Studium <strong>und</strong> der Gestaltung institutionellen Wandels (ähnlich Fend<br />

1998, 353 oder Ropohl 1999, 43f). Vom konkreten Schularbeitsplatz bis zum übergeordneten<br />

gesellschaftlichen Engagement einer Organisation finden sich nie rein disziplinäre Problemstellungen,<br />

rein menschlich-soziale, rein ökonomische oder rein politische Aufgaben. Andererseits<br />

entstammen in der praktischen Reformarbeit Vorgehen <strong>und</strong> Werkzeuge zur Analyse<br />

<strong>und</strong> Behandlung konkreter Probleme meistens den Repertoires spezialisierter Reformschulen<br />

<strong>und</strong> Fachdisziplinen. Natürlich garantiert die bewusste Gestaltung dieser drei Einflussmedien<br />

für Schulreformen allein keineswegs den gewünschten Erfolg. Jedoch glauben House <strong>und</strong><br />

McQuillan, dass diese eine notwendige Bedingung für Reformerfolg bildet <strong>und</strong> dass Schulreformen,<br />

die diese drei Dimensionen <strong>und</strong> die entsprechenden Interaktionen in Betracht ziehen,<br />

erheblich mehr Probleme in den Blick <strong>und</strong> damit 'in den Griff' bekommen 8 .<br />

2 <strong>Evaluation</strong>sforschung im schulischen Bereich<br />

Angelsächsisches Effizienzdenken hat früh einen Berufszweig entstehen lassen, von dem viele<br />

– auch PädagogInnen - in Deutschland nicht einmal wissen, dass es ihn gibt: <strong>Evaluation</strong>sforscherInnen.<br />

Die <strong>Evaluation</strong>sforschung ist ein Teil der angewandten Sozialforschung, so<br />

wie Meinungsforschung, Marketingforschung, Politikforschung etc. In den USA umfasst der<br />

Berufsverband der <strong>Evaluation</strong>sforscher, die »American <strong>Evaluation</strong> Association (AEA) zwischen<br />

2000 <strong>und</strong> 3000 Mitglieder (Widmer 1996, 11; Mertens 2000). Der Begriff "<strong>Evaluation</strong>"<br />

ist im Amerikanischen ein Allerweltsbegriff <strong>und</strong> heißt so viel wie Auswertung, Bewertung,<br />

Beurteilung. Schülerleistungen werden "evaluated" (Bloom / Hastings / Madaus 1971), Autos<br />

auch <strong>und</strong> staatliche Programme, wie etwa eines zur HIV-Prävention (The Measurement<br />

Group 1998). Vor allem letztere Funktion im Rahmen der Entdeckung des Prozessnutzens in<br />

sozialen Veränderungsprojekten verhalf dem Begriff zu wissenschaftlicher Aufmerksamkeit<br />

<strong>und</strong> methodischer Aufwertung. Nach dem zweiten Weltkrieg wurden in den USA zahlreiche<br />

Schul- <strong>und</strong> Immigrationsprogramme, später auch Wiederaufbau- <strong>und</strong> Entwicklungshilfeprogramme<br />

einer abschließenden Wirkungskontrolle, einer <strong>Evaluation</strong> unterzogen (Liebermann<br />

1998, 13ff; Übersicht bei Carsten Meyer 1996).<br />

Was kann <strong>Evaluation</strong> für Schulreformen oder zumindest für einzelne Schulentwicklungsprojekte<br />

leisten? Das Konzept der <strong>Evaluation</strong>sforschung ist ergebnisorientiert <strong>und</strong> stammt<br />

konzeptionell aus den Zeiten der frühen Kybernetik der fünfziger Jahre. Danach liefert der<br />

<strong>Evaluation</strong>sprozess als Sek<strong>und</strong>ärprozess die notwendige Rückmeldung an den "Regler" über<br />

das Ergebnis seiner Intervention in die "Regelstrecke". Dies ist sinnvoll für solche Prozesse,<br />

deren Ergebnis nicht unmittelbar sichtbar ist, wie es ja allen komplexen sozialen Prozessen<br />

zueignet. Dieser rational-empirische Ansatz war kennzeichnend für eine Gruppe der Wegbereiter<br />

systemischer Forschungs-, Entwicklungs- <strong>und</strong> Gestaltungsansätze, wie den auf Kurt<br />

LEWIN zurückgehenden Disziplinen des "Planned Change" (heute: Change Management) <strong>und</strong><br />

der Gruppendynamik (heute: Organisationsentwicklung - Liebermann 1998, 18).<br />

7 Bei Giddens lauten die dazu korrespondierenden drei Strukturdimensionen "Legitimation" (zu Fachautorität),<br />

"Herrschaft" (zu Macht) <strong>und</strong> "Sinn" (zu Führung); im pragmatisch-systemischen Ansatz von Morgan heißen<br />

die drei Subsysteme: "technisches", "strukturelles" (für Macht) <strong>und</strong> "menschlich-kulturelles" Subsystem (ebd.<br />

1997, 64)<br />

8 Eine eingehendere Diskussion der House / McGillan-Bef<strong>und</strong>e einschließlich einer entsprechenden Checkliste<br />

findet sich bei Carle 2000, 345-351<br />

camz2003evaluation_service.docx Seite 12 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Insofern unterschied sich der <strong>Evaluation</strong>sansatz bereits wohltuend von dem Ansatz des<br />

"Großen Befähigungsnachweises" wie er handwerklichen Forschern <strong>und</strong> Designern qua Ausgangsqualifikation<br />

oder Amt zukommt, indem <strong>Evaluation</strong> die systemische Eigensinnigkeit<br />

<strong>und</strong> Zufälligkeit antizipiert <strong>und</strong> die tatsächliche Wirkung nachträglich überprüft. Er unterschied<br />

sich aber auch in seiner Intention vom alten selektiven Bewertungsansatz: Evaluierung<br />

dient den Schülern als Rückmeldung für die Weiterverfolgung ihres individuellen Entwicklungsprozesses<br />

<strong>und</strong> Evaluierung dient auf der nächst höheren Systemebene den LehrerInnen,<br />

den Schulen <strong>und</strong> allen LehrgestalterInnen gemeinsam zur informativen Gr<strong>und</strong>legung ihres<br />

Entwicklungsprozesses (Bloom / Hastings / Madaus 1971, 6 ff).<br />

<strong>Evaluation</strong> beeinflusst den Wandlungsprozess, so wie schulische Leistungsbeurteilung<br />

auf den Lernprozess wirkt. <strong>Evaluation</strong> kann denen nutzen, die den (Um-) Gestaltungsprozess<br />

betreiben, <strong>Evaluation</strong> kann ihnen aber auch schaden: "Die Schattenseite dieses Vorgehens<br />

zeigt sich dann, wenn die Einsätze zu hoch <strong>und</strong> Leistungsindikatoren zu eng gefasst sind.<br />

Dann wird der <strong>Evaluation</strong>sprozess schnell Gegenstand von Korruption <strong>und</strong> kann einen korrumpierenden<br />

Einfluss auf die wenigen Interventionen haben, auf deren Messung <strong>und</strong> Verbesserung<br />

er ursprünglich zugeschnitten war." So Michael Quinn Patton, , amerikanischer <strong>Evaluation</strong>sexperte,<br />

ehemaliger Präsident der »American <strong>Evaluation</strong> Society«, Hochschullehrer <strong>und</strong><br />

Vertreter einer "nutzenorientierten <strong>Evaluation</strong>" (Patton 1998, 65; Heiner 1998, 302).<br />

<strong>Evaluation</strong> ist notwendig parteiisch <strong>und</strong> scheidet dadurch die Geister. Prof. Maja Heiner<br />

begegnet diesem Dilemma gr<strong>und</strong>sätzlich, indem sie eine "experimentierende <strong>Evaluation</strong>" definiert,<br />

die Praxisentwicklung mit Praxisforschung verknüpft, die <strong>Evaluation</strong>sstudien partizipativ<br />

<strong>und</strong> unterstützend ausrichtet <strong>und</strong> die Prozessbeteiligten zur Selbstevaluation befähigt<br />

(Heiner 1998, 25 ff). Damit kehrt sie zwar zum Forschungsethos der frühen pädagogischen<br />

Evaluatoren zurück (Bloom / Hastings / Madaus 1971, 5-18) <strong>und</strong> unterstreicht nochmals den<br />

Nutzen der <strong>Evaluation</strong> für individuelles <strong>und</strong> organisationales Lernen, übersieht dabei aber die<br />

Flurschäden, die durch den administrativen <strong>Evaluation</strong>swildwuchs in den weltweiten Schulreformen<br />

angerichtet wurden. Für Heiners bzw. Patton's partizipative <strong>und</strong> unterstützende <strong>Evaluation</strong><br />

müssten erst einmal bei den schulischen Reformbeteiligten massive Vorurteile abgebaut<br />

<strong>und</strong> aktives Interesse aufgebaut werden. Dass dies gelingen kann, beweisen zahlreiche geglückte<br />

Beispiele (siehe Müller-Kohlenberg <strong>und</strong> andere Beiträge in Heiner 1998).<br />

2.1 Unterstützungssystem für die Schulen statt nur Remote Control<br />

durch die Behörden<br />

Die staatliche Leistungskontrolle hat sich in vielen Ländern wegentwickelt von der persönlichen<br />

Beaufsichtigung der einzelnen Lehrpersonen durch ausgewählte LehrerInnen über die<br />

organisationale Bewertung (Evaluierung) der Schulen durch kommunale <strong>und</strong> regionale Behörden<br />

(Skandinavien, Portugal) bis hin zu standardisierten Klassentests (Frankreich) <strong>und</strong><br />

Schulabschnittstests (Großbritannien, Irland <strong>und</strong> Italien). Das französische <strong>Evaluation</strong>smodell,<br />

das in ersten bürokratischen Ansätzen eine Art Selbstevaluation der Schulen ermöglichen<br />

sollte, findet in der Lehrerschaft nicht den erhofften Anklang (Flitner 1999): "Der Begriff von<br />

»Effizienz« einer Schule, der sich rein am »out-put«, gemessen als Abiturerfolg, orientiert,<br />

führt erwartbar zu groben Fehlurteilen." Und hat damit nicht die geringste Chance von den<br />

LehrerInnen als "ultimate key to educational change and school improvement" (Hargreaves /<br />

Fullan 1993, IX), als interessierende Einflussgröße angenommen zu werden. Das impliziert<br />

also, eine <strong>Evaluation</strong> der <strong>Evaluation</strong>, eine neue <strong>Evaluation</strong>skultur zu fordern (Flitner 1999),<br />

wenn schulische Entwicklung allgemeinverbindliche Maßstäbe zur Fortschrittsbeobachtung<br />

braucht.<br />

Ein besonders interessantes Beispiel hierfür stellt das europäische Land mit der ältesten<br />

Lehrergewerkschaft der Welt dar, Schottland (dies <strong>und</strong> im weiteren aus Döbrich 1999). Im<br />

camz2003evaluation_service.docx Seite 13 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Gegensatz zu England <strong>und</strong> Wales findet sich in Schottland keine Politik des "naming and<br />

shaming", bei der in öffentlichen Ranglisten die besten <strong>und</strong> schlechtesten Schulen sich anhand<br />

von simplen Zahlenwerten (Rankings) verglichen <strong>und</strong> an den Pranger gestellt sehen. Das<br />

schottische Bewertungsverfahren wird von allen Verantwortlichen <strong>und</strong> Beteiligten zur k<strong>und</strong>enorientierten<br />

Selbstentwicklung der Schulen genutzt. Im Rahmen der Autonomisierung der<br />

Schulen erfahren nun auch die Eltern, welche Schlussfolgerungen ihre Schulen aus der<br />

Selbstevaluation gezogen haben <strong>und</strong> wie erfolgreich sie dies tun. Amtliche Inspektionen orientieren<br />

sich ebenfalls an gemeinsamen <strong>Evaluation</strong>sindikatoren <strong>und</strong> bieten so der Schule ein<br />

zusätzliches Feedback über die Allgemeingültigkeit ihrer Selbstbeurteilung. Sogar aus den für<br />

ganz Schottland verbindlichen Abschlussprüfungen der Sek<strong>und</strong>arschule werden eher Unterstützungsbemühungen<br />

für benachteiligte Schulen abgeleitet als Budgetabschläge wie beispielsweise<br />

in England (Bogner / Boscher 1999). Der Fall Schottland macht deutlich, dass es<br />

weniger die <strong>Evaluation</strong>smethodik ist, die die Akzeptanz <strong>und</strong> entwicklungsförderliche Nutzung<br />

von Schulevaluation bestimmt, sondern eher die <strong>Evaluation</strong>sstrategie, wie sie sich in einem<br />

Schulsystem entwickelt hat. Der Nutzen des Informationsgewinnungsmittels <strong>Evaluation</strong> folgt<br />

seinem funktionalen Kontext.<br />

Dies bestätigt das Beispiel Norwegen, das nach Meinung von Per Dalin, einem weltweit<br />

renommierten norwegischen Schulentwicklungsforscher <strong>und</strong> Seniorconsultant des norwegischen<br />

Büros der »The International Learning Cooperative« wohl über die prof<strong>und</strong>este Erfahrung<br />

mit Schulevaluation verfügt. Er fasst die dortige Erfahrung so zusammen. "Es ist auch<br />

klar, dass es ohne eine kompetente <strong>und</strong> engagierte Schulleitung unwahrscheinlich ist, dass ein<br />

<strong>Evaluation</strong>sprozess überhaupt beginnt, geschweige denn erfolgreich wird. Viele Schulen haben<br />

nicht durch <strong>Evaluation</strong> gewonnen <strong>und</strong> einer der Hauptgründe ist, dass sie nicht wussten,<br />

was zu tun war <strong>und</strong> nicht durch eine professionell arbeitende Schulleitung geführt wurden"<br />

(Dalin 1995, 17). Also befindet sich die <strong>Evaluation</strong>sreform im diesbezüglich erfahrensten<br />

Land der Welt noch auf der Vergangenheitsskala 6, »Neue Instrumente« von Miles.<br />

Was läuft so falsch mit der Anwendung des unbezweifelbar nutzbringenden Reformwerkzeugs<br />

<strong>Evaluation</strong>? Kontraste helfen sehen. Deshalb fällt es Lander <strong>und</strong> Ekholm aus dem ehemals<br />

sehr zentralistischen Schweden vielleicht auch leichter, die Fehlnutzung von schulischen<br />

Reformevaluationen im Sinne einer 'Evalukratie' zu erkennen (1998, 119 ff):<br />

Wer das Hauptgewicht auf zielorientierte Rechenschaftspflicht legt, vernachlässigt<br />

automatisch professionelles Engagement <strong>und</strong> Selbstverantwortung<br />

Bildungspolitik <strong>und</strong> Schulverwaltung handhaben sozialwissenschaftliche Evaluierung<br />

eher als ein Werkzeug zur Informations- <strong>und</strong> Einflussgewinnung gegenüber der Schule<br />

denn als Medium eigener Verbesserungen<br />

Schulen mit starker Reformtradition nutzen die sozialwissenschaftlichen Evaluierungsdaten<br />

weniger zur Selbsteinschätzung als zur Selbstentwicklung; die meisten Schulen sind hierzu<br />

aber noch nicht in der Lage <strong>und</strong> empfinden <strong>Evaluation</strong> als bloße Belastung<br />

Für eine kompetente Nutzung von <strong>Evaluation</strong>sinstrumenten zur Unterstützung des professionellen<br />

Engagements der LehrerInnen, zur Förderung des schulischen Verbesserungsprozesses<br />

<strong>und</strong> zur F<strong>und</strong>ierung der Selbstentwicklung finden Lander <strong>und</strong> Ekholm insgesamt nur wenige<br />

Beispiele, wenn sie auch eine steigende Nutzung beobachten. Diese sehen sie aber extrem<br />

bedroht (ebd., 1132): "<strong>Evaluation</strong> <strong>und</strong> ihr bescheidener Beitrag zur Reform von Schulen<br />

kann durchaus im Kleinkrieg zwischen der sozialen Kunst des Lehrens <strong>und</strong> dem technischen<br />

Management der Schulverwaltung verloren gehen. Falls <strong>Evaluation</strong> als administratives Werkzeug<br />

dabei die Oberhand gewinnt, ist es wahrscheinlich, dass sich Lehrerinnen <strong>und</strong> Lehrer<br />

von der gesamten Idee von <strong>Evaluation</strong> als Verbesserung verabschieden."<br />

Per Dalin begleitet seit über dreißig Jahren Schulen auf ihrem Reformweg. 1971 formulierte<br />

er als Ausdruck seiner ersten Erfahrungen mit fehlgeschlagenen Schulreformversuchen<br />

camz2003evaluation_service.docx Seite 14 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

einen zynischen Slogan: "Innovatoren haben alles zu gewinnen <strong>und</strong> nichts zu verlieren, während<br />

Konservative alles zu verlieren <strong>und</strong> nichts zu gewinnen haben" (Dalin 1998, 1059 -<br />

Übers. durch d.V.). Seit damals hat DALIN Schulprojekte in der ganzen Welt beobachtet <strong>und</strong><br />

beraten. Sein Ergebnis: mehr Fragen als Antworten. "Warum z.B. kann ein Lehrer mit mehr<br />

als 70 Kindern in der Klasse, mitten im Dschungel von Sri Lanka, einen w<strong>und</strong>erbaren Projektunterricht<br />

durchführen, mit authentischen Lernmöglichkeiten für seine Kinder <strong>und</strong> dies<br />

ohne eine externe Unterstützung mit nur einem Minimum an vorhandenen Materialien?"<br />

(ebd.). Warum, fragt er weiter, funktioniert in Indonesien die schulische Autonomie auf Anhieb<br />

<strong>und</strong> warum gelingt es den deutschen Behörden im Unterschied dazu kaum, mehr Autonomie<br />

an die Schulen zu übertragen? Warum gelingt es den norwegischen Schulbehörden<br />

nicht, obwohl sie wahrscheinlich die "teuersten" Schüler der Welt fördern, eine drastische<br />

Vereinfachung des Sek<strong>und</strong>arstufenunterrichts auf schulischer Ebene durchzusetzen?<br />

Reformprojekte brauchen zwar <strong>Evaluation</strong> aber darüber hinaus noch sehr viel mehr. So<br />

ist denn Dalin's Liste der Reform- <strong>und</strong> <strong>Evaluation</strong>senttäuschungen lang, länger allerdings geraten<br />

seine Empfehlungen zur erfolgversprechenden Durchführung von Schulreformprojekten<br />

- <strong>Evaluation</strong> taucht dabei nur noch in einem Nebensatz auf:<br />

Knüpfe jedes auch noch so wertvolle Projekt an die realen Bedürfnisse der Beteiligten<br />

an.<br />

Nehme die Bedenken aller Beteiligten ernst: Probleme sind unsere besten Verbündeten.<br />

Beteilige die Basis, die SchülerInnen <strong>und</strong> ihre Lebenswelt <strong>und</strong> gebe allen ausreichend<br />

Zeit, Raum <strong>und</strong> Gelegenheit für ihre Beiträge.<br />

Behalte einen langen Atem <strong>und</strong> beginne erst einmal nur mit den interessierten Personen,<br />

Gruppen, Schulen...<br />

Stütze die Projekte auf solider Finanzierung <strong>und</strong> erfolgssicherndem Projektmanagement<br />

mit weiter Perspektive <strong>und</strong> kurzer Ausführungskontrolle<br />

(<strong>Evaluation</strong>).<br />

Sichere den Veränderungsprozess gegen Überforderung, Stress <strong>und</strong> unzureichende<br />

Ressourcen - stelle ausreichende Expertise bereit, für alle Projektebenen.<br />

Gestalte die Projektorganisation mit Blick auf die Zukunft, nicht mit Führungskonzepten<br />

der Vergangenheit: Zugang zu allem relevanten Wissen; flache demokratische Organisation;<br />

Zusammenarbeit aller mit allen; Förderung von Respekt <strong>und</strong> Toleranz;<br />

Übergewicht weiblicher Werte gegenüber männlichen (Dalin 1998, 1068ff) 9 .<br />

Diese Projektierungsregeln gelten nach Dalin's Meinung weltweit, stützen sie sich doch auch<br />

auf weltweite Reformerfahrungen. Sie fokussieren insgesamt mehr auf die Art <strong>und</strong> Weise der<br />

Veränderung als auf ihre Inhalte bzw. Ziele. Wer ist durch Dalin's norwegisches Du angesprochen?<br />

In der augenblicklichen Situation erst einmal die Projektverantwortlichen.<br />

Wo aber sitzen diese konkret? Systemverantwortung ist auf keinen Fall über administrative<br />

<strong>Evaluation</strong>sinstrumente delegierbar, weder als Submission an die Evaluatoren, noch als<br />

Vollzugsanweisung an die Evaluierten. Der Begriff von 'Effizienz' einer Schule, der sich rein<br />

am »out-put«, gemessen mit standardisierten Abschlussarbeiten, <strong>und</strong> am 'In-put', gemessen an<br />

den Ausgaben pro "produzierter" SchülerIn, orientiert, führt nicht nur zu groben Fehlurteilen.<br />

Solche neoliberalen Wertmaßstäbe haben nicht die geringste Chance, von den LehrerInnen als<br />

motivierende Einflussgröße angenommen zu werden. Das heißt also, eine <strong>Evaluation</strong> der <strong>Evaluation</strong>,<br />

eine neue <strong>Evaluation</strong>skultur ist zu fordern, vorausgesetzt, schulische Entwicklung<br />

9 auch zur Geschlechterfrage in Schulentwicklungsprozessen: Dalin 1998, 1071; vertiefend hierzu: Fischer / Jakobi<br />

/ Koch-Priewe 1996<br />

camz2003evaluation_service.docx Seite 15 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

braucht allgemeinverbindliche Maßstäbe zur Fortschrittsbeobachtung. Dies stellt sich aber<br />

erst im Verlaufe des Reformprozesses heraus <strong>und</strong> bildet als administrative Vorgabe erst einmal<br />

nur einen Reformhemmschuh. Dem widersprechen auch die innovativen <strong>und</strong> wohleingeführten<br />

<strong>Evaluation</strong>sbeispiele nicht. In ihnen hat <strong>Evaluation</strong> eine Servicefunktion für den<br />

selbstgesteuerten Reformprozess <strong>und</strong> keine Lenkungsfunktion.<br />

2.2 Konsequenzen für die wissenschaftliche Begleitung von Schulversuchen<br />

Was ergibt sich daraus an Konsequenzen für die wissenschaftliche Begleitung (sensu evaluative<br />

Unterstützung) künftiger Schulentwicklungsprozesse? Eine wissenschaftliche Begleitung<br />

von komplexen Entwicklungen sollte die Intentionen des Projekts stützen, um nicht zusätzlich<br />

zu den bereits vorhandenen Anforderungen neue Belastungen zu erzeugen. Die erforderliche<br />

zielgerichtete, planvolle Entwicklungsarbeit an den Schulen, deren Dokumentation <strong>und</strong> <strong>Evaluation</strong><br />

sowie die Aufbereitung der entwickelten Produkte können zugleich der Reflexion wie<br />

der Auswertung des Modellversuchs dienen. Eine klare Struktur des Begleitungsprozesses,<br />

d.h. des Ablaufs, der Kooperationen, der Arbeitsteilung <strong>und</strong> der Ressourcen, ist die Voraussetzung<br />

für seine Handhabbarkeit. Entsprechende personelle Ressourcen müssen sowohl für<br />

die zusätzliche Arbeit der schulischen Akteure, für die Unterstützung des Schulentwicklungsprozesses<br />

durch ziel- <strong>und</strong> methodenbezogene Beratung <strong>und</strong> Fortbildung als auch für die wissenschaftliche<br />

Erhebung eingeplant werden.<br />

Da nun bereits aus mehreren Modellversuchen zur Neustrukturierung des Schulanfangs<br />

Ergebnisse vorliegen, sollte in künftigen Modellversuchen vor allem auf die Verbreitung der<br />

Entwicklungen aus den Schulen Wert gelegt werden. Dass einzelne Schulen den Anforderungen<br />

eines solchen Modellversuchs prinzipiell genügen können, ist bekannt, es fehlt jedoch<br />

auch international an Strategien, die Ergebnisse der innovativen Schulen breit gestreut weiteren<br />

Schulen für deren Entwicklung dienstbar zu machen (Hargreaves 1998; Carle 2002, 2001,<br />

2000).<br />

Die wissenschaftliche Begleitung eines schulübergreifenden, kooperativen Entwicklungsprozesses<br />

kann nicht in Form einer quasi-experimentellen Vorher-Nachher-Untersuchung erfolgen,<br />

wie sie noch Campbell vor r<strong>und</strong> dreißig Jahren erträumte (1988, 147 ff). Auch Vergleiche<br />

mit modellversuchsfremden Kontrollklassen versprechen in der derzeitigen Situation<br />

des State of the Art keine verwertbaren Erkenntnisse. Hochkomplexe, individuelle <strong>und</strong> institutionelle<br />

Entwicklungsarbeit von Schulen erlaubt keine Vergleiche mit unbeteiligten, lediglich<br />

stichprobencharakteristisch parallelisierten Schulen oder Schulklassen (etwa bei Nauck<br />

1999a+b).<br />

Während der Schulversuchszeit sollte die wissenschaftliche Begleitung statt dessen auf<br />

prozessfördernde Unterstützung der angestrebten Entwicklungen in den Schulen sowie auf die<br />

Systematisierung ihrer Ergebnisse im Sinne eines verallgemeinerbaren nachvollziehbaren<br />

Schulentwicklungsprozesses zielen (Argyris / Schön 1996). Dies schließt eine möglichst<br />

reichhaltige Dokumentation der Reflexions- <strong>und</strong> Entwicklungsprozesse ein, anhand derer<br />

dann eine abschließende <strong>Evaluation</strong> mit hoher interner <strong>und</strong> externer Validität erfolgen kann.<br />

Die Erprobung der Entwicklungen der einzelnen Schulen muss Bestandteil des Gesamtprojekts<br />

sein.<br />

Die wissenschaftliche Begleitung muss somit als prozessbegleitende <strong>und</strong> unterstützende<br />

(formative) <strong>Evaluation</strong> erfolgen. Ausgehend von einem Naturalistic Approach (Guba / Lincoln<br />

1989) darf angenommen werden, dass zielgerichtetes (Alltags-)Handeln immer auch bewertet,<br />

folglich evaluative Elemente jedem schulischen Entwicklungsprozess inhärent sind.<br />

Sie sind jedoch nur teilweise bewusstseinsfähig. Unterrichtliches Handeln ist stark routinisiert.<br />

Nur so ist es der Komplexität der Aufgaben angemessen. Viele schulische Handlungssi-<br />

camz2003evaluation_service.docx Seite 16 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

tuationen sind extrem komplex, handlungssteuernde Signale kaum einer Beschreibung zugänglich<br />

(Carle 1995, 42ff.; Hacker 1986, 347). So klagen Gr<strong>und</strong>schullehrerInnen <strong>und</strong> -lehrer,<br />

dass sie förderungsrelevante Signale der Kinder über ihren Lernprozess während des Unterrichts<br />

nicht erkennen, wohingegen prozessdiagnostisch geschulte routinierte Sonderpädagoginnen<br />

<strong>und</strong> -pädagogen ihr unterrichtliches Handeln in bedeutsamem Umfang auf solche Signale<br />

stützen, ohne diese wiederum unabhängig von der aktuellen Handlungssituation allgemeinverständlich<br />

beschreiben zu können. Es bedarf daher eines Systems, welches die Bewusstmachung<br />

des Handels im schulischen Entwicklungsprozess unterstützt nicht aber die<br />

notwendigen Routinen dadurch zu stark einschränkt (Argyris / Schön 1996).<br />

Bleiben weite Teile des Entwicklungsprozesses im Modellversuch unbewusst, so fallen in<br />

den Prozessprotokollen Beschreibungen typischer Probleme <strong>und</strong> der Erfahrungen bei ihrer<br />

Bewältigung dürftig aus <strong>und</strong> sind kaum bewertbar <strong>und</strong> nachvollziehbar. Dies verleitet dazu,<br />

Indikatoren für die Qualität schulischer Arbeit extern zu definieren, diese mit Hilfe von Tests<br />

<strong>und</strong> anderen Verfahren in den Schulen zu identifizieren <strong>und</strong> zu quantifizieren, folglich auf die<br />

<strong>Evaluation</strong> des Prozesses selbst aus der Innenperspektive weitgehend zu verzichten.<br />

In den beschriebenen Schulversuchen gleicht der Entwicklungsprozess jedoch einem kontinuierlichen<br />

Verbesserungsprozess, der zwischen aktuellen Engpässen <strong>und</strong> dem Zielmodell<br />

einer erneuerten Schuleingangsphase hin- <strong>und</strong> herpendelt. Es ist zwar nicht möglich, in einem<br />

so komplexen Veränderungsprozess wie der Entwicklung einer neuen Schuleingangsphase,<br />

alle diese Pendelbewegungen (Problembewältigungen / Weiterentwicklung der Zielmodelle)<br />

bewusst zu machen <strong>und</strong> zu protokollieren. Modelle von komplexen Entwicklungsprozessen -<br />

nichts anderes sind die Prozessdokumentationen der Schulversuche - haben immer noch den<br />

Nachteil der unvollständigen Widerspiegelung des Realen, jedoch sind sie weitaus reichhaltiger<br />

als indikatorbezogene <strong>Evaluation</strong>en. Vor allem: Ihre Ergebnisse können aufgearbeitet <strong>und</strong><br />

interessierten anderen Schulen verfügbar <strong>und</strong> nutzbar gemacht werden.<br />

Kann das Problem der kaum bewältigbaren Überlastung der Schulen durch eine umfassende<br />

Prozessprotokollierung mithilfe eines arbeitsteiligen Verfahrens zwischen den Schulen<br />

gelöst werden? Für eine solche Vorgehensweise gibt es bislang kein in Schulversuchen erprobtes<br />

Modell. Sie hätte jedoch den Vorteil, dass die Schulen durch die Arbeitsteilung hinsichtlich<br />

der speziellen Entwicklungen detailreichere <strong>und</strong> reflektiertere Erfahrungsprotokolle<br />

<strong>und</strong> Hilfestellungen ausarbeiten könnten. Der Entwicklungsprozess wäre dann gekennzeichnet<br />

durch eine vorübergehende Fokussierung auf Teilaufgaben <strong>und</strong> eine gemeinsame Reintegration<br />

der Teilprodukte. Das Konzept der wissenschaftlichen Begleitung sollte eine Antwort auf<br />

die Frage liefern, wie in einem arbeitsteiligen Verfahren die Schulen jene Teilbereiche des<br />

Gesamtvorhabens vertieft erarbeiten können, in denen sie ihre Stärke sehen, ohne dass die<br />

Einzelschule das Gesamtkonzept aus dem Auge verliert. Die arbeitsteiligen Prozessevaluationen<br />

müssen dann später in einer abschließenden Auswertung zusammengefügt werden.<br />

Ist das Ziel, die in den Schulversuchen entwickelten Arbeitsmittel, Vorgehensweisen,<br />

Prozessmodelle <strong>und</strong> Entwicklungsstrategien anderen Schulen als Hilfen für deren eigene<br />

Entwicklung zur Verfügung zu stellen, dann ist zu beachten, dass hierfür im Projekt eine nutzerfre<strong>und</strong>liche<br />

Überarbeitung stattfinden muss. Im Alltag entwickelte Arbeitsmittel sind aber<br />

durch ihre Nähe zum Schöpfer <strong>und</strong> ihre Ferne zum fremden Nutzer gekennzeichnet. Ohne<br />

Überarbeitung taugen sie oft nicht einmal dazu, in einem zweiten Projektdurchlauf an der<br />

gleichen Schule wieder benutzt zu werden. Es ist daher erforderlich, die Produkte der Schulen<br />

den anderen zur Verfügung zu stellen <strong>und</strong> sie dabei gemeinsam laufend zu verbessern. Hierfür<br />

wäre das Vorgehen in arbeitsteiligen Schwerpunkten ideal.<br />

Darüber hinaus ist zu erwarten, dass Schulen außerhalb eines Modellversuchs sich die<br />

Teilprodukte zu Eigen machen. Sind diese doch auch zur Verbesserung des Unterrichts in Regelschulen<br />

geeignet. Dem Modellversuch liegen Prinzipien zugr<strong>und</strong>e - wie das der inneren<br />

Differenzierung -, die nicht nur in einer flexiblen Schuleingangsphase zum Tragen kommen.<br />

camz2003evaluation_service.docx Seite 17 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Die Verbreitung der erarbeiteten Produkte wirft viele Fragen auf: Wie müssen hilfreiche<br />

Produkte aus den Schulversuchen gestaltet sein? Ist ein Tutorsystem erforderlich, um den<br />

Einsatz in nichtbeteiligten Schulen zu stützen? Was kann getan werden, damit andere Schulen<br />

das entwickelte Produkt annehmen ohne es unreflektiert rezepthaft zu übernehmen?<br />

Wird die wissenschaftliche Begleitung folglich als formative <strong>Evaluation</strong> des gesamten<br />

Entwicklungsprojektes in Verbindung mit einer simultanen Prozessgestaltung durchgeführt,<br />

so hat das Auswirkungen auf die Erhebungsmethoden. Neben den üblichen qualitativen <strong>und</strong><br />

quantitativen Forschungsmethoden sind dafür vor allem neue komplexe Prozessgestaltungs<strong>und</strong><br />

-erhebungsmethoden erforderlich (vgl. Carle 2000, Kap. 10). Die Schulen sind bereits<br />

ohne Begleitung mit der zusätzlichen Entwicklungsarbeit stark ausgelastet. Alle Methoden<br />

müssen an den konkreten Fall angepasst werden, d.h. an die Ebene, auf der erhoben wird <strong>und</strong><br />

die aktuell drängende Entwicklungsaufgaben zu lösen sind – z.B. Intensität von Lernprozessen<br />

der Kinder, Binnendifferenzierung im Unterricht, Kooperation im LehrerInnenteam, Zielplanung<br />

im Kollegium, Kommunikation der Entwicklungen nach außen <strong>und</strong> innen etc. Aus<br />

Modellversuchen in Schulen ist vor allem eines zu lernen, dass Reformen sehr viel bessere<br />

Unterstützungssysteme benötigen, ehe an den Aufbau aufwändiger <strong>Evaluation</strong>ssysteme zu<br />

denken ist. Andererseits bleibt das Wissen von schulischen Entwicklungsprojekten ohne <strong>Evaluation</strong><br />

verborgen.<br />

3 Die methodische Struktur <strong>und</strong> Strategie der <strong>Evaluation</strong><br />

<strong>und</strong> der <strong>Evaluation</strong>sforschung<br />

Wie schon gesagt, verfügen die <strong>Evaluation</strong>sprofession <strong>und</strong> die <strong>Evaluation</strong>sforschung über<br />

keine eigenen Methoden <strong>und</strong> Erhebungsinstrumente. Was das Evaluieren auszeichnet, ist ihr –<br />

historisch gesehen (zur historischen Entwicklung siehe Stockmann 2000; Mertens 2000; Leeuw<br />

2000) neuartiger Gegenstand, die handlungs- <strong>und</strong> entscheidungsunterstützende Informationsbeschaffung<br />

in umfangreichen <strong>und</strong> deshalb ebenso komplexen (kontingenten) wie unübersichtlichen<br />

Entwicklungsprojekten. Sinn des Evaluierens ist die Schaffung einer Informationsgr<strong>und</strong>lage<br />

für expedetionale Projekte auf allen Ebenen der institutionellen Strukturleiter.<br />

Die Strategie des Evaluierens folgt dieser Sinnstellung <strong>und</strong> geht ihrer Methodik voraus.<br />

Es gibt inzwischen übergeordnete Handlungsprinzipien, der die Strategie eines konkreten<br />

<strong>Evaluation</strong>ssystems folgen kann, so die Programm-<strong>Evaluation</strong>s-Standards des "Joint Committee<br />

on Standards for Educational <strong>Evaluation</strong>" für <strong>Evaluation</strong>svorhaben im Bildungsbereich,<br />

wie sie von der Deutschen Gesellschaft für <strong>Evaluation</strong> (DeGEval) übersetzt <strong>und</strong> veröffentlicht<br />

wurden (Joint Committee on Standards for Educational <strong>Evaluation</strong> / Sanders 1999). Danach<br />

sollen <strong>Evaluation</strong>en vier gr<strong>und</strong>legende Eigenschaften aufweisen: Nützlichkeit - Durchführbarkeit<br />

- Fairness 10 - Genauigkeit:<br />

Nützlichkeits- (Utility) Standards: Die Nützlichkeitsstandards sollen sicherstellen,<br />

dass die <strong>Evaluation</strong> sich an den geklärten <strong>Evaluation</strong>szwecken sowie am Informationsbedarf<br />

der vorgesehenen Nutzer <strong>und</strong> Nutzerinnen ausrichtet.<br />

Durchführbarkeits- (Feasibility) Standards: Die Durchführbarkeitsstandards sollen<br />

sicherstellen, dass eine <strong>Evaluation</strong> realistisch, gut durchdacht, diplomatisch <strong>und</strong> kostenbewusst<br />

geplant <strong>und</strong> ausgeführt wird.<br />

10 Im englischen Original "Propriety" (Schicklichkeit, Anstand, Benehmen), im Handbuch der <strong>Evaluation</strong>sstandards<br />

noch unkorrekt mit "Korrektheit" (Joint Committee… 1999, 7, in neueren Veröffentlichungen (siehe<br />

DeGEval-URL: ) besser mit dem neudeutschen "Fairness"<br />

übersetzt.<br />

camz2003evaluation_service.docx Seite 18 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Fairness- (Propriety) Standards: Die Fairnessstandards sollen sicherstellen, dass in<br />

einer <strong>Evaluation</strong> respektvoll <strong>und</strong> fair mit den betroffenen Personen <strong>und</strong> Gruppen umgegangen<br />

wird.<br />

Genauigkeits- (Accuracy) Standards: Die Genauigkeitsstandards sollen sicherstellen,<br />

dass eine <strong>Evaluation</strong> gültige Informationen <strong>und</strong> Ergebnisse zu dem jeweiligen<br />

<strong>Evaluation</strong>sgegenstand <strong>und</strong> den <strong>Evaluation</strong>sfragestellungen hervor bringt <strong>und</strong> vermittelt.<br />

Zu diesen vier generellen Eigenschaften guter <strong>Evaluation</strong> wurden insgesamt 30 Standards mit<br />

jeweils durchschnittlich 5-8 präzisierenden Richtlinien ausgearbeitet (für einen kurzen Überblick<br />

siehe Widmer 2000; ausführlich siehe Joint Committee / Sanders 1999). Mithilfe dieser<br />

Standards, ihrer Umschreibung, ihren Richtlinien <strong>und</strong> den zugehörigen Anwendungsbeispielen<br />

lassen sich die wesentlichen Kernaufgaben der <strong>Evaluation</strong>stätigkeit strukturieren <strong>und</strong><br />

überprüfen (siehe Joint Committee… 1999, 13 ff):<br />

Entscheidung über die Durchführung einer <strong>Evaluation</strong><br />

Definition des <strong>Evaluation</strong>sproblems<br />

Planung ("Designing") der <strong>Evaluation</strong><br />

Informationsgewinnung<br />

Informationsauswertung<br />

Berichterstattung<br />

Budgetierung<br />

Vertragsgestaltung<br />

Leitung <strong>und</strong> Management<br />

Personalausstattung<br />

Die funktionale Zuordnung der einzelnen Standards zu diesen strategischen <strong>Evaluation</strong>saufgaben<br />

wurde vom Joint Committee bereits vorgedacht (ebd., 13 ff) <strong>und</strong> ist für die sicher vorrangige<br />

Planungstätigkeit ausführlich dokumentiert (Joint Committee 1994).<br />

3.1 Fünf methodische Logiken entwicklungs- <strong>und</strong> evaluationsspezifischer<br />

Teiltätigkeiten<br />

Zur konzeptionellen Abgrenzung der <strong>Evaluation</strong> von Leistungsbewertung, Erfolgskontrolle,<br />

Qualitätskontrolle oder Controlling ist zu wiederholen, dass die handlungsunterstützende <strong>und</strong><br />

handlungsorientierende Funktion der <strong>Evaluation</strong> in komplexen Entwicklungsprojekten – auf<br />

welcher Strukturebene auch immer - geht weit über Ziele <strong>und</strong> Methoden des Controllings<br />

(zielt auf Kontrolle der Leistungserreichung), oder des Qualitätsmanagements (zielt auf Verbesserung<br />

bestehender Leistungsprozesse) aber auch über die Verfahren <strong>und</strong> Techniken der<br />

unter "Projektmanagement" (zielt auf Arbeitsablauf- <strong>und</strong> Ressourcennutzungsoptimierung)<br />

subsummierten Vorgehensweisen der Programmplanung hinaus. Umgekehrt stützen sich <strong>Evaluation</strong>svorhaben<br />

auf die Methodenrepertoires dieser vorgenannten Disziplinen <strong>und</strong> auf mehr.<br />

Dies wird noch einmal betont, da aktuell sehr viele traditionelle Studien das zierende Apercu<br />

"<strong>Evaluation</strong>" erhalten.<br />

Gute <strong>Evaluation</strong>svorhaben folgen auf struktureller Ebene einer expliziten, systemischen<br />

Funktionslogik wie sie in diesen "Standards" mit ihren Gr<strong>und</strong>sätzen für sozial verantwortliches,<br />

ökonomisch angemessenes, methodisch hinreichendes <strong>und</strong> inhaltlich relevantes Evaluieren<br />

von Neugestaltungsprogrammen <strong>und</strong> Entwicklungsprojekten charakterisiert ist. Wie aber<br />

camz2003evaluation_service.docx Seite 19 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

verläuft gute <strong>Evaluation</strong>? Im methodischen Detail folgen gute <strong>Evaluation</strong>svorhaben folgen<br />

zumindest den folgenden fünf tätigkeitsspezifischen Logiken. Diese wurden - bis auf die erste<br />

- allesamt bei anderen <strong>und</strong> zum Teil etwas älteren Professionen als die <strong>Evaluation</strong> entwickelt<br />

<strong>und</strong> sind dort auch zu lernen (siehe die entsprechenden Literaturangaben):<br />

der inhaltlichen Programmlogik von Entwicklungsprojekten (z.B. Lee 2000)<br />

der zeitlichen Prozesslogik von Produkt- <strong>und</strong> Prozessentwicklungen<br />

(z.B. Bösenberg / Metzen 1997, 167 ff)<br />

der Erhebungslogik explorativer <strong>und</strong> sozialwissenschaftlicher Studien<br />

(z.B. Kromrey 1990)<br />

der Zielfindungs- <strong>und</strong> Entscheidungslogik von Entwicklungsprozessen<br />

(z.B. Wottowa / Thierau 1998, 83 ff)<br />

der Programmlogik umfangreicher Entwicklungsprojekte (z.B. Hobbs 2001)<br />

Bereits seit den frühen siebziger Jahren wurden in den USA versucht, ein Modell, eine Theorie<br />

dessen zu entwickeln, was <strong>Evaluation</strong> für das evaluierte System leistet (Mertens 2000).<br />

Das erste <strong>und</strong> populärste ist das "CIPP-Modell" von Stufflebeam u.a. 1971 (siehe die folgende<br />

Abbildung).<br />

CIPP-Prozessmodell der <strong>Evaluation</strong>sforschung<br />

Daniel L. Stufflebeam u a. (1971): Educational <strong>Evaluation</strong> and Decision Making<br />

Context-<strong>Evaluation</strong><br />

Welchen<br />

Einfluss<br />

hat das<br />

Umfeld<br />

auf Verlauf<br />

<strong>und</strong> Ergebnis<br />

des Projektes?<br />

Input-<strong>Evaluation</strong><br />

Was tragen<br />

die beteiligten<br />

Projektfaktoren<br />

zum Projektablauf<br />

<strong>und</strong> zu<br />

den Projektergebnissen<br />

bei?<br />

Process-<strong>Evaluation</strong><br />

Was tragen<br />

die realen<br />

Prozessbedingungen<br />

zum<br />

Verlauf <strong>und</strong><br />

Gelingen des<br />

Projektes bei?<br />

Product-<strong>Evaluation</strong><br />

Wie werden<br />

die realen<br />

Ergebnisse<br />

gesichert <strong>und</strong><br />

von Beteiligten<br />

wie Umfeld<br />

aufgenommen?<br />

Projekt-Rahmenbedingungen:<br />

Soziale, kulturelle, individuelle<br />

materielle <strong>und</strong> organisatorische<br />

Bedingungen im<br />

Projektumfeld , z.B. Erwartungen<br />

an, aber auch Leistungen<br />

für das Projekt, so<br />

etwa verfügbare Zeiten,<br />

Hilfsmittel, Unterstützung…<br />

Projekt-Ausgangssituation:<br />

Erwartungen an das Projekt<br />

<strong>und</strong> seine Zielstellungen,<br />

Teilnehmervoraussetzungen,<br />

technisch-organisatorischer<br />

Stand, Planungen, Medien,<br />

Inhalte…<br />

Projekt-Verlauf:<br />

(„Formative <strong>Evaluation</strong>“)<br />

Verlaufs- <strong>und</strong> ergebnisrelevante<br />

Faktoren bzw. Entwicklungen,<br />

die erst im Verlauf<br />

des Vorhabens auftauchen –<br />

förderliche wie störende<br />

Projekt-Ergebnis:<br />

(„Summative <strong>Evaluation</strong>“)<br />

Feststellung, Abschätzung,<br />

Zugänglichmachung bzw.<br />

Eindämmung <strong>und</strong> Sicherung<br />

kurz-, mittel- <strong>und</strong> langfristiger<br />

Wirkungen – erwarteten wie<br />

unerwarteten<br />

cipp_evaluationsprozess.ppt U. Carle 2002-12<br />

Abbildung 5: CIPP-<strong>Evaluation</strong>smodell der Wissensgenerierung in Entwicklungsprojekten<br />

von Stufflebeam u.a. 1971<br />

Der Gr<strong>und</strong>gedanke des CIPP-Modells der <strong>Evaluation</strong>, die <strong>Evaluation</strong>sarbeit entlang der Entwicklungsstufen<br />

des Projektes zu definieren - Context (Projektkontext), Input (Projektausgangsbedingungen),<br />

Process (Projektverlauf) <strong>und</strong> Product (Projektergebnisse <strong>und</strong> –<br />

wirkungen) - entspricht dem in den sechziger Jahren auch in den Sozialwissenschaften populären<br />

kybernetischen Modell der sozialen Systeme als Informationsverarbeitungsaggregate.<br />

camz2003evaluation_service.docx Seite 20 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Danach besteht <strong>Evaluation</strong> in einem kontinuierlichen Wissensverarbeitungsprozess, der Fragen<br />

<strong>und</strong> Probleme aufgreift, dazu Zahlen, Daten <strong>und</strong> Fakten erhebt <strong>und</strong> diese dann zu entscheidungsrelevanten<br />

Informationen für die ProjektgestalterInnen weiter verarbeitet (siehe<br />

Isaac / Michael 1997, 12 ff).<br />

Da das CIPP-Prozessmodell der <strong>Evaluation</strong> auch den "Standards" des Joint Committee<br />

zugr<strong>und</strong>e liegt, soll dessen kurze Darstellung hier genügen. Weitere <strong>Evaluation</strong>stheorien oder<br />

-modelle finden sich bei Isaac / Michael 1997, bei Lee <strong>und</strong> Caracelli im Stockmann-Band von<br />

2000. Caracelli's <strong>Evaluation</strong>smodell des "USA General Accounting Office (GAO)" weist einen<br />

etwas höheren Komplexitätsgrad als das CIPP-Modell auf (GAO… 1991; weitere GAO-<br />

Publikationen zum <strong>Evaluation</strong>sdesign siehe GAO… 2002). Für die Veranschaulichung der<br />

allgemeinen inhaltsbezogenen Programmlogik von <strong>Evaluation</strong> mag das CIPP-Modell genügen,<br />

zumal im weiteren Verlauf ein weiter führendes <strong>Evaluation</strong>smodell entwickelt wird.<br />

Im Unterschied zum Prozessmodell der Evaluierung versuchen summative <strong>Evaluation</strong>en<br />

typischerweise, etwa die Wirkung eines mehrjährigen Schulversuches durch groß angelegte<br />

Vorher-Nachher-Massentests bei Schülern <strong>und</strong>/oder Befragungen bei Lehrern bzw. Eltern in<br />

einer großen Erhebung zu erfassen. Im Prinzip haben die PISA-Tests etwas von diesem Prinzip,<br />

wenn man (nicht ganz unberechtigt) unterstellt, dass sie die Ergebnisse der seit den frühen<br />

achtziger Jahren in vielen OECD-Ländern durchgeführten gr<strong>und</strong>legenden Schulreformen<br />

nun abschließend "auf die Waage" stellen (vergleiche dazu das Coverfoto auf Wottawa / Thierau<br />

1998).<br />

Der Nachteil eines solchen Vorgehens liegt auf der Hand: Man erfährt nur das DASS <strong>und</strong><br />

nie das WIE, was also bei welchem Land warum zu diesen abschließenden Ergebnissen geführt<br />

hat (dazu Carle 2000, 67 ff). Diesem Nachteil versucht das Konzept der formativen <strong>Evaluation</strong><br />

gerecht zu werden, indem sie programmbegleitende Zwischenuntersuchungen durchführt,<br />

quasi portionierte phasen-summative <strong>Evaluation</strong>en. Das ergibt prozessnähere Zwischenbef<strong>und</strong>e<br />

<strong>und</strong> erlaubt so rechtzeitiges Nachsteuern <strong>und</strong> Korrigieren. Wie aber wird dann<br />

die Wirkung der Korrekturen im Verhältnis zu den ursprünglichen Zielen erhoben? Manche<br />

Autoren versuchen darauf eine planerische Antwort: Modellierung <strong>und</strong> Planung des Entwicklungsvorhabens<br />

müssen verbessert werden (so etwa bei Wottawa / Thierau 1998, 83 ff), <strong>Evaluation</strong><br />

<strong>und</strong> Erhebung müssen projektspezifischer arbeiten.<br />

3.2 Enwicklungsorientierte <strong>Evaluation</strong><br />

Das Lernenwollen aus dem realen Projektverlauf wird dadurch zwar erheblich verbessert,<br />

aber auch erheblich verteuert: "Qualität hat eben ihren Preis!" Entwicklungen in der industriellen<br />

Projektgestaltung, Qualitätsverbesserung <strong>und</strong> Entwicklungsbeschleunigung (etwa Bösenberg<br />

/ Metzen 1994) erbrachten zusammen gesehen einen völlig neuen Ansatz "systemischer<br />

Schulbegleitforschung". Dieser kombiniert eine angepasstere Erhebungsstrategie mit einer<br />

höheren Methodenflexibilität zu einem völlig neuen oder zu Ende gedachten <strong>Evaluation</strong>skonzept:<br />

Nicht mehr das Überprüfen der geplanten Zukunftsentwicklung steht im Vordergr<strong>und</strong>,<br />

sondern das Versorgen des Entwicklungssystems mit den notwendigen Bedingungs<strong>und</strong><br />

Wirkungsinformationen. Diese Informationen über entwicklungsrelevante Bedingungs<strong>und</strong><br />

Wirkungsmomente finden sich auf mindestens fünf verschränkten Gestaltungsebenen:<br />

Soziale Strukturebenen: individuell, kollektiv, organisatorisch, institutionell, regional,<br />

global<br />

Zeitliche Entwicklungsphasen (chronosystemische Ebenen): langfristig, mittelfristig,<br />

kurzfristig, situativ<br />

Regulative Handlungsebenen: kulturell-normativ, strukturell, operativ<br />

camz2003evaluation_service.docx Seite 21 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Planungssichere Gestaltungshorizonte: Grobentwicklung plus phasenweise Feinentwicklung<br />

(„Simultaneous Engineering)<br />

Kontinuierliche Im-Prozess Verbesserungen<br />

<strong>Evaluation</strong> als professionelle informatorische Begleitung von sich planmäßig verändernden<br />

sozialen Systemen gibt im Prozess der Umgestaltung Hinweise auf entwicklungsrelevante<br />

Veränderungen <strong>und</strong> deren Bedingungen. Dazu bedarf es eines systemadäquaten Ziel-, Wirkungs-,<br />

Handlungs- <strong>und</strong> Indikatorenmodells (zur Strukturperspektive sozialer Organisationen<br />

siehe Carle 2000, 339 ff). Diese Modelle <strong>und</strong> die zugehörigen Indikatoren variieren mit der<br />

Handlungsebene <strong>und</strong> mit der Entwicklungsperspektive. Die Ausarbeitung eines Modell- <strong>und</strong><br />

Indikatorensystems für die gesamte Entwicklungsphase eines Veränderungsprojektes setzt<br />

erstens voraus, dass man bereits alle Entwicklungsmomente <strong>und</strong> –bedingungen kennt (dann<br />

aber wäre es kein Entwicklungs- sondern ein Produktionsprogramm) <strong>und</strong> es verlangt zweitens<br />

einen immensen Planungs- <strong>und</strong> Programmierungsaufwand.<br />

3.2.1 Planungs- <strong>und</strong> Projektsteuerungskonsequenzen<br />

Kluge Entwicklungsplanung <strong>und</strong> –begleitung geht einen anderen, ökonomischeren <strong>und</strong> lernoffeneren<br />

Weg der hierarchisch-sequentiellen Planung (Carle 2000, 418 ff). Zuerst wird das<br />

übergeordnete Entwicklungsziel skizziert. Dabei sollten durchaus sehr ehrgeizige Ziele gesetzt<br />

werden, damit durch diese apriori Ausweitung des Zielhorizontes später unerwartet auftauchende<br />

Zusatzwirkungen verortet werden können. Entsprechend dieser übergeordneten,<br />

langfristigen, qualitativ definierten Ziele werden grobe Indikatoren formuliert – quasi das Basismodell<br />

der summativen Systementwicklungsevaluation.<br />

Detaillierter geplant wird im Hinblick auf die übergeordneten Ziele die erste überschaubare<br />

Entwicklungsphase. Hierfür können nun realistische strategische Ziel-, Wirkungs-,<br />

Handlungs- <strong>und</strong> Indikatorenmodelle ausgearbeitet werden. Die Möglichkeiten zur realistischen<br />

Planung dieser Phase definieren die Entwicklungsspanne, nicht abstrakte Zeitziele. Für<br />

diese erste Phase werden nun die detaillierten Entwicklungsbedingungen erhoben <strong>und</strong> erst auf<br />

dieser Basis die detaillierten Entwicklungsarbeiten <strong>und</strong> <strong>Evaluation</strong>smaßnahmen geplant. Zu<br />

den vorgesehenen Indikatoren werden die passenden Erhebungsinstrumente ausgesucht bzw.<br />

entwickelt sowie ein Nutzenbestimmungs- <strong>und</strong> Entscheidungsmodell für die Handlungskonsequenzen<br />

aus erwartete bzw. unerwartete Bef<strong>und</strong>e ("Bewertungsmodell").<br />

Die Planung der jeweils folgenden Phase erfolgt dann, wenn genügend phasenspezifisches<br />

Systemwissen vorhanden ist. Dieses Wissen über die nächste Phase wird parallel zur<br />

Durchführung der vorherigen Phase erhoben. Denkbar ist sogar die zeitweise Parallelität von<br />

Gestaltung (Phase X), Planung (Phase X+1) <strong>und</strong> Gr<strong>und</strong>lagenerhebung (Phase X+2). Es ergibt<br />

sich also eine simultan-sequentielle Planung <strong>und</strong> Evaluierung – quasi als Basismodell für die<br />

formative Systementwicklungsevaluation. Die Ergebnisse der jeweiligen Phase werden auf<br />

die übergeordnete Zielstellung bezogen, denn die Gesamtzielstellung der Phasen hängt ja vor<br />

allem am übergeordneten Entwicklungsziel. So ergibt sich eine phasenweise zunehmende<br />

Klarheit über die Gesamtentwicklung <strong>und</strong> die Entwicklungsdetails (zu weiteren Einzelheiten<br />

dieses "Simultaneous Engineering" siehe Bösenberg / Metzen 1994, 167 ff).<br />

Der ökonomische Effekt dieses phasenweisen Planens <strong>und</strong> Handelns ergibt sich daraus,<br />

dass nur das detailliert werden muss, was in naher Zukunft realisierbar <strong>und</strong> notwendig erscheint.<br />

Diese Art der Planung ist nicht nur weniger teuer, sondern sogar produktiv, da die<br />

Teilevaluationen sich auf die Dinge konzentrieren kann, die für das Entwicklungsvorhaben<br />

besonders relevant sind. Aus evaluatorischer Sicht hat dieses hierarchisch-sequentielle Vorgehen<br />

einen weiteren Vorteil: Gegenüber den häufig sehr teuren <strong>und</strong> aufwändigen Großevaluationen<br />

leiden "Kurzevaluationen", also einfachere <strong>und</strong> kleinere <strong>Evaluation</strong>en (Widmer / Rothmayr<br />

/ Serdült 1996) - bei allen Handhabungsvorteilen, die sie haben – vor allem an unzu-<br />

camz2003evaluation_service.docx Seite 22 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

reichenden Informations- <strong>und</strong> Entscheidungsgr<strong>und</strong>lagen. Die phasenbezogenen (Kurz-) <strong>Evaluation</strong>en<br />

unterliegen durch ihren Bezug auf das übergeordnete Entwicklungsvorhaben unter<br />

dieser Beschränkung nicht.<br />

Entwicklungen leben ja vom Unerwarteten. Dieses äußert sich in der Regel nicht in großartigen<br />

Glücksgriffen oder schwerwiegenden Entwicklungshemmnissen, sondern tauchen zumeist<br />

– wie die Spitze eines Eisberges – in winzigen Abweichungen oder Problemen bei der<br />

alltäglichen Entwicklungsarbeit auf. Was aber unterscheidet ein unbekanntes aber relevantes<br />

Entwicklungsmoment aber von einer zufälligen Abweichung? Erst die längerfristige Weiterentwicklung!<br />

Auf die kann aber nicht gewartet werden, da sonst eine Vielzahl von zusätzlichen<br />

Varianten mit entwickelt <strong>und</strong> beobachtet werden müssten. Hier hilft nur die situative<br />

Minievaluation, eine erste Schnellerhebung, die ihre methodische Rechtfertigung nur aus dem<br />

Bezug zur Phasenzielstellung <strong>und</strong> dem korrespondierenden Nutzenmessungs- <strong>und</strong> Entscheidungsmodell<br />

erhält. Eine Minievaluation kann auch plötzlich auftauchende Handlungs- <strong>und</strong><br />

Entscheidungsschwierigkeiten der Entwicklungsarbeiter lösen helfen.<br />

Dieses quasi spontane Eingehen auf alltägliche Entwicklungsprobleme ist allerdings nur<br />

dann sinnvoll, wenn das Entwicklungsvorhaben auch der gr<strong>und</strong>sätzlichen Strategie der "Kontinuierlichen<br />

Verbesserung" folgt (siehe Bösenberg / Metzen 1994, 108 ff), wenn also jede<br />

Möglichkeit des Lernens in einer Optimierung der Arbeitsbedingungen <strong>und</strong> einer Verbreiterung<br />

der Wissensbasis aller Beteiligten im Entwicklungsprojekt mündet.<br />

Soweit zur neuen zeitlichen Prozesslogik des Entwickelns <strong>und</strong> Evaluierens, die ein sehr<br />

viel ökonomischeres <strong>und</strong> flexibleres methodisches Vorgehen ermöglicht <strong>und</strong> damit erst eine<br />

erfolgsförderliche Unterstützung des Entwicklungsvorhabens durch das <strong>Evaluation</strong>ssystem erlaubt.<br />

<strong>Evaluation</strong> folgt damit einer professionellen Entwicklung wie sie sich im industriellen<br />

Qualitätsmanagement vollzog: Weg von der aufwendigen <strong>und</strong> teuren Prüfung am Ende der<br />

Leistungskette ("Qualitätssicherung") <strong>und</strong> hin zur produktiven <strong>und</strong> kreativen Integration der<br />

ständigen Qualitätsverbesserung in den Leistungsprozess ("Total Quality Management") –<br />

siehe Bösenberg / Metzen 1995, 153 ff.<br />

Die Energie zum Wandel weht aus Richtung der vitalen Eigeninteressen. Es ist also<br />

falsch, diese Egoismen hinter der Mauer eines vordergründigen Gemeininteresses zu sperren.<br />

Energetisch sinnvoller ist es, die in einem großen Entwicklungsvorhaben divergierenden Akteursinteressen<br />

zu konzertieren. Institutionelle Reformen unterscheiden zwischen vertikalen<br />

Strukturebenen <strong>und</strong> horizontale verteilten Subsystemen auf einer Strukturebene. Ein Beispiel<br />

für die Spezifität der vertikalen Ebeneninteressen sind etwa die Einrichtungsinteressen im<br />

Verhältnis zu den Trägerinteressen oder die Trägerinteressen in Bezug auf die Politikinteressen.<br />

Zielführungs- <strong>und</strong> Unterstützungssysteme einschließlich der <strong>Evaluation</strong> können diese Interessendifferenzen<br />

intelligent nutzen. Dafür steht unsere Formel von der Integration von interner<br />

<strong>und</strong> externer <strong>Evaluation</strong>. Diese Integration von interner <strong>und</strong> externer <strong>Evaluation</strong> auf den<br />

wichtigsten Strukturebenen von Sozialprojekten lässt sich anhand eines kybernetischen<br />

Mehrebenenmodells theoretisch <strong>und</strong> praktisch erläutern. Dieses Mehrebenenmodell geht davon<br />

aus, dass sich jede Entwicklung in einer mitgestaltenden Umgebung ("Ökosystem") vollzieht<br />

<strong>und</strong> umgekehrt bezieht sich jede selbstgesteuerte Entwicklung auf diese mitwirkenden<br />

Umfelder.<br />

3.2.2 Methodische Konsequenzen<br />

Die Energie zum Wandel weht aus Richtung der vitalen Eigeninteressen. Es ist also falsch,<br />

diese Egoismen hinter der Mauer eines vordergründigen Gemeininteresses zu sperren. Energetisch<br />

sinnvoller ist es, die in einem gro0en Entwicklungsvorhaben divergierenden Akteursinteressen<br />

zu konzertieren. Institutionelle Reformen unterscheiden zwischen vertikalen Strukturebenen<br />

<strong>und</strong> horizontale verteilten Subsystemen auf einer Strukturebene. Ein Beispiel für<br />

die Spezifität der vertikalen Ebeneninteressen sind etwa die Einrichtungsinteressen im Ver-<br />

camz2003evaluation_service.docx Seite 23 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

hältnis zu den Trägerinteressen oder die Trägerinteressen in Bezug auf die Politikinteressen.<br />

Zielführungs- <strong>und</strong> Unterstützungssysteme einschließlich der <strong>Evaluation</strong> können diese Interessendifferenzen<br />

intelligent nutzen. Dafür steht unsere Formel von der Integration von interner<br />

<strong>und</strong> externer <strong>Evaluation</strong>. Diese Integration von interner <strong>und</strong> externer <strong>Evaluation</strong> auf den wichtigsten<br />

Strukturebenen von Sozialprojekten lässt sich anhand eines kybernetischen Mehrebenenmodells<br />

theoretisch <strong>und</strong> praktisch erläutern. Dieses soziologische Mehrebenenmodell 11 geht<br />

davon aus, dass sich jede Entwicklung in einer mitgestaltenden Umgebung ("Ökosystem")<br />

vollzieht <strong>und</strong> umgekehrt bezieht sich jede selbstgesteuerte Entwicklung auf diese mitwirkenden<br />

Umfelder.<br />

Abbildung 6: Mehrebenenmodell der Verbindung von interner <strong>und</strong> externer <strong>Evaluation</strong><br />

In der o. a. Abbildung modellieren die inneren Regelkreise die ebenenspezifische „interne<br />

<strong>Evaluation</strong>“ 12 <strong>und</strong> die äußeren Verbindungslinien zwischen den Ebenen die „externe <strong>Evaluation</strong>“.<br />

Extern bezieht sich dabei auf die Rechenschaft der jeweiligen Strukturebene gegenüber<br />

der ihr übergeordneten Strukturebene - im Beispiel etwa die Kindergarten-Ebene gegenüber<br />

dem lokalen Träger. Diese Ebenen können zusammengefasst oder auch differenziert werden.<br />

Wichtig ist alleine die Bedeutsamkeit der evaluierenden / evaluierten Ebenen für den interessierenden<br />

Entwicklungsprozess. Die interne <strong>Evaluation</strong> dient der Selbstvergewisserung der<br />

Ebenen-Akteure, die externe <strong>Evaluation</strong> der Beratung der Zielvereinbarungserreichung. Die<br />

<strong>Evaluation</strong>sziele leiten sich aus den Zielvereinbarungen zwischen den Ebenen ab. Durch diese<br />

11 Das sozialogische Mehrebenenmodell sollte nicht verwechselt werden mit der statistischen Mehrebenenanalyse.<br />

Die statistische Mehrebenenanalyse (engl. Multilevel Analysis; Multilevel Modelling), auch "Hierarchisch<br />

Lineare Modellierung" (engl. Hierarchical Linear Modeling) bezeichnet, gehört zu den multivariaten statistischen<br />

Verfahren zur statistischen Analyse hierarchisch gruppierter Daten ("Clustern" wie Familien, Berufsgruppen,<br />

Kindergartengruppen etc.). In der empirischen Sozialforschung dient sie zum Herausrechnen von<br />

Gruppierungseffekten auf das individuelle Verhalten (z. B. Bildungsstand, soziökonomische Schicht, Arbeitslosigkeit<br />

etc.). Ein Paradebeispiel für dieses Herausrechnen soziaökonomischer Hintergr<strong>und</strong>daten aus den<br />

Lernerfolgsdaten in Kindergarten <strong>und</strong> Schule bietet die englische Längsschnittstudie "Effective Provision of<br />

Pre-school Education Project (EPPE)" (Sylva et al. 2001); zur Einführung siehe Ditton 1998; ders. 2002.<br />

12 „Interne <strong>Evaluation</strong> ist der in unserem <strong>Evaluation</strong>skontext treffendere Ausdruck für „Selbstevaluation“; siehe<br />

hierzu DeGEVal 2002 (Standardsadaptation zur Selbstevalution, Buhren / Killus, / Müller 1998, Burkard 1999.<br />

camz2003evaluation_service.docx Seite 24 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

evaluativen Verknüpfungen <strong>und</strong> Separierungen gewinnen die "K<strong>und</strong>en" der <strong>Evaluation</strong> auf<br />

den verschiedenen Strukturebenen ein Eigeninteresse an der Konzertierung (Abstimmung <strong>und</strong><br />

Ko-Produktion) von Entwicklungsprozessen, Projektmanagement <strong>und</strong> <strong>Evaluation</strong>en.<br />

Zurück zur <strong>Evaluation</strong>smethodik: Aus welchem Schatz an Erhebungsmethoden man dann<br />

im konkreten Fall schöpft <strong>und</strong> welches Erhebungsdesign jeweils zur Geltung kommt ergibt<br />

sich aus dem Studium gr<strong>und</strong>legender Methodenbücher (etwa Kromrey 1990 oder Lamnek<br />

1995), aus der Lektüre evaluationsbezogener Methodenbücher (etwa Isaac / Michael 1997;<br />

Bortz / Döring 2002; Widmer 1996), aus bereichsspezifischen Anwendungsdokumentationen<br />

(etwa Bamberg u.a. 2000, Beywl u.a. Hrsg. 2001; Carle 2002; Demorgon u.a. 2001; Heiner<br />

Hrsg. 1998; Knox 2002, Reischmann 2003; Stockmann 2000 etc.) <strong>und</strong> natürlich aus der eigenen<br />

reichen Anwendungserfahrung – der eigentlichen Profession von EvaluatorInnen. Diese<br />

Andeutungen mögen ausreichen zur weiteren Vertiefung in die Probleme der Erhebungslogik<br />

explorativer <strong>und</strong> sozialwissenschaftlicher Studien in der <strong>Evaluation</strong>sforschung. Wichtig bei<br />

der Auswahl <strong>und</strong> / oder Entwicklung geeigneter Erhebungsinstrumente ist die Spezifität für<br />

die Strukturebenen einerseits wie auch die jeweiligen <strong>Evaluation</strong>sk<strong>und</strong>en besonders interessierenden<br />

Tätigkeitsebenen der Entwicklungsprojekte. Die folgende Abbildung aus dem pädagogischen<br />

Bereich gibt eine übliche Unterscheidung der zentralen Handlungsregulationsmomente<br />

in eine Normenebene, eine Strukturebene <strong>und</strong> eine Operationsebene („Ausführungsweisen).<br />

Abbildung 7: Drei Ebenen der Methodo-Logie der <strong>Evaluation</strong>sforschung<br />

Welche Veränderungen auf welcher Ebene besonders betrachtet werden, hängt nicht nur vom<br />

Interesse der <strong>Evaluation</strong>sk<strong>und</strong>en ab, sondern auch von der Entwicklungszeit, die erfasst werden<br />

kann <strong>und</strong> soll. Die schnellsten Veränderungen sind auf der operativen Ebene feststellbar.<br />

Veränderungen auf der strukturellen Ebene bedürfen in Bildungseinrichtungen - je nach<br />

Strukturebene - Monate bis Jahre. Auf der übergeordneten normativen Ebene braucht es sogar<br />

Generationen für nachhaltige <strong>und</strong> signifikante Veränderungen. Diese Überlegungen fließen in<br />

die Methoden- <strong>und</strong> Instrumentenwahl ein. - Das war früher einfacher: Am Anfang der <strong>Evaluation</strong><br />

stand ja das Gutachten, das seinerseits einem von „Oben“ vorgegebenen Bewertungsmo-<br />

camz2003evaluation_service.docx Seite 25 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

dell folgte. Im neuen <strong>Evaluation</strong>sparadigma erweiterten wir dieses Bewertungsmodell zum<br />

Nutzenbestimmungs- <strong>und</strong> Entscheidungsmodell für die Entwicklungsakteure auf der vereinbarten<br />

Basis von erwarteten bzw. unerwarteten Bef<strong>und</strong>en der <strong>Evaluation</strong>. Was in der Komplexität<br />

des gutachterlichen Sachverstandes noch intuitiv verankert war, bedarf in einem kollektiven<br />

oder gar organisationalen Lernprozess der expliziten Zielfindungs- <strong>und</strong> Entscheidungslogik.<br />

Auch diese Zielfindungs- <strong>und</strong> Entscheidungsfeld ist ein sehr weites. Zum Glück haben<br />

aber Heinrich Wottawa <strong>und</strong> Heike Thierau für psychologische <strong>und</strong> pädagogische AnwenderInnen<br />

eine gut zugängliche Einführung in die Methodik der "Zielexplikation <strong>und</strong> Bewertungskriterien"<br />

geschrieben (dies. 1998, 83 ff). Hier werden uns erste Einblicke in gr<strong>und</strong>legende<br />

Entscheidungstechniken, etwa die Alternativenauswahl, Ideenfindung, Szenarioentwicklung,<br />

Planspieltechnik, Ideenclusterung, Strukturlegetechnik, Zielerreichungsskalierung<br />

<strong>und</strong> vieles mehr. Zur Einschränkung dieser Methoden muss gesagt werden, dass sie erstens<br />

nicht jedem gefallen, also Reaktanzen hervorrufen können <strong>und</strong> dass sie zweitens der Intuition<br />

immer unterlegen sind, andererseits man sich aber über Intuition nicht verständigen kann. Eine<br />

vorsichtige <strong>und</strong> immer auch durch Intuition geprüfte Handhabung solcher Entscheidungs<strong>und</strong><br />

Bewertungstechniken ist also angeraten.<br />

Bei Wottawa <strong>und</strong> Thierau findet sich auch ein Kapitel zur Programmplanung von Entwicklungsprojekten<br />

<strong>und</strong> ihnen dienenden <strong>Evaluation</strong>svorhaben (dies. 1998, 114 ff; eingehender<br />

bei Hobbs 2001). Schon die Überprüfung der bisherigen deutschen <strong>und</strong> internationalen<br />

Schulreformuntersuchungen ergab einen augenfälligen Mangel an konkreter praktischer Planungs-<br />

<strong>und</strong> Gestaltungsmethodik: "So viel scheint sicher, dass erst eine professionelle Reformmethodik<br />

die Zufälligkeit eines beherzten Veränderungsaktivismus in feldexperimentelle<br />

Treffer <strong>und</strong> Irrtümer verwandeln vermag" (Carle 2000, 381 ff).<br />

Daraus ergibt sich zwingend die Notwendigkeit zur Methodeninnovation von schulischen<br />

Entwicklungsprojekten. Unter anderem gehört dazu auch Programmplanungsmethodik, wie<br />

sie unter dem Namen "Projektmanagement" entwickelt wurde. Nach Wottawa / Thierau zählen<br />

dazu die Aufarbeitung von Projektdetails <strong>und</strong> Rahmenbedingungen sowie die Ausarbeitung<br />

eines Arbeits-, Zeit- <strong>und</strong> Ressourcenplans (dies. 1998, 114 ff). Dazu gibt es vielerlei<br />

Techniken (ebd. Und Hobbs 2001) <strong>und</strong> vor allem entwickelte Planungssoftware wie etwa<br />

"MS Project". Umfangreiche Entwicklungs- <strong>und</strong> <strong>Evaluation</strong>svorhaben müssen projektiert<br />

werden, sollen sie nicht – wie die meisten Schulreformprojekte – im singulären Aufleuchten<br />

bedeutsamer neuer Handlungsmöglichkeiten enden.<br />

Auf welchem Wege auch immer, helfen nahezu alle <strong>Evaluation</strong>ssysteme, einem sich<br />

wandelnden Sozialsystem im Veränderungsstrudel die übergeordnete Entwicklungsperspektive<br />

nicht aus den Augen zu verlieren. Dies gelingt, indem man die mittlerweile als Standards<br />

geltenden <strong>Evaluation</strong>sgr<strong>und</strong>sätze <strong>und</strong> -methoden beherzigt, vor allem aber die wechselseitigen<br />

Beziehungen zwischen dem Entwicklungssystem <strong>und</strong> dem <strong>Evaluation</strong>ssystem auf eine durch<br />

ausreichende Kenntnis der Besonderheiten des jeweils anderen Systems ausgezeichnete Kooperationsqualität<br />

gründet.<br />

4 Statt einer Bilanz ein Plädoyer:<br />

Vorrang hat die Qualifizierung der EvaluatorInnen<br />

Vor der <strong>Evaluation</strong>sprofession <strong>und</strong> der <strong>Evaluation</strong>sforschung stehen gewaltige Aufgaben. Gilt<br />

es doch um nicht weniger, als den Erfolg der großen schulischen <strong>und</strong> sozialen Probleme sichern<br />

zu helfen, damit es künftigen Kindern <strong>und</strong> Jugendlichen in jeder Hinsicht gut geht. <strong>Evaluation</strong>sforschung<br />

ist dabei vor allem gefordert, den schulischen Reformeinzelfall in den Blick<br />

zu nehmen <strong>und</strong> informatorisch zu fördern.<br />

camz2003evaluation_service.docx Seite 26 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Zusammenfassend ergibt sich für gute <strong>Evaluation</strong> keine andere Durchsetzungschance als<br />

erst einmal die Ausbildung von Professionellen mit der hier angedeuteten vielfältigen Methodenkompetenz,<br />

bereichsspezifischer Feldkenntnis <strong>und</strong> ausreichender Anwendungserfahrung.<br />

Die neue <strong>Evaluation</strong>skompetenz verspricht dabei zwar reichhaltiges Lernen in Entwicklungsprojekten,<br />

ja sogar deren ökonomische Optimierung, sie erfordert aber auch eine Kooperationsqualität<br />

zwischen Entwicklungs- <strong>und</strong> <strong>Evaluation</strong>ssystem für die es in Deutschland erst<br />

noch Beispiele zu konstituieren gilt. Zurzeit prägen drei sehr unterschiedliche Bewegungen<br />

das bunte Bild der methodischen <strong>und</strong> praktischen <strong>Evaluation</strong>sdiskurse in Deutschland:<br />

die hektische Aufholbewegung der von den Möglichkeiten <strong>und</strong> Mitteln betroffenen<br />

Professionen in Praxis <strong>und</strong> Wissenschaft in Deutschland, die r<strong>und</strong> zwanzig Jahre<br />

Kompetenzvorsprung der internationalen, insbesondere der US-amerikanischen nach<br />

zu holen versuchen<br />

die im Vergleich dazu hoch professionelle, auf höchste qualitative Standardisierung<br />

<strong>und</strong> methodische Raffinesse zielende Vollendungsbewegung, die von einer umfassenden<br />

Implementierung von <strong>Evaluation</strong>smaßnahmen in nahezu alle staatlichen <strong>und</strong> privatwirtschaftlichen<br />

Großprojekte begleitet wird – in vielen OECD-Ländern, insbesondere<br />

in den USA<br />

die weltweite Transzendierungsbewegung einer Minderheit professioneller EvaluatorInnen<br />

<strong>und</strong> <strong>Evaluation</strong>sforscherInnen, die, auf der Vollendungsbewegung aufbauend,<br />

eine zukunftsweisende, "systemisch-evolutionäre" methodische wie theoretische Neuorientierung<br />

der <strong>Evaluation</strong>spraxis konzipiert <strong>und</strong> ausprobiert<br />

Insgesamt verfolgen nahezu alle <strong>Evaluation</strong>sansätze den Sinn, Gestaltungsakteuren bei ihren<br />

Planungen, Reformprozessen <strong>und</strong> Erfolgskontrollen so zu assistieren, dass ihre Bedürfnisse<br />

bzw. Ziele besser erreicht <strong>und</strong> ihre Arbeitsergebnisse optimiert werden. Diese handlungsunterstützende<br />

<strong>und</strong> handlungsorientierende Funktion der <strong>Evaluation</strong> in komplexen – auf welcher<br />

Strukturebene auch immer - Entwicklungsprojekten geht weit über Ziele <strong>und</strong> Methodik des<br />

Controllings (zielt auf Kontrolle der Leistungserreichung), oder des Qualitätsmanagements<br />

(zielt auf Verbesserung bestehender Leistungsprozesse) aber auch über die Verfahren <strong>und</strong><br />

Techniken der unter "Projektmanagement" subsummierten Vorgehensweisen der Programmplanung<br />

hinaus. Dies wird hier betont, da häufig aus Controlling, Qualitätsmanagement oder<br />

Projektmanagement stammende Verfahren das aktuell zierende Apercu "<strong>Evaluation</strong>" erhalten.<br />

Die <strong>Evaluation</strong>sforschung ist darüber hinaus dabei, ein neues Tätigkeitsniveau der Steuerung<br />

<strong>und</strong> Gestaltung großer sozialer Entwicklungsprojekte zu entwickeln. Dieses ist zwar<br />

auch durch strategische Kompetenzen ("Programm Standards") <strong>und</strong> methodische Kompetenzen<br />

(Prozessunterstützung, Erhebungsmethodik, Entscheidungsunterstützung, Programmplanung)<br />

vor allem aber durch die Qualität der Kooperation zwischen Entwicklungsvorhaben <strong>und</strong><br />

<strong>Evaluation</strong>ssystem geprägt (kulturell-normative Kompetenz). So ist <strong>Evaluation</strong>sforschung vor<br />

allem geeignet, den schulischen Reformeinzelfall in den Blick zu nehmen. Dieser Einzelfall<br />

kann eine Schülerin, eine Klasse, eine Schule, gar ein nationales Bildungssystem sein.<br />

Gute <strong>Evaluation</strong> bietet umfangreichen Reform- <strong>und</strong> Entwicklungsvorhaben ein sozialwissenschaftlich<br />

f<strong>und</strong>iertes System zur zielbezogenen projektunterstützenden Informationsversorgung.<br />

Was diese Art <strong>Evaluation</strong> auszeichnet, ist ihre strukturelle Eignung zur systemischen<br />

Koppelung mit dem zu begleitenden Veränderungs- <strong>und</strong> Gestaltungsfall. Erfolgreich ist gute<br />

<strong>Evaluation</strong> aber nur dann, wenn auch das zu evaluierende System über die Strukturen verfügt,<br />

die die Integration von <strong>Evaluation</strong>sforschung ermöglicht. Das <strong>Evaluation</strong> nutzende System<br />

muss also evaluationsfähig, das <strong>Evaluation</strong> bietende System förderungsfähig sein.<br />

Eines aber geht allen <strong>Evaluation</strong>sdetails voraus: Die erfolgversprechende Gestaltung<br />

schulischer Reformprojekte. Diese knüpft zuerst an den realen Bedürfnissen der Beteiligten<br />

camz2003evaluation_service.docx Seite 27 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

an - <strong>Evaluation</strong> taucht an dieser Stelle zumeist noch nicht auf. Sie nimmt die Bedenken aller<br />

Beteiligten ernst (Probleme als beste Verbündete), beteiligt die Basis, die SchülerInnen <strong>und</strong><br />

ihre Lebenswelt <strong>und</strong> gibt allen ausreichend Zeit, Raum <strong>und</strong> Gelegenheit sich einzubringen.<br />

Dies ist der Kern, <strong>und</strong> ihm folgen die Rahmenbedingungen: Reformprojekte brauchen einen<br />

langen Atem <strong>und</strong> beginnen erst einmal nur mit den interessierten, den motivierten Personen,<br />

Gruppen <strong>und</strong> Schulen; sie stützen sich auf solide Finanzierung <strong>und</strong> erfolgssicherndes Projektmanagement;<br />

sie sichern den Veränderungsprozess gegen Überforderung, Stress <strong>und</strong> unzureichende<br />

Ressourcen bzw. Expertise; sie gestalten schließlich die konkrete Projektorganisation<br />

mit Blick auf die Zukunft <strong>und</strong> nicht mit Führungskonzepten der Vergangenheit; zukunftsfähige<br />

Projektführung bietet Zugang zu allem relevanten Wissen, flache demokratische Organisation,<br />

Zusammenarbeit aller mit allen, Förderung von Respekt <strong>und</strong> Toleranz.<br />

Schulische Weiterentwicklung kann man fördern oder hemmen, nicht lenken. Insgesamt<br />

braucht schulische Entwicklung also zusätzlich zum internen Entwicklungsinteresse <strong>und</strong> der<br />

externen Entwicklungsunterstützung (einschließlich eines <strong>Evaluation</strong>ssystems) die vermittelnde<br />

Entwicklungsgestaltfindung (System Design). Soll <strong>Evaluation</strong> als gestaltungsbegleitendes<br />

Feedbacksystem auch diesem Funktionsanspruch genügen, muss es dem hier entwickelten,<br />

"systemischen" <strong>Evaluation</strong>sansatz entsprechen, der sich durch die folgenden (wechselseitigen)<br />

sieben Beziehungsqualitäten zusammenfassen:<br />

1. Orientierungsqualität: <strong>Evaluation</strong>ssysteme als integrierter Teil des Unterstützungssystems<br />

für Reform- oder Entwicklungsvorhaben unterstützen für die Reformakteure vor allem die<br />

folgenden informatorischen Funktionen:<br />

Erkenntnisfunktion<br />

Selbstkontrollfunktion<br />

Dialogfunktion<br />

Verantwortungs- <strong>und</strong> Legitimitätsfunktion<br />

2. Indikatorenqualität: Zur Unterstützung der Selbstkontrollfunktion machen <strong>Evaluation</strong>ssysteme<br />

für alle Beteiligten sichtbar, was alleine aus den unmittelbaren Arbeitsabläufen <strong>und</strong> –<br />

ergebnissen nicht hervorgeht, nämlich:<br />

dass das, was sie wollen auch getan wird<br />

(Implementation <strong>Evaluation</strong> - Durchführungskontrolle)<br />

dass was sie tun auch wirkt<br />

(Impact <strong>Evaluation</strong> – Wirkungskontrolle) <strong>und</strong><br />

dass, wie es getan wird, der gebotenen Ökonomie <strong>und</strong> der aktuell möglichen<br />

Professionalität entspricht (Effectiveness <strong>Evaluation</strong> – Effizienzkontrolle)<br />

3. Informationsqualität: Zur technisch-organisatorischen F<strong>und</strong>ierung des Lernens, der Selbststeuerung,<br />

der Kommunikation <strong>und</strong> des Erfolgsnachweises im Reform- oder Entwicklungsprozess<br />

bieten <strong>Evaluation</strong>ssysteme:<br />

eine Kommunikationsplattform<br />

ein Zielführungssystem <strong>und</strong><br />

ein Integrationsmedium für die Konzertierung der Bemühungen aller<br />

Strukturebenen<br />

4. Methodenflexibilitätsqualität: Die steigende wechselseitige Kooperationsfähigkeit eröffnet<br />

methodisch neue Unterstützungsmöglichkeiten durch eine Ausrichtung der Methodik an<br />

camz2003evaluation_service.docx Seite 28 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

übergeordneten, phasenspezifischen <strong>und</strong> situativen Entscheidungsbedürfnissen des Entwicklungsprojektes:<br />

Methoden zur Erfassung übergeordneter <strong>und</strong> nachhaltiger Gestaltungswirkungen<br />

Methoden zur Erfassung phasenspezifischer Teilwirkungen<br />

Methoden zur Erfassung situativer Entscheidungsbedingungen <strong>und</strong> -alternativen<br />

5. Systemintegrationsqualität: <strong>Evaluation</strong>ssysteme müssen geeignet sein, einen weiten pädagogisch-sozialen<br />

Ansatz <strong>und</strong> damit das relevante Umfeld der Schulen <strong>und</strong> ihrer Familien zu<br />

erfassen. Gute <strong>Evaluation</strong> <strong>und</strong> <strong>Evaluation</strong>sforschung ist deshalb gekennzeichnet durch:<br />

Transdisziplinarität<br />

ein ergebnisorientiertes Management<br />

Bestärkung <strong>und</strong> Unterstützung der Gestaltungsträger<br />

Integration aller Gestaltungsakteure<br />

praxisorientierte, systemische Prozessmodellierung<br />

kulturelle Kompetenz in der <strong>Evaluation</strong>skommunikation <strong>und</strong> durch<br />

Leitbilder, die geeignet sind, unterschiedliche <strong>Evaluation</strong>sansätze zu vereinigen<br />

6. Theoriequalität: Zwischen Gestaltungsprojekt <strong>und</strong> <strong>Evaluation</strong>ssystem muss es nicht nur eine<br />

instrumentell-technische, sondern auch eine theoretische, kulturell-strukturelle Koppelung<br />

geben:<br />

erstens bedarf es der paradigmatischen Verwandtschaft zwischen Gestaltungsprojektansatz<br />

<strong>und</strong> <strong>Evaluation</strong>sansatz<br />

zweitens muss das Gestaltungsvorhaben einem State-of-the-art-Wirkungsmodell des<br />

Gestaltungsfeldes folgen <strong>und</strong><br />

drittens muss das <strong>Evaluation</strong>ssystem zur Erfassung der tatsächlich eintretenden Wirkungen<br />

entsprechend diesem Wirkungsmodell geeignet sein – ökonomisch wie methodisch-instrumentell<br />

7. Konsultationsqualität: Zusätzlich braucht es eine neue Art Lieferanten-K<strong>und</strong>en-Beziehung<br />

zwischen <strong>Evaluation</strong>sobjekt <strong>und</strong> Evaluatoren mit folgenden Kennzeichen:<br />

auf Seiten der Evaluatoren steht die "dienende" Funktion der <strong>Evaluation</strong> im Vordergr<strong>und</strong>:<br />

<strong>Evaluation</strong>sforschung als Serviceprozess für den Kernprozess der Systemgestaltung;<br />

dazu muss das <strong>Evaluation</strong>ssystem über ausreichende Feldkompetenz verfügen<br />

auf Seiten des Gestaltungssystems muss eine ausreichende <strong>Evaluation</strong>sforschungskompetenz<br />

zum integraler Bestandteil der Systemgestaltungskompetenz werden<br />

Bezogen auf schulische Reformvorhaben bestimmen diese sieben Beziehungsmerkmale zwischen<br />

<strong>Evaluation</strong>sforschung <strong>und</strong> Reformvorhaben zusammen den Erfolg sowohl der Wandlungsprozesse<br />

wie auch seiner Ergebnisse im Hinblick auf die gemeinsamen Ziele aller Beteiligten,<br />

die professionelle Entwicklung der Lehrenden, der Steigerung der Schülerleistung <strong>und</strong><br />

dem Engagement der Eltern. Durch die Integration von <strong>Evaluation</strong> in die Gestaltungsplanung<br />

wurde überdies die Kostenproblematik (große <strong>Evaluation</strong>en sind sehr teuer) in eine Gewinnoption<br />

verwandelt: <strong>Evaluation</strong>en sind nicht mehr nur teuer, sondern helfen sogar den Entwicklungsprozess<br />

effektiver zu gestalten.<br />

camz2003evaluation_service.docx Seite 29 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Folgt man dieser Logik, dürfte sich der aktuelle Diskurs, ja Disput um <strong>Evaluation</strong>, <strong>Evaluation</strong>sansätze<br />

<strong>und</strong> Forschungsmethoden der <strong>Evaluation</strong> eigentlich nur noch um die notwendigen<br />

Kompetenzen, also um die Frage der Aus- <strong>und</strong> Weiterbildung von EvaluatorInnen drehen.<br />

Dass er dies nur erst in zumeist erst in Ansätzen tut <strong>und</strong> dies auch noch begrenzt auf auch sozialwissenschaftliche<br />

Aspekte, verweist auf sehr viel mehr als auf ein nachholendes Kompetenzgerangel<br />

unter den verschiedenen Bildungsprofessionen <strong>und</strong> Sozialforschungsschulen.<br />

Dieser Umstand verweist auf die Notwendigkeit zur Überwindung eines uralten weltanschaulichen<br />

Streits zwischen Schrift- <strong>und</strong> Tatgelehrten: Was war am Anfang, die Interpretation, die<br />

Bewertung (das Wort) oder die Intervention, die Entwicklungsarbeit (die Tat)?<br />

camz2003evaluation_service.docx Seite 30 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Dazu eine frühmoderne Bekenntnislyrik:<br />

"Geschrieben steht: »Im Anfang war das Wort!«<br />

Hier stock ich schon! Wer hilft mir weiter fort?<br />

Ich kann das Wort so hoch unmöglich schätzen,<br />

Ich muss es anders übersetzen,<br />

Wenn ich vom Geiste recht erleuchtet bin.<br />

Geschrieben steht: Im Anfang war der Sinn.<br />

Bedenke wohl die erste Zeile,<br />

Dass deine Feder sich nicht übereile!<br />

Ist es der Sinn, der alles wirkt <strong>und</strong> schafft?<br />

Es sollte stehn: Im Anfang war die Kraft!<br />

Doch, auch indem ich dieses niederschreibe,<br />

Schon warnt mich was, dass ich dabei nicht bleibe.<br />

Mir hilft der Geist! Auf einmal seh ich Rat<br />

Und schreib getrost: Im Anfang war die Tat!"<br />

Goethe, Faust I, Der Tragödie erster Teil, Studierzimmer, V.<br />

Neue produktive <strong>Evaluation</strong> folgt der Faustischen Logik: Zuerst kommt die Tat, bewegt von<br />

einem kraftvollen Motiv, getragen von einem weit reichenden Sinn – diese gilt es allerdings<br />

auch per 'Wort' (Zahlen, Daten, Fakten) zu verbinden, denk-, kommunizier- <strong>und</strong> verhandelbar<br />

zu machen. Und gerade weil das Wort als Medium die Botschaften von Tat, Motiv <strong>und</strong> Sinn<br />

ebenso trägt wie prägt, muss zum Qualifikationsprofil der EvaluatorInnen, zu den vielen Methoden<br />

noch eine Kunst hinzugefügt werden, die Fähigkeit zur ästhetischen Gestaltung der<br />

strategischen <strong>und</strong> operativen <strong>Evaluation</strong>skommunikation <strong>und</strong> <strong>Evaluation</strong>skommentare. Sollen<br />

diese angenommen <strong>und</strong> wirksam werden, müssen sie dem Kunstwerk von Goethe ähneln, das<br />

diesen Gedanken immerhin schon r<strong>und</strong> zweih<strong>und</strong>ert Jahre lebendig hielt.<br />

camz2003evaluation_service.docx Seite 31 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Literaturverzeichnis<br />

Ackermann, Heike / Wissinger, Jochen (Hrsg.): Schulqualität managen. Von der Verwaltung der<br />

Schule zur Entwicklung von Schulqualität. Neuwied: Luchterhand, 1998<br />

Allgäuer, Ruth: <strong>Evaluation</strong> macht uns stark! Zur Unverzichtbarkeit von Praxisforschung im schulischen<br />

Alltag. Zweite Auflage. Frankfurt am Main,1998 [1997]<br />

Altrichter, Herbert / Pechar, Hans / Schratz, Michael (Hrsg.): Hochschulen auf dem Prüfstand. Was<br />

bringt <strong>Evaluation</strong> für die Entwicklung von <strong>Universität</strong>en <strong>und</strong> Fachhochschulen? Innsbruck: Studienverlag,<br />

1997<br />

Altrichter, Herbert / Schley, Wilfried / Schratz, Michael: Handbuch zur Schulentwicklung. Innsbruck:<br />

Studienverlag, 1998<br />

Argyris, Christ / Schön, Donald A.: Organizational Learning II. Theory, Method, and Practice. Reading,<br />

Massachusetts: Addison-Wesley, 1996<br />

Aufenanger, Stefan: Gr<strong>und</strong>schule <strong>und</strong> Computer. Internet-URL: www.learnline.nrw.de/angebote/berichtsarchiv/pdf/ar0004.pdf,<br />

1998 [28. Dezember 2002]<br />

Bamberg, Sebastian / Gumbl, Harald / Schmidt, Peter: Rational Choice <strong>und</strong> theoriegeleitete <strong>Evaluation</strong>sforschung.<br />

Am Beispiel der Verhaltenswirksamkeit verkehrspolitischer Maßnahmen. Opladen:<br />

Leske + Budrich, 2000<br />

Bastian, Johannes (Hrsg.): Pädagogische Schulentwicklung, Schulprogramm <strong>und</strong> <strong>Evaluation</strong>.<br />

Hamburg: Bergmann + Helbig, 1998<br />

Baumert, Jürgen (Hrsg.): PISA 2000. Basiskompetenzen von Schülerinnen <strong>und</strong> Schülern im internationalen<br />

Vergleich. Opladen: Leske + Budrich, 2001<br />

Baumert, Jürgen: <strong>Evaluation</strong>smaßnahmen im Bildungsbereich. Eine kritische Sicht auf mögliche Zugänge.<br />

OFEB-Newsletter Heft 2 (2001), 3-14<br />

BDS Berufsverband Deutscher Soziologinnen <strong>und</strong> Soziologen (Hrsg.): <strong>Evaluation</strong>. Themenheft. Sozialwissenschaft<br />

<strong>und</strong> Berufspraxis (SUB), 24. Jg. (2001) H. 2. Internet-URL: http://userpage.fuberlin.de/~ifs/bds/downloads.html,<br />

2001 [28. Dezember 2002]<br />

Beck, Manfred: <strong>Evaluation</strong> als Maßnahme der Qualitätssicherung. Tübingen: DGVT-Verlag, 1998<br />

Beywl, Wolfgang: Zur Weiterentwicklung der <strong>Evaluation</strong>smethodologie. Gr<strong>und</strong>legung, Konzeption<br />

<strong>und</strong> Anwendung eines Modells der responsiven <strong>Evaluation</strong>. Köln: Univation, 1998 [Reprint der 1.<br />

Auflage von 1988 Frankfurt am Main: Peter Lang, 1988]<br />

Beywl, Wolfgang / Schobert, Berthold: <strong>Evaluation</strong> - Controlling - Qualitätsmanagement in der betrieblichen<br />

Weiterbildung. Kommentierte Auswahlbibliographie. Bielefeld: Bertelsmann, 2000<br />

Beywl, Wolfgang: Konfliktfähigkeit der <strong>Evaluation</strong> <strong>und</strong> die 'Standards für <strong>Evaluation</strong>en'. Sozialwissenschaft<br />

<strong>und</strong> Berufspraxis (SUB), 24. Jg. (2001) H. 2, 151-164. Internet-URL: http://userpage.fuberlin.de/~ifs/bds/downloads/2001-2-beywl.pdf,<br />

2001 [28. Dezember 2002]<br />

Beywl, Wolfgang (Moderation): Die Perspektiven des Wirksamkeitsdialoges. In ders.: <strong>Evaluation</strong> im<br />

Alltag. Jugendverbände untersuchen ihre Wirkung. Münster: Votum, 2001, 156-175<br />

Beywl, Wolfgang u.a. (Hrsg.): <strong>Evaluation</strong> im Alltag. Jugendverbände untersuchen ihre Wirkung.<br />

Münster: Votum, 2001<br />

Bloom, Benjamin S. / Hastings, J. Thomas / Madaus, George F.: Handbook on Formative and Summative<br />

<strong>Evaluation</strong> of Student Learning. New York: McGraw-Hill, 1971<br />

BMBWK B<strong>und</strong>esministerium für Bildung, Wissenschaft <strong>und</strong> Kultur (AT): System-Monitoring-<br />

Homepage. Internet-URL: www.system-monitoring.at, 2000 [28. Dezember 2002]<br />

BMFSFJ B<strong>und</strong>esministerium für Familie, Senioren, Frauen <strong>und</strong> Jugend (DE): QS-Kompendium. Gesamtausgabe<br />

aller Qs-Hefte (1995-2001). Stichwort-Datenbank, Glossar, Register (CD-Rom). Berlin,<br />

2002<br />

Bösenberg, Dirk / Metzen, Heinz: Lean Management. Vorsprung durch schlanke Konzepte. Fünfte<br />

Auflage. Landsberg am Lech: Moderne Industrie, 1994 [1992]<br />

camz2003evaluation_service.docx Seite 32 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Bogner, Andree / Boscher, Tamara: Schulinspektion in England - Erfahrungen aus einem Studienprojekt.<br />

In: Carle, Ursula / Buchen, Sylvia (Hrsg.): Jahrbuch für Lehrerforschung. Band 2. Weinheim:<br />

Juventa, 1999, 211-220<br />

Bortz, Jürgen / Döring, Nicola: Forschungsmethoden <strong>und</strong> <strong>Evaluation</strong> für Human- <strong>und</strong> Sozialwissenschaften.<br />

3. Auflage. Berlin: Springer, 2002 [1984]<br />

Bonsen, Martin / Killus, Dagmar: Hilfen für Schüler in schwierigen Problemlagen. Externe <strong>Evaluation</strong><br />

der Einrichtung Regionaler Beratungs- <strong>und</strong> Unterstützungsstellen in Hamburg. Dortm<strong>und</strong>: IFS-<br />

Verlag, 2000<br />

Buhren, Claus G. / Killus, Dagmar / Müller, Sabine: Qualitätsindikatoren für Schule <strong>und</strong> Unterricht -<br />

Ein Arbeitsbuch für Kollegien <strong>und</strong> Schulleitungen. Dortm<strong>und</strong>: IFS-Verlag, 1999<br />

Buhren, Claus G./ Killus, D. / Müller, S.: Wege <strong>und</strong> Methoden der Selbstevaluation. Ein praktischer<br />

Leitfaden für Schulen. Dortm<strong>und</strong>: IFS-Verlag, 1998<br />

Buhren, Claus G. / Lindau-Bank, Detlev u. Müller, Sabine: Lernkultur <strong>und</strong> Schulentwicklung. Dortm<strong>und</strong>:<br />

IFS-Verlag, 1997<br />

Burkhard, Christoph: Externe <strong>Evaluation</strong> - Ein Beitrag zur Qualitätsentwicklung von Einzelschulen?<br />

Soest: Landesinstitut für Schule <strong>und</strong> Weiterbildung, 1995<br />

Burkhard, Christoph: Schulentwicklung durch <strong>Evaluation</strong>? Handlungsmöglichkeiten der Schulaufsicht<br />

bei der Qualitätsentwicklung. Frankfurt am Main: Peter Lang, 1998<br />

Burkard, Christoph: Wie Selbstevaluation gelingen kann. In: Carle, Ursula / Buchen, Sylvia (Hrsg.):<br />

Jahrbuch für Lehrerforschung. Band II. Weinheim: Juventa, 1999, 175-190<br />

Burkhard, Christoph: Praxishandbuch <strong>Evaluation</strong> in der Schule. Berlin: Cornelsen-Sciptor, 2000<br />

Campbell, Donald T.: Reforms as experiments. American Psychologist, 24 (April) 1969, 409-429.<br />

(Reprint in Campbell 1988), 261 -289<br />

Campbell, Donald T.: Methodology and Epistemology for Social Science. Selected Papers (1956 –<br />

1986) edited by E. Samual Overman. Chicago: University of Chicago Press, 1988<br />

Caracelli, Valerie J.: Methodology: Building Bridges to Knowledge. In: Stockmann, Reinhard (Hrsg.):<br />

<strong>Evaluation</strong>sforschung. Gr<strong>und</strong>lagen <strong>und</strong> ausgewählte Forschungsfelder. Opladen: Leske + Budrich,<br />

2000, 165-192<br />

Carle, Ursula: Mein Lehrplan sind die Kinder. Eine Analyse der Planungstätigkeit von Lehrerinnen<br />

<strong>und</strong> Lehrern an Förderschulen. Weinheim: Deutscher Studienverlag, 1995<br />

Carle, Ursula: Was bewegt die Schule. Internationale Bilanz, praktische Erfahrungen, neue systemische<br />

Möglichkeiten für Schulreform, Lehrerbildung, Schulentwicklung <strong>und</strong> Qualitätssteigerung.<br />

Baltmannsweiler: Schneider, 2000<br />

Carle, Ursula: Ausgangslage der Schulen im Schulversuch Veränderte Schuleingangsphase in Thüringen.<br />

Erster Zwischenbericht der wissenschaftlichen Begleitung. <strong>Bremen</strong>: <strong>Universität</strong> <strong>Bremen</strong> FB<br />

12, Gr<strong>und</strong>schulpädagogik. Internet-URL: www.gr<strong>und</strong>schulpaedagogik.uni-bremen.de/archiv/, 2001<br />

[28. Dezember 2002]<br />

Carle, Ursula (2002): Systemische Schulentwicklungsforschung am Beispiel des Schulversuchs „Veränderte<br />

Schuleingangsphase an Thüringer Gr<strong>und</strong>schulen“. In: Hanns Petillon (Hrsg.): Individuelles<br />

<strong>und</strong> soziales Lernen - Kindperspektive <strong>und</strong> pädagogische Konzepte. Beiträge zur 9. Jahrestagung<br />

der Kommission "Gr<strong>und</strong>schulforschung <strong>und</strong> Pädagogik der Primarstufe" der Deutschen Gesellschaft<br />

für Pädagogik (DGfE), Landau, Oktober 2000. Jahrbuch Lehrerforschung, 5. Opladen: Leske<br />

<strong>und</strong> Budrich (Jahrbuch Gr<strong>und</strong>schulforschung Bd. 5., 5), S. 209–216 [Kurzbeleg: Carle 2002].<br />

Carle, Ursula / Berthold, Barbara / Klose, Sabine / Henschel, Martina: Zweiter Zwischenbericht der<br />

wissenschaftlichen Begleitung: Veränderte Schuleingangsphase in Thüringen. <strong>Bremen</strong>: <strong>Universität</strong><br />

<strong>Bremen</strong> FB 12, Gr<strong>und</strong>schulpädagogik. Internet-URL: www.gr<strong>und</strong>schulpaedagogik.unibremen.de/archiv/,<br />

2001 [28. Dezember 2002]<br />

Carle, Ursula / Buchen, Sylvia (Hrsg.): Jahrbuch für Lehrerforschung. Band 2. Weinheim: Juventa,<br />

1999<br />

camz2003evaluation_service.docx Seite 33 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Chen, Huey-Tsyh: Theory-Driven <strong>Evaluation</strong>s - Second Edition, Preface by Peter H. Rossi. Thousand<br />

Oaks, CA: Sage, 1999 [1990]<br />

Cronbach, Lee J.: Designing <strong>Evaluation</strong>s of Educational and Social Programs. San Francisco: Jossey-<br />

Bass, 1982<br />

Dalin, Per: Developing the Twenty-First Century School: A Challenge to Reformers. In: Hargreaves,<br />

Andy et al. (Eds.): International Handbook of Educational Change. Dordrecht / NL: Kluwer, 1998,<br />

1059-1073<br />

Dalin, Per: <strong>Evaluation</strong> als Instrument von Schulentwicklung in Norwegen. In: Landesinstitut für Schule<br />

<strong>und</strong> Weiterbildung (Hrsg.): Schulentwicklung <strong>und</strong> Qualitätssicherung in Norwegen. Bönen /<br />

Westfalen: Verlag für Schule <strong>und</strong> Weiterbildung, 1995, 13-17<br />

DeGEval – Gesellschaft für <strong>Evaluation</strong> (Hrsg.) (2004): Empfehlungen zur Anwendung der Standards<br />

für <strong>Evaluation</strong> im Handlungsfeld der Selbstevaluation. 1. Aufl. Alfter: DeGEval – Gesellschaft für<br />

<strong>Evaluation</strong> e. V. Online verfügbar unter www.alt.degeval.de/calimero/tools/proxy.php?id=24059,<br />

zuletzt geprüft am 20120720<br />

DeGEval – Gesellschaft für <strong>Evaluation</strong> (Hrsg.) (2002): Standards für <strong>Evaluation</strong>. auf der Gr<strong>und</strong>lage<br />

der Standards des US-amerikanischen Joint Committee on Standards for Educational <strong>Evaluation</strong><br />

(2000). Unter Mitarbeit von Wolfgang Beywl, Dieter Brauns, Hansjörg Drewello, Andreas Hellmann,<br />

Thomas Kuby, Sabine Müller et al. Mainz: DeGEval – Gesellschaft für <strong>Evaluation</strong> e. V. Online<br />

verfügbar unter www.alt.degeval.de/calimero/tools/proxy.php?id=24065, zuletzt 20120720<br />

Demorgon, Jacques u.a.: Europakompetenz lernen. Interkulturelle Ausbildung <strong>und</strong> <strong>Evaluation</strong>. Frankfurt<br />

am Main: Campus, 2001<br />

Ditton, Hartmut (2002): Lehrkräfte <strong>und</strong> Unterricht aus Schülersicht. Ergebnisse einer Untersuchung<br />

im Fach Mathematik. In: Zeitschrift für Pädagogik (ZfP) 48 (2), S. 262–286. Online verfügbar unter<br />

http://www.pedocs.de/volltexte/2011/3833/pdf/ZfPaed_2_2002_Ditton_Lehrkraefte_<strong>und</strong>_<br />

Unterricht_aus_Schuelersicht_D_A.pdf, zuletzt geprüft am 20120720 [Kurzbeleg: Ditton 2002].<br />

Ditton, Hartmut (1998): Mehrebenenanalyse: Gr<strong>und</strong>lagen <strong>und</strong> Anwendungen des Hierarchisch-<br />

Linearen Modells. Weinheim: Juventa [Kurzbeleg: Ditton 1998].<br />

Döbrich, Peter: Aspekte der Qualitätssicherung im schottischen Schulwesen. In: Carle, Ursula / Buchen,<br />

Sylvia (Hrsg.): Jahrbuch für Lehrerforschung. Band 2. Weinheim: Juventa, 1999, 155-174<br />

Donaldson, Stewart I. / Scriven, Michael (Eds.): Evaluating Social Programs and Problems. Mahawah,<br />

NJ (USA): Lawrence Erlbaum, 2003<br />

Faßmann, Hendrik: Forschungspraktische Probleme der <strong>Evaluation</strong> von Programmen im Bereich der<br />

Rehabilitation. Sozialwissenschaft <strong>und</strong> Berufspraxis (SUB), 24. Jg. (2001) H. 2, 133-148. Internet-<br />

URL: http://userpage.fu-berlin.de/~ifs/bds/downloads/2001-2-fassmann.pdf, 2001 [28. Dezember<br />

2002]<br />

Fend, Helmut: Qualität im Bildungswesen. Schulforschung zu Systembedingungen, Schulprofilen <strong>und</strong><br />

Lehrerleistung. Weinheim: Juventa, 1998<br />

Fetterman, David M. / Kaftarian, Shakeh J. / Wandersman, Abraham (Eds.): Empowerment <strong>Evaluation</strong>.<br />

Knowledge and Tools for Self-Assessment and Accountability. Thousand Oaks, CA, USA:<br />

Sage 1996<br />

Fischer, Dietlind / Jacobi, Juliane / Koch-Priewe, Barbara (Hrsg.): Schulentwicklung geht von Frauen<br />

aus. Zur Beteiligung von Lehrerinnen an Schulreformen aus professionsgeschichtlicher, biographischer,<br />

religionspädagogischer <strong>und</strong> fortbildungsdidaktischer Perspektive. Weinheim: Deutscher Studienverlag,<br />

1996<br />

Flitner, Elisabeth: Zwischen Pädagogik <strong>und</strong> Bildungsökonomie: Schul-<strong>Evaluation</strong> in Frankreich. In:<br />

Carle, Ursula / Buchen, Sylvia (Hrsg.): Jahrbuch für Lehrerforschung. Band 2. München: Juventa,<br />

1999,191-210<br />

Giddens, Anthony: Die Konstitution der Gesellschaft. Gr<strong>und</strong>züge einer Theorie der Strukturierung.<br />

Dritte Auflage. Frankfurt / Main: Campus, 1997 [1995; engl. Orig. 1984: The Constitution of Society.<br />

Outline of the Theory of Structuration)<br />

camz2003evaluation_service.docx Seite 34 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Friebertshäuser, Barbara / Prengel, Annedore (Hrsg.): Handbuch Qualitative Forschungsmethoden in<br />

der Erziehungswissenschaft. Weinheim: Juventa, 1997<br />

GAO USA General Accounting Office / Program <strong>Evaluation</strong> and Methodology Division: Designing<br />

<strong>Evaluation</strong>. Washington, DC: GAO. Internet-URL: www.gao.gov/special.pubs/pe1014.pdf, 1991<br />

[28. Dezember 2002]<br />

GAO USA General Accounting Office: Special Publications: <strong>Evaluation</strong> Research and Methodology.<br />

Internet-URL: www.gao.gov/special.pubs/erm.html, 2002 [28. Dezember 2002]<br />

Guba, Egon G. / Lincoln, Yvonna S.: Fourth Generation <strong>Evaluation</strong>. Thousand Oaks, CA: Sage, 1989<br />

Hacker, Winfried. Arbeitspsychologie. Psychische Regulation von Arbeitstätigkeiten. Berlin:<br />

Deutscher Verlag der Wissenschaften, 1986<br />

Hargreaves, Andy: The Emotions of Teaching and Educational Change. In: Hargreaves, Andy et al.<br />

(Eds.): International Handbook of Educational Change. Dordrecht / NL: Kluwer, 1998, 558-575<br />

Hargreaves, Andy / Fullan, Michael G. (Eds): Understanding Teacher Development – Second Edition.<br />

New York: Teacher College Press, 1993 [1992]<br />

Hargreaves, Andy / Liebermann, Ann / Fullan, Michael / Hopkins, David (Eds.) (1998): International<br />

Handbook of Educational Change - Part One and Two (Kluwer International Handbook of Education,<br />

Volume 5). Dordrecht: Kluwer Academic Publisher<br />

Heiner, Maja (Hrsg.): Experimentierende <strong>Evaluation</strong>. Ansätze zur Entwicklung lernender Organisationen.<br />

München: Juventa, 1998<br />

Henninger, Michael: <strong>Evaluation</strong>. Diagnose oder Therapie? In: Harteis, Christian / Heid, Helmut /<br />

Kraft, Susanne: Kompendium Weiterbildung - Aspekte <strong>und</strong> Perspektiven betrieblicher Personal<strong>und</strong><br />

Organisationsentwicklung. Opladen: Leske + Budrich, 2000, 249-260<br />

Herrmann, Joachim / Höfner, Christoph: <strong>Evaluation</strong> in der Schule - Unterrichtsevaluation. Berichte<br />

<strong>und</strong> Materialien aus der Praxis.. Gütersloh: Bertelsmann Stiftung, 1999<br />

Hobbs, Peter: Professionelles Projektmanagement. Aus dem Englischen übertragen von Anette Böckler.<br />

Zweite Auflage. Landsberg am Lech: MVG, 2001 [2000]<br />

Holtappels, Heinz Günter: Schulqualität durch Schulentwicklung <strong>und</strong> <strong>Evaluation</strong>. Neue Konzepte –<br />

Strategien – Instrumente. Neuwied: Luchterhand, 2003 (Stand Dezember 2002: in Vorbereitung)<br />

House, Ernest R.: Values in <strong>Evaluation</strong> and Social Research. Thousand Oaks, CA: Corwin Press, 1999<br />

House, Ernest R.: Schools for Sale: Why Free Market Policies Won't Improve America's Schools, and<br />

What Will. New York: Teachers College Press, 1998<br />

House, Ernest R.: Professional <strong>Evaluation</strong>: Social Impact and Political Consequences. Thousand Oaks,<br />

CA: Sage, 1993<br />

House, Ernest R.: New Directions in Educational <strong>Evaluation</strong>. London: Taylor & Francis, 1985<br />

House, Ernest R.: School <strong>Evaluation</strong>: The Politics and Process. Richmond, CA: McCutchan, 1973<br />

House, Ernest R. / McQuillan, Patrick J.: Three Perspectives on School Reform. In: Hargreaves, Andy<br />

et al. (Eds.): International Handbook of Educational Change. Part One. Dordrecht / NL: Kluwer,<br />

1998, 198-213<br />

Institut für Schulentwicklungsforschung (Hrsg.): IFS-Schulbarometer. Ein mehrperspektivisches Instrument<br />

zur Erfassung von Schulwirklichkeit. Dortm<strong>und</strong>: IFS-Verlag, 1996<br />

Irle, Günter / Windisch, Matthias: Forschungstransfer In die Schulpraxis. Was wissenschaftliche Begleituntersuchungen<br />

bewirken. Weinheim: Deutscher Studienverlag, 1989<br />

Isaac, Stephen / Michael, William B.: Handbook in Research and <strong>Evaluation</strong>. A Collection of Principles,<br />

Methods, and Strategies Useful in the Planning, Design, and <strong>Evaluation</strong> of Studies in Education<br />

and the Behavioral Sciences – Third Edition. San Diego, CA: EdITS Educational and Industrial<br />

Testing Services, 1997 [1971]<br />

Joint Committee on Standards for Educational <strong>Evaluation</strong> / Gullickson, Arlen R: The Student <strong>Evaluation</strong><br />

Standards. How to Improve <strong>Evaluation</strong>s of Students. Thousand Oaks, CA: Corwin Press, 2003<br />

camz2003evaluation_service.docx Seite 35 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Joint Committee on Standards for Educational <strong>Evaluation</strong>: What the Program <strong>Evaluation</strong> Standards<br />

say about Designing <strong>Evaluation</strong>s. Internet-URL: www.wmich.edu/evalctr/jc/DesigningEval.htm,<br />

1994 [28. Dezember 2002]<br />

Joint Committee on Standards for Educational <strong>Evaluation</strong>: Homepage of 'The Student <strong>Evaluation</strong><br />

Standards'. Internet-URL: http://ec.wmich.edu/jointcomm/SES/, 2002 [28. Dezember 2002]<br />

Joint Committee on Standards for Educational <strong>Evaluation</strong>: Homepage: The <strong>Evaluation</strong> Center. Internet-URL:<br />

www.wmich.edu/evalctr/index.html, 2002 [28. Dezember 2002]<br />

Joint Committee on Standards for Educational <strong>Evaluation</strong> / Sanders, James R. (Hrsg.): Handbuch der<br />

<strong>Evaluation</strong>sstandards. Zweite Auflage. Opladen: Leske + Budrich, 2000 [1999]<br />

Journal für Schulentwicklung: Externe <strong>Evaluation</strong>. Themenheft. Journal für Schulentwicklung, 5. Jg.<br />

(2001) H. 2<br />

Kellaghan, Thomas / Stufflebeam, Daniel L. (Ed.): International Handbook of Educational <strong>Evaluation</strong>.<br />

Dordrecht: Kluwer Academic, 2003<br />

Klemm, Klaus / Schratz, Michael (Redaktion): Externe <strong>Evaluation</strong>. Themenheft. Journal für Schulentwicklung,<br />

5. Jg. (2001) H. 2<br />

Knox, Alan B.: <strong>Evaluation</strong> for Continuing Education. A Comprehensive Guide to Success. San Francisco,<br />

CA: Jossey-Bass, 2002<br />

Kordes, Hagen: <strong>Evaluation</strong>. Lemma in: Haft, Henning / Kordes, Hagen (Hrsg.): Enzyklopädie Erziehungswissenschaft,<br />

Band 2, Methoden der Erziehungs- <strong>und</strong> Bildungsforschung. Stuttgart: Klett,<br />

1995, 359 – 366<br />

Kromrey, Helmut: Empirische Sozialforschung. Modelle <strong>und</strong> Methoden der Datenerhebung <strong>und</strong> Datenauswertung.<br />

Unter Mitarbeit von Rainer Ollmann. Vierte Auflage. Opladen: Leske + Budrich,<br />

1990 [1980]<br />

Kromrey, Helmut: <strong>Evaluation</strong> – ein vielschichtiges Konzept. Begriff <strong>und</strong> Methodik von Evaluierung<br />

<strong>und</strong> <strong>Evaluation</strong>sforschung. Empfehlungen für die Praxis. Sozialwissenschaft <strong>und</strong> Berufspraxis<br />

(SUB), 24. Jg. (2001) H. 2, 105-131. Internet-URL: http://userpage.fuberlin.de/~ifs/bds/downloads/2001-2-kromrey.pdf,<br />

2001<br />

Kromrey, Helmut: Fallstricke bei der Implementations- <strong>und</strong> Wirkungsforschung sowie methodische<br />

Alternativen. In: Müller-Kohlenberg, Hildegard / Münstermann, Klaus (Hrsg.): Qualität von Humandienstleistungen.<br />

<strong>Evaluation</strong> <strong>und</strong> Qualitätsmanagement in Sozialer Arbeit <strong>und</strong> Ges<strong>und</strong>heitswesen.<br />

Opladen: Leske + Budrich, 2000. Zusatzquelle: Internet-URL: http://userpage.fuberlin.de/~ifs/bds/downloads/eval_humandl.pdf<br />

Kuhn, Thomas S.: Die Struktur der wissenschaftlichen Revolution. Zweite revidierte Auflage. Frankfurt<br />

am Main: Suhrkamp, 1976 [1973; engl. Orig. 1962]<br />

Kuhn, Thomas S.: Die Entstehung des Neuen. Studien zur Struktur der Wissenschaftsgeschichte. Herausgegeben<br />

von Lorenz Krüger. Fünfte Auflage. Frankfurt am Main: Suhrkamp, 1997 [1978; engl.<br />

Orig. 1977]<br />

Lamnek, Siegfried: Qualitative Sozialforschung. Zwei Bände. Dritte Auflage. Weinheim: Beltz, 1995<br />

[1989]<br />

Lander, Rolf / Ekholm, Mats: School <strong>Evaluation</strong> and Improvement: A Scandinavian View. In: Hargreaves,<br />

Andy et al. (Eds.): International Handbook of Educational Change. Dordrecht/NL: Kluwer,<br />

1998, 1119-1134<br />

Lee, Barbara: Theories of <strong>Evaluation</strong>. In: Stockmann, Reinhard (Hrsg.): <strong>Evaluation</strong>sforschung. Gr<strong>und</strong>lagen<br />

<strong>und</strong> ausgewählte Forschungsfelder. Opladen: Leske + Budrich, 2000, 127-164<br />

Leeuw, Frans L.: <strong>Evaluation</strong> in Europe. In: Stockmann, Reinhard (Hrsg.): <strong>Evaluation</strong>sforschung.<br />

Gr<strong>und</strong>lagen <strong>und</strong> ausgewählte Forschungsfelder. Opladen: Leske + Budrich, 2000, 57-76<br />

Liebermann, Ann: Introduction. The Growth of Educational Change as a Field of Study: Understanding<br />

its Roots and Branches. In: Hargreaves, Andy et al. (Eds.): International Handbook of Educational<br />

Change. Dordrecht / NL: Kluwer, 1998, 710-729<br />

McEwan, Patrick J.: Primay School Reform for Rural Development: An <strong>Evaluation</strong> of Colombia New<br />

Schools. Washington DC: Inter-American Development Bank-IDB, 1995<br />

camz2003evaluation_service.docx Seite 36 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Mertens, Donna M.: Institutionalizing <strong>Evaluation</strong> in the United States of America. In: Stockmann,<br />

Reinhard (Hrsg.): <strong>Evaluation</strong>sforschung. Gr<strong>und</strong>lagen <strong>und</strong> ausgewählte Forschungsfelder. Opladen:<br />

Leske + Budrich, 2000, 41-56<br />

Meyer, Carsten: Umwelterziehung im authentischen Handlungskontext. Zur theoretischen F<strong>und</strong>ierung<br />

<strong>und</strong> <strong>Evaluation</strong> Regionalen Lernens. Frankfurt / Main: Lang, 1996<br />

Miles, Matthew B.: Finding Keys to School change: A 40-Year Odyssey. In: Hargreaves, Andy et al.<br />

(Eds.): International Handbook of Educational Change. Dordrecht / NL: Kluwer, 1998, 37-69<br />

Ministerium für Schule, Wissenschaft <strong>und</strong> Forschung NRW / Landesinstitut für Schule <strong>und</strong> Weiterbildung<br />

(Hrsg.): Schulprogrammarbeit in NRW. Ergebnisse der wissenschaftlichen <strong>Evaluation</strong>sstudien.<br />

Bönen / Westfalen: Kettler, 2002<br />

Müller-Kohlenberg, Hildegard / Münstermann, Klaus (Hrsg.): Qualität von Humandienstleistungen.<br />

<strong>Evaluation</strong> <strong>und</strong> Qualitätsmanagement in Sozialer Arbeit <strong>und</strong> Ges<strong>und</strong>heitswesen. Opladen: Leske +<br />

Budrich, 2000<br />

Nauck, Joachim: "Neustrukturierung des Schulanfangs" als Schulversuch. In: Kiper, Hanna / Nauck,<br />

Joachim (Hrsg.): Unterrichten im ersten Schuljahr. Baltmannsweiler: Schneider, 1999a, 228-248<br />

Nauck, Joachim: Diagnostische Aufgaben in einer Gr<strong>und</strong>schule für alle Kinder. In: Kiper, Hanna /<br />

Nauck, Joachim (Hrsg.): Unterrichten im ersten Schuljahr. Baltmannsweiler: Schneider Hohengehren,<br />

1999, 49-66<br />

Neul, Wolfgang: Strategien der <strong>Evaluation</strong> von Curricula <strong>und</strong> der Curriculumentwicklung. Stuttgart :<br />

Klett-Cotta, 1977<br />

OECD Organization for Economic Cooperation and Development: Education at a Glance. OECD Indicators<br />

– 2002 Edition. Paris: OECD, 2002. Zusatzquelle: Internet-URL:<br />

www.oecd.org/EN/links_abstract/0,,EN-links_abstract-604-5-no-no-1239-604,00.html, 2002 [28.<br />

Dezember 2002]<br />

OECD Organization for Economic Cooperation and Development: Home: Education Statistics and Indicators.<br />

Internet-URL: www.oecd.org/EN/home/0,,EN-home-604-5-no-no-no-no,00.html, 2002<br />

[28. Dezember 2002]<br />

OECD / UNESCO-UIS UNESCO Institute for Statistics: Teachers for Tomorrow's Schools. Analysis<br />

of the World Education Indicators. Paris: OECD, 2001<br />

Orth, Gerhard: Schulentwicklung in Nordrhein-Westfalen. Internet-URL: www.learnline.nrw.de/angebote/lehrerfortbildung/medienbildung/artikel/orth.pdf,<br />

2002 [28. Dezember 2002]<br />

Patry, Jean-Luc / Thonhauser, Josef: <strong>Evaluation</strong> im Bildungsbereich. Wissenschaft <strong>und</strong> Praxis im Dialog.<br />

Innsbruck: Studienverlag, 1999<br />

Patton, Michael Quinn: Utilization-Focused <strong>Evaluation</strong>. The New Century Text – third Edition.<br />

Thousand Oaks, CA: Sage Publications, 1997 [1986]<br />

Patton, Michael Quinn: Die Entdeckung des Prozessnutzens. Erwünschtes <strong>und</strong> unerwünschtes Lernen<br />

durch <strong>Evaluation</strong>. In: Heiner, Maja (Hrsg.): Experimentierende <strong>Evaluation</strong>. Ansätze zur Entwicklung<br />

lernender Organisationen. München: Juventa, 1998, 55-66<br />

Philipp, Elmar u. Rolff, Hans-Günter: Schulprogramme <strong>und</strong> Leitbilder entwickeln. Ein Arbeitsbuch.<br />

Weinheim: Beltz, 1998<br />

Posch, Peter / Altrichter, Herbert: Möglichkeiten <strong>und</strong> Grenzen der Qualitätsevaluation <strong>und</strong> Qualitätsentwicklung<br />

im Schulwesen. Innsbruck: Studien Verlag , 1999<br />

Reischmann, Jost: Weiterbildungs-<strong>Evaluation</strong>. Lernerfolge messbar machen. Neuwied: Luchterhand,<br />

2003<br />

Rolff, Hans-Günter / Buhren, Claus G. / Lindau-Bank, Detlev: Manual Schulentwicklung. Handlungskonzept<br />

zur pädagogischen Schulentwicklungsberatung (SchuB). Dritte Auflage. Weinheim: Beltz,<br />

2000 [1998]<br />

Ropohl, Günter: Allgemeine Technologie. Eine Systemtheorie der Technik. Zweite Auflage. München:<br />

Hanser, 1999 [1978]<br />

camz2003evaluation_service.docx Seite 37 von 38


Ursula Carle / Heinz Metzen<br />

<strong>Evaluation</strong>sforschung: Entwicklungsservice statt Werkzeugkiste<br />

Rossi, Peter H. / Freeman, Howard E. / Lipsey, Mark W.: <strong>Evaluation</strong>. A Systematic Approach - Sixth<br />

Edition. Thousand Oaks, CA: Sage, 1999 [1985 ohne Lipsey)<br />

Scriven, Michael: The logic of evaluation. Inverness, CA: Edgepress, 1980<br />

Shinkfield, Anthony J. / Stufflebeam, Daniel L.: Teacher <strong>Evaluation</strong> guide to Effective Practice. Dordrecht:<br />

Kluwer Academic, 1996<br />

Stamm, Margret: Qualitätsevaluation <strong>und</strong> Bildungsmanagement im sek<strong>und</strong>ären <strong>und</strong> tertiären Bereich.<br />

Zweite Auflage. Aarau, CH: Sauerländer, 1999 [1998]<br />

Stern, Cornelia / Döbrich, Peter (Hrsg.): Wie gut ist unsere Schule? Selbstevaluation mit Hilfe von<br />

Qualitätsindikatoren. International Network of Innovative School Systems. Dritte Auflage. Gütersloh:<br />

Bertelsmann-Stiftung, 2000 [1999]<br />

Stockmann, Reinhard: <strong>Evaluation</strong> in Deutschland. In: Stockmann, Reinhard (Hrsg.): <strong>Evaluation</strong>sforschung.<br />

Gr<strong>und</strong>lagen <strong>und</strong> ausgewählte Forschungsfelder. Opladen: Leske + Budrich, 2000, 11-40<br />

Stockmann, Reinhard (Hrsg.): <strong>Evaluation</strong>sforschung. Gr<strong>und</strong>lagen <strong>und</strong> ausgewählte Forschungsfelder.<br />

Opladen: Leske + Budrich, 2000<br />

Stufflebeam, Daniel L. / Foley, Walter J. / Gephard, William J. / Guba, Egon G. / Hammond, Robert<br />

L. / Merriman, Howard A. / Provus, Malcom M. (Phi Delta Kappa National Study Committee on<br />

<strong>Evaluation</strong>): Educational <strong>Evaluation</strong> and Decision Making. Itasca, IL: F. E. Peacock, 1971 (Meilenstein<br />

der <strong>Evaluation</strong>smodellierung: CIPP <strong>Evaluation</strong> Model)<br />

Stufflebeam, Daniel L. / Madaus, George F. / Kellaghan, Thomas (Eds.): <strong>Evaluation</strong> Models: Viewpoints<br />

on Educational and Human Services <strong>Evaluation</strong> – Second Edition. Dordrecht: Kluwer Academic,<br />

2001 [1983]<br />

Suchman, Edward A.: Evaluative Research: Principles and Practice in Public Service and Social Action.<br />

New York: Russel Sage Fo<strong>und</strong>ation, 1968<br />

Szaday, Christopher/ Bueler, Xaver / Favre, Bernhard: Schulqualität <strong>und</strong> Schulentwicklung. Bern:<br />

Schweizerische Koordinationsstelle für Bildungsforschung (SKBF), 1996<br />

Sylva, Kathy; Sammons, Pam; Siraj-Blatchford, Iram; Melhuish, Edward; Taggart, Brenda; Quinn,<br />

Louise (Hrsg.) (2001): The Effective Provision of Pre-School Education (EPPE) Project. A Longitudinal<br />

Study f<strong>und</strong>ed by the DFES (1997 - 2003). The EPPE Symposium Paper presented at the<br />

British Educational Research Association (BERA). Annual Conference, Leeds University, England,<br />

13-15.09.2001. British Educational Research Association (BERA). 1. Aufl. London;: Department<br />

for Education and Deployment. Online:<br />

http://eppe.ioe.ac.uk/eppe/eppepdfs/berapaper2001.pdf, [20120720] [Kurzbeleg: Sylva et al. 2001].<br />

The Measurement Group: 1997 American <strong>Evaluation</strong> Association Meeting Resource Page. Internet-<br />

URL: http://www.tmg-web.com/ppt_aea.htm, 1998 [28. Dezember 2002]<br />

Tillmann, Klaus-Jürgen / Winscher, Beate (Hrsg.): Schulinterne <strong>Evaluation</strong> an Reformschulen. Positionen,<br />

Konzepte, Praxisbeispiele (Impuls-Reihe. Bd. 30). Bielefeld: Laborschule Bielefeld, 1998<br />

Ulrich, Ina (Hrsg.): <strong>Evaluation</strong> - Start oder Stolperstein für pädagogische Schulentwicklung. Dokumentation<br />

von "Schulmanagement VII" am 27.04.1999 in Schortens (Oldenburger VorDrucke Nr.<br />

407/99). Oldenburg: Didaktisches Zentrum der <strong>Universität</strong> Oldenburg, 1999<br />

Widmer, Thomas: Meta-<strong>Evaluation</strong>. Kriterien zur Bewertung von <strong>Evaluation</strong>en. Bern: Paul Haupt,<br />

1996<br />

Widmer, Thomas / Rothmayr, Christine / Serdült, Uwe: Kurz <strong>und</strong> gut? Qualität <strong>und</strong> Effizienz von<br />

Kurzevaluationen. Vorwort von Ulrich Klöti. Chur: Rüegger, 1996<br />

Wittmann, Werner W.: <strong>Evaluation</strong>sforschung. Aufgaben, Probleme <strong>und</strong> Anwendungen. Berlin::<br />

Springer, 1985<br />

Wottawa, Heinrich: <strong>Evaluation</strong>. In: Krapp, Andreas / Weidenmann, Bernd (Hrsg.) Pädagogische Psychologie.<br />

Vierte Auflage. Weinheim: Beltz, 2001 [1986]<br />

Wottawa, Heinrich / Thierau, Heike: Lehrbuch <strong>Evaluation</strong>. Zweite Auflage. Bern: Hans Huber<br />

1998 [1990]<br />

camz2003evaluation_service.docx Seite 38 von 38

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!