Evaluation in der deutschen Entwicklungszusammenarbeit - HWWI
Evaluation in der deutschen Entwicklungszusammenarbeit - HWWI Evaluation in der deutschen Entwicklungszusammenarbeit - HWWI
Evaluationssysteme deutscher EZ-Organisationen 119 Interventionsmaßnahmen beseitigt werden sollte, von alleine wieder verschwindet. So ist z.B. aus der Medizin bekannt, dass viele Menschen sich von akuten Krankheiten erholen, ohne dass sie vom Arzt behandelt wurden. Würde man nur die „Treatment“-Gruppe (also diejenigen, die vom Arzt behandelt wurden) untersuchen – wie in der EZ üblich – würde dieser Effekt nicht aufgedeckt. Veränderungen können zudem Folgen exogenen Wandels sein, z.B. allgemeiner struktureller Trends (konjunkturelle Auf- und Abschwungphasen) oder plötzlich auftretender Ereignisse. Wer die Orientierung auf Wirkungen ernst nimmt, muss deshalb seine Untersuchungsdesigns entsprechend anpassen. In der Evaluation der deutschen EZ werden in der Regel bisher jedoch weder feldexperimentelle Designs noch Längsschnittdesigns wie Panel- oder Zeitreihenanalysen eingesetzt. Dieses Defizits sind sich einige EZ- Organisationen durchaus bewusst. So ist BMZ-E an der internationalen Diskussion um „robuste“ Evaluationen beteiligt und hat eigene Forschungsprojekte gestartet. Auch GTZ, KfW und DWHH überlegen sich, wie sie tiefer gehende Analysen in ihr Evaluationsportfolio einbinden können. In vielen anderen EZ-Organisationen ist jedoch in dieser Hinsicht noch kein ausreichendes Problembewusstsein festzustellen. Die Wirkungserfassung wird zudem dadurch erschwert, dass in vielen Partnerländern keine oder nur unzureichende statistische Daten oder gar umfassende Monitoringsysteme vorhanden sind, wie sie in vielen entwickelten Staaten Standard sind. Die Chancen, die Qualität von Wirkungsevaluationen, aber auch von Evaluation generell zu verbessern, würden dadurch steigen, dass in den Partnerländern – mit Unterstützung der EZ – die amtliche Statistik ausgebaut und aussagefähige wirkungsbezogene Monitoringsysteme entwickelt würden. Bei den von den EZ-Organisationen eingesetzten Datenerhebungsmethoden zeigt sich eine deutliche Kluft zwischen den wenigen Organisationen, die mit einem Methodenmix aus quantitativen und qualitativen Verfahren arbeiten und solchen, die weitgehend nur auf qualitative Methoden vertrauen. Bei BMZ- und GTZ-Evaluationen (bezogen auf die Fremdevaluationen) wird häufig ein Methodenmix angewendet, bei dem allerdings qualitative sozialwissenschaftliche Verfahren dominieren. Kosten-Nutzen- oder wenigstens Kosten-Wirksamkeitsanalysen kommen nur selten zum Einsatz. Bei der KfW ist es umgekehrt, dort werden häufig Verfahren zur Ermittlung der einzel- und gesamtwirtschaftlichen Wirtschaftlichkeit und gesamtwirtschaftlicher Effekte, aber kaum qualitative sozialwissenschaftliche Instrumente eingesetzt. Die auf PriME basierenden Evaluationen von InWEnt befinden sich noch im Versuchsstadium und der DED kann mit seinem Mini-Evaluationsbudget kaum anspruchsvolle Evaluationsverfahren einsetzen. Bei den nicht-staatlichen EZ-Organisationen konzentriert sich die Datenerhebung bis auf wenige Ausnahmen, wie z.B. bei der DWHH auf qualitative Verfahren. Auch bei der Wirkungsmessung greifen insbesondere die kirchlichen EZ-Organisationen gerne auf sogenannte partizipative Methoden zurück, bei denen vor allem das Urteil der Teilnehmer zur Bewertung der Wirksamkeit von Programmen herangezogen wird. Die Zielgruppen (Nutzer) eines Programms zu befragen, klingt besonders plausibel, denn wer sollte besser über die Wirkungen eines Programms Bescheid wissen, als diejenigen, die den Gegenstand der Untersuchung aus eigener Erfahrung kennen. Die Nutzer einer Dienstleistung oder die Betroffenen einer Maßnahme könnten deshalb leicht für die ,eigentlichen‘ Experten gehalten werden. Doch Rossi, Freeman und Lipsey (1999: 269)
120 Axel Borrmann & Reinhard Stockmann geben zu bedenken: „However, it is usually difficult, if not impossible, for participants to make judgements about net impact because they ordinarily lack appropriate knowledge for making such judgements“. Kromrey (2002: 103) geht mit seiner Kritik zu solchen Verfahren noch einen Schritt weiter, indem er darauf hinweist, dass die erhobenen Einschätzungen „weder den Status von Bewertungen im Sinne ,technologischer‘ Evaluationen noch von Bewertungen neutraler Experten haben“. Stattdessen handelt es sich „um individuell parteiische Werturteile von Personen, die in einer besonderen Beziehung – eben als Nutzer als Betroffene – zum Untersuchungsgegenstand stehen“. Diese Befragungen der „Teilnehmerzufriedenheit“ sind zwar ein wichtiges Merkmal bei der Beurteilung von Programmen, doch sie reichen für eine Evaluation nicht aus (vgl. Stockmann 2006: 238). Deshalb können Verfahren wie MAPP nicht als vollwertige Evaluationsinstrumente akzeptiert werden. Stattdessen handelt es sich um Verfahren zur Erfassung der Programmzufriedenheit. Doch darin allein darf sich Evaluation nicht erschöpfen, schon gar nicht, wenn sie eine Wirkungsperspektive verfolgt. Erschwerend kommt hinzu, dass weder bei MAPP (noch z.B. den im Rahmen der NGO-IDEAS-Initiative entwickelten Instrumenten) repräsentative Befragungen der potenziellen Nutznießer eines Programms vorgesehen sind. Befragt werden auch nicht die einer Zielgruppe angehörenden Personen (also z.B. alle Anspruchsberechtigten) sondern nur die tatsächlichen Nutzer. Doch dies macht einen gravierenden Unterschied, der an einem Beispiel deutlich gemacht werden kann: So ist leicht nachvollziehbar, dass z.B. die Sozialhilfeempfänger, die staatliche Leistungen in Anspruch nehmen, diese anders bewerten werden als diejenigen, die sie (z.B. aus Scham, Unwissenheit oder anderen Gründen) nicht in Anspruch genommen haben. Trotz des sehr komplexen und sensiblen Programmumfelds begnügen sich viele EZ- Organisationen, wie z.B. die politischen Stiftungen, bei ihren Evaluationen zumeist mit einmaligen Vor-Ort-Besuchen. In der Regel werden keine Vorher-Nachher-Vergleiche, keine standardisierten Verfahren, Zielgruppenbefragungen oder ähnliche Instrumente anwendet. Das Problem der Repräsentativität kleiner Fallzahlen bei qualitativen Erhebungen wird teilweise völlig ignoriert. Stattdessen werden erneut „Plausibilitätsüberlegungen“ ins Feld geführt, die als methodisch ausreichend bezeichnet werden. In einigen Fällen wird die Methodenfrage an die Gutachter „wegdelegiert“, die über die Methodenanwendung zu entscheiden hätten (z.B. KAS, DED, dvv international und teilweise sogar bei DWHH und InWEnt). Bei einigen politischen Stiftungen scheint – neben den kleineren ZGO – der größte Nachholbedarf im Bereich Methoden der Evaluation gegeben zu sein. Im Hinblick auf die Erhebungsmethoden ist festzuhalten, dass bei den meisten deutschen EZ-Organisationen einfache qualitative Verfahren verwendet werden, die sich zuweilen sogar nur im Führen von Gesprächen (ohne Leitfäden) erschöpfen. Dementsprechend bewegen sich auch die Auswertungsmethoden auf einem sehr simplen Niveau. Nur wenige EZ-Organisationen setzen sowohl quantitative als auch qualitative Verfahren ein. Insgesamt kommt quantitativen Methoden nur ein geringes Gewicht zu.
- Seite 69 und 70: 68 Axel Borrmann & Reinhard Stockma
- Seite 71 und 72: 70 Axel Borrmann & Reinhard Stockma
- Seite 73 und 74: 72 Axel Borrmann & Reinhard Stockma
- Seite 75 und 76: 74 Axel Borrmann & Reinhard Stockma
- Seite 77 und 78: 76 Axel Borrmann & Reinhard Stockma
- Seite 79 und 80: 78 Axel Borrmann & Reinhard Stockma
- Seite 81 und 82: 80 Axel Borrmann & Reinhard Stockma
- Seite 83 und 84: 82 Axel Borrmann & Reinhard Stockma
- Seite 85 und 86: 84 Axel Borrmann & Reinhard Stockma
- Seite 87 und 88: 86 Axel Borrmann & Reinhard Stockma
- Seite 89 und 90: 88 Axel Borrmann & Reinhard Stockma
- Seite 91 und 92: 90 Axel Borrmann & Reinhard Stockma
- Seite 93 und 94: 92 Axel Borrmann & Reinhard Stockma
- Seite 95 und 96: 94 Axel Borrmann & Reinhard Stockma
- Seite 97 und 98: 96 Axel Borrmann & Reinhard Stockma
- Seite 99 und 100: 98 Axel Borrmann & Reinhard Stockma
- Seite 101 und 102: 100 Axel Borrmann & Reinhard Stockm
- Seite 103 und 104: 102 Axel Borrmann & Reinhard Stockm
- Seite 105 und 106: 104 Axel Borrmann & Reinhard Stockm
- Seite 107 und 108: 106 Axel Borrmann & Reinhard Stockm
- Seite 109 und 110: 108 Axel Borrmann & Reinhard Stockm
- Seite 111 und 112: 110 Axel Borrmann & Reinhard Stockm
- Seite 113 und 114: 112 Axel Borrmann & Reinhard Stockm
- Seite 115 und 116: 114 Axel Borrmann & Reinhard Stockm
- Seite 117 und 118: 116 Axel Borrmann & Reinhard Stockm
- Seite 119: 118 Axel Borrmann & Reinhard Stockm
- Seite 123 und 124: 122 Axel Borrmann & Reinhard Stockm
- Seite 125 und 126: 124 Axel Borrmann & Reinhard Stockm
- Seite 127 und 128: 126 Axel Borrmann & Reinhard Stockm
- Seite 129 und 130: 128 Axel Borrmann & Reinhard Stockm
- Seite 131 und 132: 130 Axel Borrmann & Reinhard Stockm
- Seite 133 und 134: 132 Axel Borrmann & Reinhard Stockm
- Seite 135 und 136: 134 Axel Borrmann & Reinhard Stockm
- Seite 137 und 138: 136 Axel Borrmann & Reinhard Stockm
- Seite 139 und 140: 138 Axel Borrmann & Reinhard Stockm
- Seite 141 und 142: 140 Axel Borrmann & Reinhard Stockm
- Seite 143 und 144: 142 Axel Borrmann & Reinhard Stockm
- Seite 146 und 147: Die Qualität der Evaluationssystem
- Seite 148 und 149: Die Qualität der Evaluationssystem
- Seite 150 und 151: Die Qualität der Evaluationssystem
- Seite 152 und 153: Die Qualität der Evaluationssystem
- Seite 154 und 155: Die Qualität der Evaluationssystem
- Seite 156 und 157: Die Qualität der Evaluationssystem
- Seite 158 und 159: Die Qualität der Evaluationssystem
- Seite 160 und 161: Die Qualität der Evaluationssystem
- Seite 162 und 163: Die Qualität der Evaluationssystem
- Seite 164 und 165: Die Qualität der Evaluationssystem
- Seite 166 und 167: Empfehlungen zur Reform der Evaluat
- Seite 168 und 169: Empfehlungen zur Reform der Evaluat
120 Axel Borrmann & Re<strong>in</strong>hard Stockmann<br />
geben zu bedenken: „However, it is usually difficult, if not impossible, for participants to<br />
make judgements about net impact because they ord<strong>in</strong>arily lack appropriate knowledge<br />
for mak<strong>in</strong>g such judgements“.<br />
Kromrey (2002: 103) geht mit se<strong>in</strong>er Kritik zu solchen Verfahren noch e<strong>in</strong>en Schritt<br />
weiter, <strong>in</strong>dem er darauf h<strong>in</strong>weist, dass die erhobenen E<strong>in</strong>schätzungen „we<strong>der</strong> den Status<br />
von Bewertungen im S<strong>in</strong>ne ,technologischer‘ <strong>Evaluation</strong>en noch von Bewertungen<br />
neutraler Experten haben“. Stattdessen handelt es sich „um <strong>in</strong>dividuell parteiische Werturteile<br />
von Personen, die <strong>in</strong> e<strong>in</strong>er beson<strong>der</strong>en Beziehung – eben als Nutzer als Betroffene<br />
– zum Untersuchungsgegenstand stehen“. Diese Befragungen <strong>der</strong> „Teilnehmerzufriedenheit“<br />
s<strong>in</strong>d zwar e<strong>in</strong> wichtiges Merkmal bei <strong>der</strong> Beurteilung von Programmen, doch sie<br />
reichen für e<strong>in</strong>e <strong>Evaluation</strong> nicht aus (vgl. Stockmann 2006: 238).<br />
Deshalb können Verfahren wie MAPP nicht als vollwertige <strong>Evaluation</strong>s<strong>in</strong>strumente<br />
akzeptiert werden. Stattdessen handelt es sich um Verfahren zur Erfassung <strong>der</strong> Programmzufriedenheit.<br />
Doch dar<strong>in</strong> alle<strong>in</strong> darf sich <strong>Evaluation</strong> nicht erschöpfen, schon gar<br />
nicht, wenn sie e<strong>in</strong>e Wirkungsperspektive verfolgt.<br />
Erschwerend kommt h<strong>in</strong>zu, dass we<strong>der</strong> bei MAPP (noch z.B. den im Rahmen <strong>der</strong><br />
NGO-IDEAS-Initiative entwickelten Instrumenten) repräsentative Befragungen <strong>der</strong><br />
potenziellen Nutznießer e<strong>in</strong>es Programms vorgesehen s<strong>in</strong>d. Befragt werden auch nicht<br />
die e<strong>in</strong>er Zielgruppe angehörenden Personen (also z.B. alle Anspruchsberechtigten)<br />
son<strong>der</strong>n nur die tatsächlichen Nutzer. Doch dies macht e<strong>in</strong>en gravierenden Unterschied,<br />
<strong>der</strong> an e<strong>in</strong>em Beispiel deutlich gemacht werden kann: So ist leicht nachvollziehbar, dass<br />
z.B. die Sozialhilfeempfänger, die staatliche Leistungen <strong>in</strong> Anspruch nehmen, diese<br />
an<strong>der</strong>s bewerten werden als diejenigen, die sie (z.B. aus Scham, Unwissenheit o<strong>der</strong><br />
an<strong>der</strong>en Gründen) nicht <strong>in</strong> Anspruch genommen haben.<br />
Trotz des sehr komplexen und sensiblen Programmumfelds begnügen sich viele EZ-<br />
Organisationen, wie z.B. die politischen Stiftungen, bei ihren <strong>Evaluation</strong>en zumeist mit<br />
e<strong>in</strong>maligen Vor-Ort-Besuchen. In <strong>der</strong> Regel werden ke<strong>in</strong>e Vorher-Nachher-Vergleiche,<br />
ke<strong>in</strong>e standardisierten Verfahren, Zielgruppenbefragungen o<strong>der</strong> ähnliche Instrumente<br />
anwendet. Das Problem <strong>der</strong> Repräsentativität kle<strong>in</strong>er Fallzahlen bei qualitativen Erhebungen<br />
wird teilweise völlig ignoriert. Stattdessen werden erneut „Plausibilitätsüberlegungen“<br />
<strong>in</strong>s Feld geführt, die als methodisch ausreichend bezeichnet werden. In e<strong>in</strong>igen<br />
Fällen wird die Methodenfrage an die Gutachter „wegdelegiert“, die über die Methodenanwendung<br />
zu entscheiden hätten (z.B. KAS, DED, dvv <strong>in</strong>ternational und teilweise sogar<br />
bei DWHH und InWEnt). Bei e<strong>in</strong>igen politischen Stiftungen sche<strong>in</strong>t – neben den kle<strong>in</strong>eren<br />
ZGO – <strong>der</strong> größte Nachholbedarf im Bereich Methoden <strong>der</strong> <strong>Evaluation</strong> gegeben zu<br />
se<strong>in</strong>.<br />
Im H<strong>in</strong>blick auf die Erhebungsmethoden ist festzuhalten, dass bei den meisten <strong>deutschen</strong><br />
EZ-Organisationen e<strong>in</strong>fache qualitative Verfahren verwendet werden, die sich<br />
zuweilen sogar nur im Führen von Gesprächen (ohne Leitfäden) erschöpfen. Dementsprechend<br />
bewegen sich auch die Auswertungsmethoden auf e<strong>in</strong>em sehr simplen Niveau.<br />
Nur wenige EZ-Organisationen setzen sowohl quantitative als auch qualitative Verfahren<br />
e<strong>in</strong>. Insgesamt kommt quantitativen Methoden nur e<strong>in</strong> ger<strong>in</strong>ges Gewicht zu.