Evaluation in der deutschen Entwicklungszusammenarbeit - HWWI

Evaluation in der deutschen Entwicklungszusammenarbeit - HWWI Evaluation in der deutschen Entwicklungszusammenarbeit - HWWI

03.10.2013 Aufrufe

Evaluationssysteme deutscher EZ-Organisationen 119 Interventionsmaßnahmen beseitigt werden sollte, von alleine wieder verschwindet. So ist z.B. aus der Medizin bekannt, dass viele Menschen sich von akuten Krankheiten erholen, ohne dass sie vom Arzt behandelt wurden. Würde man nur die „Treatment“-Gruppe (also diejenigen, die vom Arzt behandelt wurden) untersuchen – wie in der EZ üblich – würde dieser Effekt nicht aufgedeckt. Veränderungen können zudem Folgen exogenen Wandels sein, z.B. allgemeiner struktureller Trends (konjunkturelle Auf- und Abschwungphasen) oder plötzlich auftretender Ereignisse. Wer die Orientierung auf Wirkungen ernst nimmt, muss deshalb seine Untersuchungsdesigns entsprechend anpassen. In der Evaluation der deutschen EZ werden in der Regel bisher jedoch weder feldexperimentelle Designs noch Längsschnittdesigns wie Panel- oder Zeitreihenanalysen eingesetzt. Dieses Defizits sind sich einige EZ- Organisationen durchaus bewusst. So ist BMZ-E an der internationalen Diskussion um „robuste“ Evaluationen beteiligt und hat eigene Forschungsprojekte gestartet. Auch GTZ, KfW und DWHH überlegen sich, wie sie tiefer gehende Analysen in ihr Evaluationsportfolio einbinden können. In vielen anderen EZ-Organisationen ist jedoch in dieser Hinsicht noch kein ausreichendes Problembewusstsein festzustellen. Die Wirkungserfassung wird zudem dadurch erschwert, dass in vielen Partnerländern keine oder nur unzureichende statistische Daten oder gar umfassende Monitoringsysteme vorhanden sind, wie sie in vielen entwickelten Staaten Standard sind. Die Chancen, die Qualität von Wirkungsevaluationen, aber auch von Evaluation generell zu verbessern, würden dadurch steigen, dass in den Partnerländern – mit Unterstützung der EZ – die amtliche Statistik ausgebaut und aussagefähige wirkungsbezogene Monitoringsysteme entwickelt würden. Bei den von den EZ-Organisationen eingesetzten Datenerhebungsmethoden zeigt sich eine deutliche Kluft zwischen den wenigen Organisationen, die mit einem Methodenmix aus quantitativen und qualitativen Verfahren arbeiten und solchen, die weitgehend nur auf qualitative Methoden vertrauen. Bei BMZ- und GTZ-Evaluationen (bezogen auf die Fremdevaluationen) wird häufig ein Methodenmix angewendet, bei dem allerdings qualitative sozialwissenschaftliche Verfahren dominieren. Kosten-Nutzen- oder wenigstens Kosten-Wirksamkeitsanalysen kommen nur selten zum Einsatz. Bei der KfW ist es umgekehrt, dort werden häufig Verfahren zur Ermittlung der einzel- und gesamtwirtschaftlichen Wirtschaftlichkeit und gesamtwirtschaftlicher Effekte, aber kaum qualitative sozialwissenschaftliche Instrumente eingesetzt. Die auf PriME basierenden Evaluationen von InWEnt befinden sich noch im Versuchsstadium und der DED kann mit seinem Mini-Evaluationsbudget kaum anspruchsvolle Evaluationsverfahren einsetzen. Bei den nicht-staatlichen EZ-Organisationen konzentriert sich die Datenerhebung bis auf wenige Ausnahmen, wie z.B. bei der DWHH auf qualitative Verfahren. Auch bei der Wirkungsmessung greifen insbesondere die kirchlichen EZ-Organisationen gerne auf sogenannte partizipative Methoden zurück, bei denen vor allem das Urteil der Teilnehmer zur Bewertung der Wirksamkeit von Programmen herangezogen wird. Die Zielgruppen (Nutzer) eines Programms zu befragen, klingt besonders plausibel, denn wer sollte besser über die Wirkungen eines Programms Bescheid wissen, als diejenigen, die den Gegenstand der Untersuchung aus eigener Erfahrung kennen. Die Nutzer einer Dienstleistung oder die Betroffenen einer Maßnahme könnten deshalb leicht für die ,eigentlichen‘ Experten gehalten werden. Doch Rossi, Freeman und Lipsey (1999: 269)

120 Axel Borrmann & Reinhard Stockmann geben zu bedenken: „However, it is usually difficult, if not impossible, for participants to make judgements about net impact because they ordinarily lack appropriate knowledge for making such judgements“. Kromrey (2002: 103) geht mit seiner Kritik zu solchen Verfahren noch einen Schritt weiter, indem er darauf hinweist, dass die erhobenen Einschätzungen „weder den Status von Bewertungen im Sinne ,technologischer‘ Evaluationen noch von Bewertungen neutraler Experten haben“. Stattdessen handelt es sich „um individuell parteiische Werturteile von Personen, die in einer besonderen Beziehung – eben als Nutzer als Betroffene – zum Untersuchungsgegenstand stehen“. Diese Befragungen der „Teilnehmerzufriedenheit“ sind zwar ein wichtiges Merkmal bei der Beurteilung von Programmen, doch sie reichen für eine Evaluation nicht aus (vgl. Stockmann 2006: 238). Deshalb können Verfahren wie MAPP nicht als vollwertige Evaluationsinstrumente akzeptiert werden. Stattdessen handelt es sich um Verfahren zur Erfassung der Programmzufriedenheit. Doch darin allein darf sich Evaluation nicht erschöpfen, schon gar nicht, wenn sie eine Wirkungsperspektive verfolgt. Erschwerend kommt hinzu, dass weder bei MAPP (noch z.B. den im Rahmen der NGO-IDEAS-Initiative entwickelten Instrumenten) repräsentative Befragungen der potenziellen Nutznießer eines Programms vorgesehen sind. Befragt werden auch nicht die einer Zielgruppe angehörenden Personen (also z.B. alle Anspruchsberechtigten) sondern nur die tatsächlichen Nutzer. Doch dies macht einen gravierenden Unterschied, der an einem Beispiel deutlich gemacht werden kann: So ist leicht nachvollziehbar, dass z.B. die Sozialhilfeempfänger, die staatliche Leistungen in Anspruch nehmen, diese anders bewerten werden als diejenigen, die sie (z.B. aus Scham, Unwissenheit oder anderen Gründen) nicht in Anspruch genommen haben. Trotz des sehr komplexen und sensiblen Programmumfelds begnügen sich viele EZ- Organisationen, wie z.B. die politischen Stiftungen, bei ihren Evaluationen zumeist mit einmaligen Vor-Ort-Besuchen. In der Regel werden keine Vorher-Nachher-Vergleiche, keine standardisierten Verfahren, Zielgruppenbefragungen oder ähnliche Instrumente anwendet. Das Problem der Repräsentativität kleiner Fallzahlen bei qualitativen Erhebungen wird teilweise völlig ignoriert. Stattdessen werden erneut „Plausibilitätsüberlegungen“ ins Feld geführt, die als methodisch ausreichend bezeichnet werden. In einigen Fällen wird die Methodenfrage an die Gutachter „wegdelegiert“, die über die Methodenanwendung zu entscheiden hätten (z.B. KAS, DED, dvv international und teilweise sogar bei DWHH und InWEnt). Bei einigen politischen Stiftungen scheint – neben den kleineren ZGO – der größte Nachholbedarf im Bereich Methoden der Evaluation gegeben zu sein. Im Hinblick auf die Erhebungsmethoden ist festzuhalten, dass bei den meisten deutschen EZ-Organisationen einfache qualitative Verfahren verwendet werden, die sich zuweilen sogar nur im Führen von Gesprächen (ohne Leitfäden) erschöpfen. Dementsprechend bewegen sich auch die Auswertungsmethoden auf einem sehr simplen Niveau. Nur wenige EZ-Organisationen setzen sowohl quantitative als auch qualitative Verfahren ein. Insgesamt kommt quantitativen Methoden nur ein geringes Gewicht zu.

120 Axel Borrmann & Re<strong>in</strong>hard Stockmann<br />

geben zu bedenken: „However, it is usually difficult, if not impossible, for participants to<br />

make judgements about net impact because they ord<strong>in</strong>arily lack appropriate knowledge<br />

for mak<strong>in</strong>g such judgements“.<br />

Kromrey (2002: 103) geht mit se<strong>in</strong>er Kritik zu solchen Verfahren noch e<strong>in</strong>en Schritt<br />

weiter, <strong>in</strong>dem er darauf h<strong>in</strong>weist, dass die erhobenen E<strong>in</strong>schätzungen „we<strong>der</strong> den Status<br />

von Bewertungen im S<strong>in</strong>ne ,technologischer‘ <strong>Evaluation</strong>en noch von Bewertungen<br />

neutraler Experten haben“. Stattdessen handelt es sich „um <strong>in</strong>dividuell parteiische Werturteile<br />

von Personen, die <strong>in</strong> e<strong>in</strong>er beson<strong>der</strong>en Beziehung – eben als Nutzer als Betroffene<br />

– zum Untersuchungsgegenstand stehen“. Diese Befragungen <strong>der</strong> „Teilnehmerzufriedenheit“<br />

s<strong>in</strong>d zwar e<strong>in</strong> wichtiges Merkmal bei <strong>der</strong> Beurteilung von Programmen, doch sie<br />

reichen für e<strong>in</strong>e <strong>Evaluation</strong> nicht aus (vgl. Stockmann 2006: 238).<br />

Deshalb können Verfahren wie MAPP nicht als vollwertige <strong>Evaluation</strong>s<strong>in</strong>strumente<br />

akzeptiert werden. Stattdessen handelt es sich um Verfahren zur Erfassung <strong>der</strong> Programmzufriedenheit.<br />

Doch dar<strong>in</strong> alle<strong>in</strong> darf sich <strong>Evaluation</strong> nicht erschöpfen, schon gar<br />

nicht, wenn sie e<strong>in</strong>e Wirkungsperspektive verfolgt.<br />

Erschwerend kommt h<strong>in</strong>zu, dass we<strong>der</strong> bei MAPP (noch z.B. den im Rahmen <strong>der</strong><br />

NGO-IDEAS-Initiative entwickelten Instrumenten) repräsentative Befragungen <strong>der</strong><br />

potenziellen Nutznießer e<strong>in</strong>es Programms vorgesehen s<strong>in</strong>d. Befragt werden auch nicht<br />

die e<strong>in</strong>er Zielgruppe angehörenden Personen (also z.B. alle Anspruchsberechtigten)<br />

son<strong>der</strong>n nur die tatsächlichen Nutzer. Doch dies macht e<strong>in</strong>en gravierenden Unterschied,<br />

<strong>der</strong> an e<strong>in</strong>em Beispiel deutlich gemacht werden kann: So ist leicht nachvollziehbar, dass<br />

z.B. die Sozialhilfeempfänger, die staatliche Leistungen <strong>in</strong> Anspruch nehmen, diese<br />

an<strong>der</strong>s bewerten werden als diejenigen, die sie (z.B. aus Scham, Unwissenheit o<strong>der</strong><br />

an<strong>der</strong>en Gründen) nicht <strong>in</strong> Anspruch genommen haben.<br />

Trotz des sehr komplexen und sensiblen Programmumfelds begnügen sich viele EZ-<br />

Organisationen, wie z.B. die politischen Stiftungen, bei ihren <strong>Evaluation</strong>en zumeist mit<br />

e<strong>in</strong>maligen Vor-Ort-Besuchen. In <strong>der</strong> Regel werden ke<strong>in</strong>e Vorher-Nachher-Vergleiche,<br />

ke<strong>in</strong>e standardisierten Verfahren, Zielgruppenbefragungen o<strong>der</strong> ähnliche Instrumente<br />

anwendet. Das Problem <strong>der</strong> Repräsentativität kle<strong>in</strong>er Fallzahlen bei qualitativen Erhebungen<br />

wird teilweise völlig ignoriert. Stattdessen werden erneut „Plausibilitätsüberlegungen“<br />

<strong>in</strong>s Feld geführt, die als methodisch ausreichend bezeichnet werden. In e<strong>in</strong>igen<br />

Fällen wird die Methodenfrage an die Gutachter „wegdelegiert“, die über die Methodenanwendung<br />

zu entscheiden hätten (z.B. KAS, DED, dvv <strong>in</strong>ternational und teilweise sogar<br />

bei DWHH und InWEnt). Bei e<strong>in</strong>igen politischen Stiftungen sche<strong>in</strong>t – neben den kle<strong>in</strong>eren<br />

ZGO – <strong>der</strong> größte Nachholbedarf im Bereich Methoden <strong>der</strong> <strong>Evaluation</strong> gegeben zu<br />

se<strong>in</strong>.<br />

Im H<strong>in</strong>blick auf die Erhebungsmethoden ist festzuhalten, dass bei den meisten <strong>deutschen</strong><br />

EZ-Organisationen e<strong>in</strong>fache qualitative Verfahren verwendet werden, die sich<br />

zuweilen sogar nur im Führen von Gesprächen (ohne Leitfäden) erschöpfen. Dementsprechend<br />

bewegen sich auch die Auswertungsmethoden auf e<strong>in</strong>em sehr simplen Niveau.<br />

Nur wenige EZ-Organisationen setzen sowohl quantitative als auch qualitative Verfahren<br />

e<strong>in</strong>. Insgesamt kommt quantitativen Methoden nur e<strong>in</strong> ger<strong>in</strong>ges Gewicht zu.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!