14.07.2014 Aufrufe

6 Soziale Dilemmata

6 Soziale Dilemmata

6 Soziale Dilemmata

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

6 <strong>Soziale</strong> <strong>Dilemmata</strong><br />

In Adam Smiths «Reichtum der Nationen» befördert der Eigennutz des<br />

Einzelnen das allgemeine Wohl. Individuelles rationales Handeln und<br />

kollektive Wohlfahrt werden durch die «unsichtbare Hand» des Marktes<br />

in Einklang gebracht. In einem sozialen Dilemma verhält es sich genau<br />

umgekehrt, die Harmonie zwischen individuellen Interessen und kollektivem<br />

Resultat ist gestört. Die einzelnen Akteure verfolgen ihre Ziele rational,<br />

erreichen aber insgesamt nur ein suboptimales Ergebnis. «Rationales<br />

Handeln und irrationale Gesellschaft?» lautet der Titel eines Buchs von<br />

Barry und Hardin (1982), der den Konflikt auf den Punkt bringt. Sozialpsychologen<br />

sprechen von sozialen Fallen (Platt 1973), der Soziologe Boudon<br />

(1979) von «paradoxen Effekten». Die Problematik sozialer <strong>Dilemmata</strong><br />

durchzieht die Gesellschaftspolitik wie ein roter Faden. Der Irrtum naiver<br />

Gesellschaftsanalyse besteht darin, dass unvernünftige Ergebnisse<br />

auf unvernünftiges Handeln zurückgeführt werden. Das Gegenteil ist oft<br />

der Fall. Unvernünftige Ergebnisse sind oft Folge individuell-rationaler<br />

Handlungen. Von den kollektiven Ergebnissen kann man nicht auf die<br />

Motive der Handelnden schließen. Im Gefangenendilemma beispielsweise<br />

erzielen rational handelnde Personen ein «irrationales» Ergebnis.<br />

(Vom Resultat her gesehen sind die Klugen dumm und die Narren klug.)<br />

In einem sozialen Dilemma ist das Nash-Gleichgewicht nicht Paretooptimal<br />

(wie im Gefangenendilemma) oder ein Pareto-optimales Nash-<br />

Gleichgewicht ohne Koordination nicht realisierbar (wie im Chickenspiel).<br />

John Nash und Vilfredo Pareto gehen nicht Hand in Hand. Eine<br />

solche Situation bezeichnet man auch als «ineffizient». Gäbe es die Möglichkeit,<br />

einklagbare Verträge abzuschließen, wäre die Vertragslösung<br />

immer besser als das Ergebnis individuell-rationalen Handelns.<br />

Man könnte ein soziales Dilemma auf diese Weise genauer definieren:<br />

Ein soziales Dilemma liegt vor, wenn individuell-rationales Handeln schlechtere<br />

Ergebnisse hervorbringt als die theoretische Möglichkeit eines einklagbaren Vertrags<br />

unter rational handelnden Akteuren.<br />

105


Leider sind Verträge oft nur eine theoretische und keine praktische<br />

Möglichkeit. «Einklagbar» heißt, dass Vertragsverletzungen sanktioniert<br />

werden können. Weiterhin sind Verträge unter vielen Personen<br />

mit oftmals prohibitiv hohen Transaktionskosten verbunden. In einem<br />

Verkehrsstau kann man in der Regel kein Abkommen über die optimale<br />

Fahrweise aller Verkehrsteilnehmer aushandeln.<br />

Beispiele finden wir in kleinen sozialen Gruppen ebenso wie auf der<br />

Ebene der Weltgesellschaft. Zu ihnen zählen die Überfischung der Meere,<br />

Umweltverschmutzung, die Ausbeutung knapper Ressourcen, Wettrüsten,<br />

Handelskriege ebenso wie im kleinen Rahmen der Wasserverbrauch<br />

in einem Mietshaus mit gemeinsamem Zähler oder der gemeinsam<br />

genutzte Kühlschrank in einer Wohngemeinschaft (vgl. Diekmann<br />

1992).<br />

Vertiefen wir als einfaches Beispiel für ein Ressourcendilemma im<br />

Alltagsleben den aus der Einleitung bekannten Restaurantbesuch einer<br />

Gruppe von zehn mehr oder minder zivilisierten Zeitgenossen, die verabredet<br />

haben, dass sie den Rechnungsbetrag nach dem Genuss des<br />

Abendessens durch die Zahl der Köpfe teilen. Wer nur den kleinen Hunger<br />

auf den griechischen Hirtensalat für 5 ¤ verspürte, überlegt nun, ob<br />

nicht doch das Chateaubriand mit Pommes Croquettes für 35 ¤ die bessere<br />

Wahl wäre. Die Differenz beträgt 30 ¤ bei individueller Bezahlung,<br />

aber nur 3 ¤ bei kollektiver Abrechnung, da 27 ¤ von neun Mitessern<br />

subventioniert werden. Falls also der Nutzenzuwachs durch das Chateaubriand<br />

den Wert von 3 ¤ übersteigt, wird ein rationales Gruppenmitglied<br />

die teure Speise bestellen. Mit dieser Überlegung bleibt er aber nicht<br />

allein, sodass die Rechnung insgesamt aufgebläht wird und am Ende alle<br />

schlechter dastehen als bei individueller Abrechnung. (Nehmen wir an,<br />

allen Teilnehmern ist die Nutzendifferenz 5 ¤ wert. Individuell ist man<br />

also bereit, maximal 10 ¤ für das Chateaubriand auszugeben. Dann wird<br />

niemand das Chateaubriand bei individueller Abrechnung bestellen,<br />

aber alle werden es bei kollektiver Zahlweise auswählen. Jeder zahlt<br />

am Ende 35 ¤, obwohl der Nutzen maximal dem Geldwert von 10 ¤ entspricht.)<br />

Einige Modelle für soziale <strong>Dilemmata</strong> wie das Gefangenendilemma,<br />

das Chickenspiel oder das Vertrauensspiel haben wir bereits behandelt.<br />

106


Allerdings hatten wir uns auf Zwei-Personen-Spiele beschränkt. Kennzeichnend<br />

für viele soziale <strong>Dilemmata</strong> ist aber, dass oftmals mehr als<br />

zwei Akteure beteiligt sind. Zudem gibt es zahlreiche strukturell sehr<br />

unterschiedliche Situationen, die die Charakteristika eines sozialen<br />

Dilemmas aufweisen. In diesem Kapitel werden wir verschiedene Arten<br />

von N-Personen-<strong>Dilemmata</strong> untersuchen.<br />

6.1 Panik im Flaschenhals<br />

Wer in einer Paniksituation, z. B. einem Feuer im Kino, zum Ausgang eilt,<br />

wird auf zahlreiche Menschen mit dem gleichen Motiv, sich in Sicherheit<br />

zu bringen, stoßen, wodurch letztlich allen der Ausgang versperrt<br />

ist. Der Sozialpsychologe A. Mintz (1951) hat diese Situation mit einem<br />

einfachen Experiment simuliert. In einer Flasche befindet sich eine<br />

Anzahl von Metallplättchen, an denen je ein Faden befestigt ist, der aus<br />

dem Flaschenhals hinausführt (Abbildung 6.1). Nur jeweils ein Plättchen<br />

passt zur gleichen Zeit durch die Öffnung. Erklärt man nun z. B. fünf Personen,<br />

dass der Erste, der ein Plättchen herauszieht, 100 ¤ gewinnt, der<br />

Zweite 80 ¤, der Dritte 60 ¤, der Vierte 40 ¤ und der Letzte 20 ¤, so weist<br />

die Situation nach dem Startschuss alle Merkmale einer Panik auf. (Im<br />

Originalexperiment waren es Gruppen mit 15 bis 21 Personen, die relativ<br />

geringe Entlohnungen erhielten.) Führt man ferner die Regel ein, dass<br />

die Entscheidungszeit sehr kurz ist – sagen wir eine Minute –, wird man<br />

häufig beobachten, dass alle Versuchspersonen leer ausgehen. Besonders<br />

dramatisch wirkt der Versuch, wenn von unten durch ein Ventil Wasser<br />

in die Flasche eingeführt wird und ein Plättchen als wertlos gilt, sobald<br />

es nass geworden ist.<br />

107


Auszahlungen<br />

1. 100<br />

2. 80<br />

3. 60<br />

4. 40<br />

5. 20<br />

Abbildung 6.1 Das Panik-Experiment von Mintz (1951): In diesem Experiment<br />

sollten Versuchspersonen in einer kurz bemessenen Zeitspanne die Plättchen aus<br />

der Flasche herausziehen. Jede Person hielt einen Faden, und nur ein Plättchen<br />

konnte jeweils den Flaschenhals passieren. Wer sein Plättchen als Erster herauszog,<br />

erhielt den höchsten Gewinn, der Zweite den zweithöchsten Gewinn usw.<br />

Oft kam es vor, dass sich die Versuchspersonen gegenseitig blockierten und alle<br />

leer ausgingen.<br />

Betrachten wir die Situation vereinfacht als simultanes Spiel. Jeder von<br />

N Spielern hat N Strategien: als Erster, Zweiter, Dritter usw. zu ziehen.<br />

Bezeichnen wir die fünf Spieler im Beispiel mit A, B, C, D, E und die Strategie,<br />

an erster, zweiter usw. Stelle zu ziehen, mit der entsprechenden Zahl in<br />

Klammern. Dann ergeben die Strategienkombinationen A (3), B (1), C (4),<br />

D (2), E (5) oder auch A (1), B (2), C (3), D (4), E (5) jeweils ein Pareto-optima-<br />

108


les Nash-Gleichgewicht. Die Strategien A (1), B (1), C (1), D (1), E (1) – jeder<br />

zieht gleich nach dem Startschuss an dem Faden – erfüllen auch das Nash-<br />

Kriterium, das Ergebnis ist aber kein Pareto-Optimum. Die Kombination<br />

A (1), B (3), C (1), D (2), E (5) z. B. ist dagegen weder ein Nash-Gleichgewicht<br />

(A z. B. hat einen Anreiz, auf die Strategie 4 umzusteigen) noch ein Pareto-<br />

Optimum. Insgesamt gibt es bei fünf Spielern 5! = 120 Pareto-optimale<br />

Nash-Gleichgewichte. Das Panikdilemma ist ein Koordinationsproblem.<br />

6.2 Die Versteigerung eines Dollars<br />

Würden Sie für einen Dollar fünf zahlen? Die folgende Auktion kann<br />

leicht zu diesem Resultat führen.<br />

Der Auktionator versteigert einen Dollar. Es darf in Fünf-Cent-Schritten<br />

von «unten nach oben» geboten werden, und der Höchstbietende<br />

erhält den Dollar. Es gelten also die üblichen Auktionsregeln (einer offenen<br />

englischen Auktion) mit einer einzigen Ausnahme: Der Teilnehmer<br />

mit dem zweithöchsten Gebot muss ebenfalls das Gebot einlösen, ohne<br />

dafür etwas zu erhalten. Martin Shubik, der die Dollar-Auktion als eine<br />

Art Parabel für den Rüstungswettlauf beschrieben hat (Shubik 1971),<br />

nennt noch eine dritte Regel: Niemand darf mehr als 50 $ bieten.<br />

Wenn man die Auktion – wir nehmen diesmal einen Euro – vor Publikum<br />

durchführt, kann man in der Regel mit Nettoeinnahmen rechnen.<br />

Eine typische Auktion läuft so: A bietet 5, B 20 und C 50 Cent. Das ist der<br />

erste kritische Moment. B erhöht nun sein Gebot auf 60 Cent, und der<br />

Auktionator ist bereits im Plus. Aber das ist noch nicht das Ende, denn C<br />

hat einen Anreiz, B zu übertreffen. Nehmen wir an, B bietet 70, C folgt mit<br />

80, B erhöht auf 90 und C auf 95. Jetzt wird die zweite kritische Schwelle<br />

erreicht. Will B seine 90 Cent nicht verlieren, muss er sein Gebot auf<br />

einen Euro erhöhen. Diese Logik gilt aber auch für C, der jetzt auf 1,05 ¤<br />

erhöht usw. Immer hat der Zweitbietende einen Anreiz, den Höchstbietenden<br />

zu übertreffen, um seinen Verlust wenigstens zu vermindern, bis<br />

schließlich einem der Kontrahenten die Puste ausgeht.<br />

Sobald zwei Bieter in die Falle getappt sind, beginnt ein selbstschädigendes<br />

Rennen – wie beim Rüstungswettlauf zwischen den USA und der<br />

109


Sowjetunion im Kalten Krieg. Wie aber würde sich ein rationaler Akteur<br />

bei einer Ein-Dollar-Auktion verhalten? Wenn man mitspielt, ist man<br />

schon in der Falle. Aber «alle bieten nicht» ist kein Nash-Gleichgewicht.<br />

Bietet nämlich kein anderer Akteur, könnte man den Dollar für fünf<br />

Cent ersteigern. Es gibt also immer einen Anreiz, bei einer allseitigen<br />

Verweigerung (Gebot von 0) doch ein höheres Gebot abzugeben. Gibt<br />

es ein Nash-Gleichgewicht, eine rationale Bieterstrategie in der Dollar-<br />

Auktion? Eine Möglichkeit ist, dass ein Teilnehmer sofort aufspringt<br />

und einen Dollar bietet. Niemand hat dann einen Anreiz, mehr zu bieten,<br />

niemand hat verloren oder gewonnen. Das Strategienprofil, eine Person<br />

bietet einen Dollar, alle anderen bieten nicht, ist ein Nash-Gleichgewicht<br />

mit der Auszahlung null an alle Teilnehmer. Im Gleichgewicht gewinnt<br />

niemand etwas, und keiner erleidet einen Verlust, einschließlich des<br />

enttäuschten Auktionators. (Genauer gibt es so viele Gleichgewichte<br />

wie Teilnehmer, da jede Person den Part des Dollar-Bieters übernehmen<br />

kann.) Die Auszahlungen im Gleichgewicht sind Pareto-optimal und<br />

symmetrisch. Allerdings wird es bei erstmaliger Teilnahme an der Auktion<br />

selten vorkommen, dass die Gleichgewichtsstrategie gespielt wird.<br />

Die Dollar-Auktion ist streng genommen kein soziales Dilemma im<br />

spieltheoretischen Sinn. Auch für den Auktionator (meist Dozentin oder<br />

Dozent in einer Vorlesung) ist die Auktion kein Dilemma, denn sie verhilft<br />

ihm regelmäßig zu einem Nebeneinkommen. Sie ist aber im psychologischen<br />

Sinn ein Dilemma, denn fast immer kommt es in Experimenten<br />

zu einem selbstschädigenden Bieterwettbewerb.<br />

6.3 Das Dilemma der großen Zahl<br />

Das Wissenschaftsmagazin Scientific American hatte auf Initiative von<br />

Douglas Hofstadter (1985, 1992) einen Preis von einer Million Dollar<br />

ausgeschrieben. Den Preis sollte erhalten, wer die meisten Postkarten<br />

einsendet. Allerdings gab es einen Pferdefuß. Der Preis sollte durch<br />

die Zahl der Postkarten eines Einsenders dividiert werden. Schickten<br />

mehrere Personen die gleiche Anzahl, so sollte der resultierende Betrag<br />

unter den Gewinnern aufgeteilt werden. Nun kostet Porto Geld, und<br />

110


man muss es den Leuten nicht unnötigerweise schwermachen. Statt<br />

z. B. 10 Postkarten abzuschicken, durfte man einfach die Zahl «10» auf eine<br />

Postkarte schreiben. Erlaubt war, irgendeine ganze Zahl einzusenden.<br />

Tabelle 6.1 Verteilung der eingesandten Zahlen<br />

Genannte Zahl<br />

Anzahl Einsendungen<br />

1 1133<br />

2 31<br />

3 16<br />

4 8<br />

5 16<br />

6 0<br />

7 9<br />

8 1<br />

9 1<br />

10 49<br />

100 61<br />

1000 46<br />

1 000 000 33<br />

1 000 000 000 11<br />

602 300 000 000 000 000 000 000<br />

(Avogadro-Zahl)<br />

1<br />

10 100 (googol) 9<br />

10 10**100 (googolplex) 14<br />

Quelle: Hofstadter (1985: 759)<br />

111


Hofstadter musste die Redaktion überzeugen, dass Scientific American<br />

nicht Gefahr laufen wird, eine Million Dollar zu verlieren. Und er sollte<br />

recht behalten! Wie von ihm vorausgesehen, musste die Redaktion des<br />

Scientific American am Ende keinen Cent lockermachen. Tabelle 6.1<br />

informiert über die eingesandten Zahlen.<br />

Es gab 1439 Teilnehmer. 1133 (79 %) notierten eine «1». 31 wollten besser<br />

sein und schrieben «2», wodurch sie allerdings den Preis auf immer noch<br />

stattliche 500 000 $ schrumpfen ließen. 33 gaben eine Million an. Die<br />

Preissumme reduzierte sich damit auf einen mageren Dollar. Aber auch<br />

sie konnten nicht den Gewinn einstreichen. Neun Personen haben einen<br />

«Googol», eine 1 mit 100 Nullen, auf die Karte oder den Brief geschrieben<br />

(die bekannte Web-Suchmaschine leitet von diesem Begriff ihren Namen<br />

ab). Aber auch sie erreichten nicht das Siegerpodest. Als Erste gingen<br />

nämlich die 14 Einsender eines «Googolplex» ins Ziel. Ein Googolplex ist<br />

die Zahl 10 mit Exponent Googol, also eine 1 mit 10 100 Nullen. Diese Zahl<br />

ist so unvorstellbar groß, dass der Gewinn auf ein unvorstellbar geringes<br />

Niveau geschrumpft ist. Es war ein Pyrrhussieg. Die Gewinner zerstörten<br />

gleichzeitig ihren Gewinn. Das Motiv einiger Spieler war offenbar: siegen<br />

um jeden Preis (siehe dazu und zu weiteren Experimenten Rapoport<br />

1988).<br />

Immerhin waren fast vier Fünftel der Mitspieler kooperativ. Hätten<br />

alle eine «1» auf eine Postkarte geschrieben, hätte jeder Teilnehmer rund<br />

700 $ erhalten, und Scientific American wäre um eine Million Dollar<br />

ärmer gewesen.<br />

In diesem Spiel gibt es kein Nash-Gleichgewicht! Die spieltheoretische<br />

Analyse kennt keine Lösung. Denn bei jeder Zahl, und sei sie noch<br />

so groß, besteht der Anreiz, eine höhere Zahl anzugeben. Der berühmte<br />

Satz von Nash, dass in jedem Spiel mit endlicher Zahl von Strategien<br />

mindestens ein Nash-Gleichgewicht in reinen oder gemischten Strategien<br />

existiert, ist nicht anwendbar. Denn dieses Spiel hat – ebenso wie<br />

Shubiks Auktion – eine unendliche Anzahl von Strategien. In Shubiks<br />

Auktion existiert aber ein Nash-Gleichgewicht, in Hofstadters «Dilemma<br />

der großen Zahl» dagegen nicht.<br />

Die kooperative, Pareto-optimale Strategie mit maximaler und glei-<br />

112


cher Auszahlung an alle Teilnehmer, sofern sich alle an diese Strategie<br />

hielten, ist natürlich die «1». Der Anreiz ist aber groß, eine «1» zu toppen<br />

und eine höhere Zahl zu nennen.<br />

Das Dilemma der großen Zahl ist auch eine Parabel für ein sehr<br />

sensibles, störanfälliges System. Viele soziale Situationen mit Dilemma-<br />

Charakter funktionieren auch dann noch relativ gut, wenn sich einige<br />

Leute unkooperativ verhalten. Für den öffentlichen Nahverkehr ist es<br />

keine Katastrophe, wenn einige Schwarzfahrer das Fahrgeld sparen. Eine<br />

Demokratie bricht selbst dann nicht zusammen, wenn die Mehrheit der<br />

Stimmbürger nicht zur Wahl geht. Und das Recycling kollabiert nicht,<br />

wenn wenige Personen ihren Hausmüll in den Recyclingsack oder Container<br />

kippen.<br />

Es gibt aber auch äußerst instabile Situationen wechselseitiger Kooperation,<br />

in denen sich im Extremfall fast alle Personen kooperativ verhalten<br />

und bereits wenige oder sogar nur eine Person genügt, alle anderen<br />

um die Früchte der Kooperation zu bringen. Solche Systeme sollte man<br />

möglichst meiden. Das Dilemma der großen Zahl ist ein Extremfall eines<br />

sensiblen Systems. Trotz hoher Kooperation kann ein einzelner Akteur<br />

den gesamten Gewinn zerstören.<br />

6.4 N-Personen-Gefangenendilemma<br />

Betrachten wir folgende Entscheidungssituation. N Personen (N > 1)<br />

können zwischen der Strategie C (= Kooperation) oder D (= Defektion)<br />

wählen. Die Auszahlung für Strategie C ist:<br />

A C = 2x<br />

A D = 3x + 3.<br />

Dabei sind C und D die beiden Strategien, die ein Spieler zur Verfügung<br />

hat, x bezeichnet die Anzahl der Spieler, die Strategie C wählen, und A C<br />

bzw. A D sind die Auszahlungen an C-Spieler bzw. D-Spieler. Die Gesamtzahl<br />

der Spieler bezeichnen wir mit N.<br />

113


Diese einfache Variante eines N-Gefangenendilemmas wurde von<br />

Rapoport vorgeschlagen (vgl. allgemein zu sozialen <strong>Dilemmata</strong> auch<br />

den Überblick in Rapoport 1998). Um das Dilemma vor Publikum zu demonstrieren,<br />

ist diese Form sehr vorteilhaft. Man muss nur die beiden<br />

Auszahlungsfunktionen an die Tafel schreiben und alle Anwesenden<br />

danach fragen oder anonym auf einen Zettel notieren lassen, ob sie sich<br />

für C oder D entscheiden (oder X und Y wie bei Rapoport, um die wertenden<br />

Bezeichnungen «C» und «D» zu vermeiden).<br />

Angenommen, die Gruppe besteht aus N = 100 Personen, von denen<br />

40 C und 60 D wählen. Mit x = 40 erhalten C-Wähler je 80 Punkte und D-<br />

Wähler je 123 Punkte. Hätten aber alle Spieler kooperiert, würden sie alle<br />

jeweils 200 Punkte erzielen (A C = 2N).<br />

Man sieht, dass selbst die defektierenden Y-Wähler im Vergleich zur<br />

wechselseitigen Kooperation schlechter abschneiden. Erst ab x = 66 wäre<br />

in diesem Beispiel die Auszahlung für die Y-Strategie höher als bei vollständiger<br />

Kooperation.<br />

Man erkennt sofort anhand der Auszahlungsfunktionen, dass die<br />

D-Wahl immer eine höhere Auszahlung erbringt als die Wahl von C. D<br />

ist also eine strikt dominierende Strategie. Diese Strategie ist folglich<br />

auch die Nash-Gleichgewichtsstrategie.<br />

Das Nash-Gleichgewicht ist kein Pareto-Optimum. Alle Spieler könnten<br />

sich durch eine Vertragslösung verbessern. Leider ist das Pareto-Optimum<br />

wechselseitig kooperativer Spieler kein Nash-Gleichgewicht. D ist<br />

ja eine dominierende Strategie. Wenn alle anderen Akteure kooperativ<br />

sind, besteht für einen egoistischen Akteur immer ein Anreiz, D zu wählen.<br />

Ist er der einzige Trittbrettfahrer, würde er damit auch den höchsten<br />

Gewinn erzielen. Was aber dem einen recht ist, ist dem anderen billig,<br />

sodass alle – wenn sie dieser Logik folgen – in die Falle wechselseitiger<br />

Defektion tappen und als Auszahlung magere 3 Punkte ergattern.<br />

Ist N = 2, erhält man mit den oben aufgeführten Auszahlungsfunktionen<br />

die Auszahlungen für die vier Zellen des einfachen Zwei-Personen-<br />

Gefangenendilemmas (2-GD). Das N-GD ist also eine Verallgemeinerung<br />

des 2-GD.<br />

An den Auszahlungsfunktionen kann man eine weitere Möglichkeit<br />

der Interpretation des Dilemmas erkennen. Jede C-Wahl ist eine positive<br />

114


Externalität für alle Mitspieler. Ein zusätzlicher C-Spieler trägt in dem<br />

Beispiel weitere drei Punkte zum Kollektivgut bei, ein D-Spieler dagegen<br />

null Punkte.<br />

Die Strategieform für N Spieler mit binären Entscheidungsmöglichkeiten<br />

erforderte im Prinzip eine N-dimensionale Darstellung, für drei<br />

Spieler wäre das ein «Auszahlungswürfel». Wenn das Spiel symmetrisch<br />

ist, genügt hingegen die zweidimensionale Matrixform. Zeilenspieler ist<br />

irgendein beliebiger Spieler i, an den Spalten steht die Anzahl anderer<br />

Spieler, die eine bestimmte Alternative wählen, z. B. kooperativ handeln.<br />

Für unser Beispiel erhält man folgende Auszahlungsmatrix:<br />

0 1 2 3 ... 98 99 Andere C-Wähler<br />

C 2 4 6 8 … 198 200<br />

D 3 6 9 12 … 297 300<br />

Matrix 6.1 N-Gefangenendilemma<br />

Allgemein ist ein binäres N-GD, bei dem jeder Spieler zwischen den zwei<br />

Alternativen Kooperation oder Defektion wählen kann, durch folgende<br />

Bedingungen definiert:<br />

1. Jeder Spieler hat eine dominierende Strategie, deren Schnittpunkt<br />

das einzige Nash-Gleichgewicht ist.<br />

2. Das Nash-Gleichgewicht ist nicht Pareto-optimal.<br />

Bezeichnen wir mit A C (x) die Auszahlungen an einen kooperativen Spieler<br />

als Funktion der Anzahl kooperativer Wahlen x und entsprechend<br />

mit A D (x) die Auszahlungen an einen nichtkooperativen Spieler. Dann<br />

kann man die Bedingungen für das N-GD nach Dawes (1980) wie folgt<br />

ausdrücken:<br />

(1) A D (x – 1) > A C (x) (D ist dominierende Strategie)<br />

(2) A d (0) < A C (N) (Ineffizienz des Nash-Gleichgewichts)<br />

mit x = 1, 2, 3 … N<br />

115


Das oben erwähnte Beispiel ist ein N-GD mit einer linearen Auszahlungsfunktion.<br />

Ein N-GD ist eine spezielle spieltheoretische Formalisierung eines<br />

Kollektivgutproblems (Hardin 1971). Ein Kollektivgut ist per definitionem<br />

ein Gut, von dessen Konsum keine Person ausgeschlossen werden<br />

kann. Der Empfang eines Radiosenders ist ebenso ein Beispiel wie die<br />

Luft zum Atmen. Die Probleme der Herstellung kollektiver Güter wurden<br />

insbesondere von Olson (1968) in seinem Buch «Die Logik kollektiven<br />

Handelns» genauer analysiert. Oft besteht ein Gruppeninteresse. Damit<br />

ist aber noch nicht gesagt, wie ältere politikwissenschaftliche Theorien<br />

fälschlich angenommen haben, dass es auch realisiert wird. Jeder ist zwar<br />

für das Gruppeninteresse oder Kollektivgut, aber es gibt eben auch den<br />

Anreiz zum Trittbrettfahren.<br />

Wie ist z. B. das im Folgenden beschriebene Verhalten erklärbar?<br />

«Jeden Tag sterben durchschnittlich drei Menschen, weil für sie ein<br />

Organ nicht rechtzeitig zur Verfügung steht. Sie sterben an ‹akutem<br />

Organspende-Versagen›, wie es der Medizinrechtler Hans Lilie ausdrückt.<br />

(…) So befürworten zwar 80 Prozent der Deutschen in Umfragen (…)<br />

Organtransplantationen, und fast 70 Prozent geben an, sie würden einer<br />

Organentnahme nach ihrem Tod zustimmen. Doch nur 12 Prozent haben<br />

einen Spenderausweis» (Hardenberg 2008).<br />

Zwar wünschen die meisten Bundesbürger, dass das Kollektivgut<br />

einer ausreichenden Zahl von Spenderorganen verfügbar ist. Doch die<br />

Mühe, konkret einen Spenderausweis auszufüllen, und möglicherweise<br />

das Unbehagen, sich dabei mit dem Thema auseinanderzusetzen, nimmt<br />

doch nur eine Minderheit auf sich. Man sieht das Gute, das Kollektivgut,<br />

das erreicht wird, wenn alle kooperativ sind, beschließt aber für sich<br />

selbst, doch lieber nicht zum Kollektivgut beizutragen. Würden alle beitragen,<br />

ist der Nutzen für jeden Einzelnen A C (N). Trägt man selbst nicht<br />

dazu bei, aber alle anderen, erzielte man den höheren Nutzen A D (N – 1).<br />

Doch auch wenn die anderen in geringerem Maß oder gar nicht beitragen,<br />

liefert Nicht-Kooperation immer die höhere Auszahlung. Folgen alle dieser<br />

Logik, beträgt die Auszahlung gerade einmal A D (0). Als Ausweg aus<br />

der Falle hat der Philosoph Hartmut Kliemt (2006) einen provokanten<br />

Vorschlag gemacht: Wer einen Organspenderausweis hat und irgend-<br />

116


wann selbst ein Spenderorgan benötigt, soll bei einer Transplantation<br />

bevorzugt werden. Wichtig an dem Vorschlag sind nicht so sehr Gerechtigkeitsüberlegungen<br />

als vielmehr die Schaffung eines Anreizes, um das<br />

Angebot an Spenderorganen zu erhöhen.<br />

Es gibt unzählige weitere Beispiele für derartige Kollektivgutprobleme:<br />

der Beitritt zu einer Gewerkschaft, die höhere Löhne erstreikt<br />

(das Kollektivgut ist der höhere Lohn), die Teilnahme oder Nicht-Teilnahme<br />

an einer Protestdemonstration (sofern man das Ziel des Protests<br />

unterstützt), eine hohe Wahlbeteiligung in Demokratien, eine saubere<br />

Umwelt oder das Problem der Übernutzung von Ressourcen (z. B. der<br />

ungeregelte Holzeinschlag in tropischen Regenwäldern oder die Überfischung<br />

der Meere). Bei einigen Kollektivgutproblemen ist Kooperation<br />

ein aktiver Beitrag, bei anderen besteht die Kooperation in der Unterlassung<br />

(bei dem Problem der Übernutzung von Ressourcen, dem sogenannten<br />

Allmendeproblem). Eine interessante Variante eines Mehr-Personen-<br />

Gefangenendilemmas ist das Paradox von Braess (1968). Das Kollektivgut<br />

ist die Fahrzeit in einem Verkehrsnetz. Paradoxerweise erhöht sich die<br />

Fahrzeit im Nash-Gleichgewicht bei gleicher Anzahl von Verkehrsteilnehmern,<br />

wenn eine zusätzliche Straße gebaut wird. Wie das möglich<br />

ist, erklärt Kasten 6.1.<br />

Dennoch stellen wir auch fest, dass kollektive Güter häufig hergestellt<br />

werden und nicht alle Personen die Trittbrettfahrer-Strategie<br />

wählen. Olson (1968) erklärt eine Beitragsleistung insbesondere durch<br />

die Wirksamkeit «individueller Anreize». Organisationen, die mit<br />

Kollektivgutproblemen konfrontiert sind, bemühen sich, Kooperation<br />

durch individuelle Anreize zu fördern. Eine Gewerkschaft bietet z. B.<br />

Rechtsberatung, gesellige Treffen, Weiterbildung usw., aber eben nur<br />

für Mitglieder, sodass ein Anreiz besteht, sich mit einem Mitgliedsbeitrag<br />

an dem Kollektivgut zu beteiligen. Die Anreize u a müssen gemäß<br />

Gleichung (1) so hoch sein, dass Kooperation nicht mehr dominiert wird,<br />

das heißt, es muss gelten: A D (x – 1) ≤ A C (x) + u a . Individuelle Anreize<br />

verändern die Struktur des Spiels und können das Dilemma entschärfen.<br />

Nach Einführung genügend hoher individueller Anreize wird das N-GD<br />

in ein Kooperationsspiel transformiert. Auch negative Sanktionen bei<br />

Nicht-Kooperation können diesem Ziel dienen. Mafia-Organisationen<br />

117


z. B. lösen so Kollektivgutprobleme mit dem Resultat hoher Kooperation,<br />

allerdings zulasten Dritter. In beiden Fällen wird C zur dominierenden<br />

Strategie und wechselseitige Kooperation zum Nash-Gleichgewicht.<br />

Nicht alle Kollektivgutprobleme folgen dem Muster des N-GD. Eine<br />

Voraussetzung für die Anwendung besteht darin, dass jede einzelne<br />

kooperative Handlung den Wert des Kollektivguts erhöht. Anders formuliert<br />

wächst die Produktionsfunktion strikt monoton in Abhängigkeit<br />

von der Zahl kooperativer Akteure. Außerdem können die Akteure<br />

nur über Kooperation oder Nicht-Kooperation entscheiden, nicht aber<br />

über das Ausmaß der Kooperation. Damit ist eine weitere Generalisierung<br />

angesprochen, das sogenannte Öffentliche-Güter-Spiel (Public<br />

Good Game).<br />

Kasten 6.1 Länger fahren trotz Straßenbau.<br />

Das Paradox von Braess<br />

Sechs Autofahrer wollen von A nach D fahren (Abbildung 6.2a).<br />

Sie haben zwei Strategien: die Route ABD oder ACD. Die Fahrzeit<br />

hängt davon ab, wie viele andere Fahrzeuge den gleichen<br />

Weg nehmen. Die Anzahl der Autos auf einer Straße wird mit<br />

ϕ bezeichnet. Fahren z. B. drei Autos von A nach B, benötigen sie<br />

10 ϕ = 30 Minuten. Von B nach D sind es für drei Fahrzeuge 53<br />

Minuten, insgesamt also für die Route ABD 83 Minuten. Wählt<br />

man die Route ACD, ist die Fahrzeit genau gleich lang. Wir gehen<br />

davon aus, dass je kürzer die Fahrzeit, desto größer der Nutzen<br />

eines Autofahrers ist. Man kann dann leicht sehen, dass die Routenwahl<br />

ABD und ACD durch je drei Verkehrsteilnehmer ein<br />

Pareto-optimales Nash-Gleichgewicht darstellt. Wird das Koordinationsproblem<br />

der Aufteilung auf die beiden Routen gelöst,<br />

wenn alle Autofahrer simultan wählen, dann existiert keine<br />

Dilemmasituation.<br />

118


Abbildung 6.2a Abbildung 6.2b<br />

(Abbildung nach Pöppe 1992)<br />

Die Verkehrsabteilung im Rathaus überlegt sich nun, zur Verbesserung<br />

der Verkehrssituation eine Entlastungsstraße von B nach<br />

C zu bauen (Abbildung 6.2b). Jeder der sechs Autofahrer hat jetzt<br />

einen Anreiz, die neue Straße und damit die neue Strategie ABCD<br />

zu wählen. Wählt er nämlich allein ABCD, während die anderen<br />

bei ihrer Strategie bleiben, dann verringert sich seine Fahrzeit<br />

von 83 auf 81 Minuten. Gleichzeitig erhöht sich aber die Fahrzeit<br />

anderer Autofahrer.<br />

Nehmen wir an, er sei vorher die Strecke ABD gefahren. Durch<br />

seine Wahl von ABCD erhöht sich die Fahrzeit der drei Autos auf<br />

der ACD-Route von vormals 83 auf 93 Minuten. Jetzt wird ein weiterer<br />

Fahrer von ACD auf die Route ABCD wechseln, da sich die<br />

Fahrzeit dann von 93 auf 92 Minuten vermindert. Das Resultat ist,<br />

dass alle Autos auf allen drei Routen 92 Minuten benötigen. Das<br />

System ist wieder im (Nash-)Gleichgewicht. Kein Autofahrer hat<br />

einen Anreiz, seine Routenwahl zu verändern. Das Nash-Gleichgewicht<br />

ist aber nicht Pareto-optimal. Würden die Verkehrsteilnehmer<br />

einen sanktionierbaren Vertrag abschließen, dann würden<br />

sie verabreden, dass keiner die «Entlastungsstraße» befahren<br />

119


darf, und schon würde ihre Fahrzeit wieder auf 83 Minuten sinken.<br />

Braess (1968) analysiert die Situation nicht als Gefangenendilemma.<br />

Wie wir gesehen haben, ist es aber eine Variante eines<br />

Mehr-Personen-GD (mit drei Entscheidungsalternativen und<br />

einem zusätzlichen Koordinationsproblem). Braess kommentiert:<br />

«Für die Verkehrspraxis bedeutet das: In ungünstigen Fällen<br />

kann durch eine Erweiterung des Straßennetzes der Zeitaufwand<br />

anwachsen.» Wohlbemerkt, ohne zusätzliche Autos, das heißt,<br />

es geht noch nicht einmal um den Sogeffekt eines Ausbaus von<br />

Verkehrsnetzen. Die Verkehrsplaner im Rathaus sind gut beraten,<br />

die neue Straße zu sperren, mit Blumenkübeln und Bänken auszustatten<br />

und als Fußgängerzone zu deklarieren.<br />

6.5 Das Öffentliche-Güter-Spiel<br />

Das Öffentliche-Güter-Spiel (ÖGS) wird häufig in Experimenten zur<br />

Untersuchung von Kooperation und Trittbrettfahren verwendet (Überblick<br />

zu Experimenten bei Ledyard 1995; siehe auch Kapitel 10). Die Spieler<br />

erhalten zunächst eine Anfangsausstattung, die sie im Spiel investieren<br />

können. Einen Teil oder auch den gesamten Betrag können sie in<br />

einen kollektiven Fonds einzahlen, den Rest behalten sie. Der Betrag im<br />

Fonds erzielt eine hohe Rendite. Er wird z. B. verdoppelt und auf alle Spieler<br />

gleich aufgeteilt. Der Fonds ist ein Kollektivgut (oder «öffentliches»<br />

Gut); kein Spieler, auch nicht ein Trittbrettfahrer, kann ausgeschlossen<br />

werden. Das Spiel ist so angelegt bzw. die Parameter werden so eingestellt,<br />

dass Trittbrettfahren die dominierende Strategie ist und das Nash-<br />

Gleichgewicht wechselseitiger Defektion geringere Auszahlungen zur<br />

Folge hat als wechselseitige Kooperation. Das ÖGS ist eine Verallgemeinerung<br />

des N-GD. Letzteres sieht nur binäre Entscheidungen zwischen<br />

Kooperation und Defektion vor, während ein Akteur im ÖGS über das<br />

Ausmaß der Kooperation entscheiden kann.<br />

Betrachten wir ein Beispiel. Drei Spieler erhalten einen Anfangs-<br />

120


etrag von fünf Punkten. Einzahlungen in den Fonds werden verdoppelt.<br />

Spieler 1 zahlt nicht in den Fonds ein, Spieler 2 beteiligt sich mit einem<br />

Punkt, und Spieler 3 zahlt den vollen Betrag von fünf Punkten ein. Dann<br />

erzielen die Spieler folgende Auszahlungen:<br />

Tabelle 6.2 Auszahlungen im ÖGS<br />

Spieler<br />

1 2 3<br />

Investition in den kollektiven Fonds 0 1 5<br />

Auszahlung aus dem Fonds 4 4 4<br />

Private Auszahlung 5 4 0<br />

Totale Auszahlung an den Spieler 9 8 4<br />

Natürlich schneiden der Trittbrettfahrer mit neun Punkten am besten<br />

und der voll kooperative Spieler mit vier Punkten am schlechtesten ab.<br />

Hätten aber alle Spieler kooperiert und ihre Punkte in den Fonds eingezahlt,<br />

wären nach der Verdoppelung 30 Punkte im Fonds, sodass jeder<br />

Spieler zehn erhalten hätte. Im Nash-Gleichgewicht wechselseitigen<br />

Trittbrettfahrens würde jeder Spieler dagegen nur fünf Punkte erhalten.<br />

Wieder zeigt sich die Spannung zwischen individuell-rationalem Nash-<br />

Gleichgewicht und dem Pareto-Optimum wechselseitiger Kooperation.<br />

Die Eigenschaften des Spiels lassen sich anhand der Auszahlungsfunktion<br />

aufzeigen.<br />

u i = [ A – x i ] + ⎡ Rxi + R Σ x j<br />

⎤<br />

⎣ N N j ≠ i ⎦<br />

Private Auszahlung Auszahlung<br />

Auszahlung aufgrund aufgrund der<br />

von i’s Beitrag Beiträge der<br />

Mitspieler<br />

Auszahlung aus dem<br />

kollektiven Fonds<br />

121


Bezeichnen wir die Anfangsausstattung mit A und den Multiplikator des<br />

Fonds mit R. Die Anzahl der Spieler N ist größer als R. x i ist der Beitrag,<br />

der von Spieler i (i = 1, 2, 3 … N) in den Fonds eingezahlt wird (0 ≤ x i ≤ A).<br />

Für N > R ist R/N kleiner als eins, sodass die Auszahlung aufgrund von i’s<br />

Beitrag zum Fonds immer kleiner ist als x i . u i ist demnach maximal für<br />

x i = 0. Diese Strategie ist dominierend und die Nash-Gleichgewichtsstrategie.<br />

Im Gleichgewicht erhalten alle Spieler die Auszahlung A. Würden<br />

sie alle kooperieren, erhielten sie dagegen R mal den Betrag A.<br />

Die Rationalitätslösung der klassischen Spieltheorie ist Trittbrettfahren.<br />

In Experimenten zeigt sich aber, dass ein Großteil der Versuchspersonen<br />

mehr oder minder hohe Beträge in den Fonds einzahlt. Man kann nun<br />

verschiedene Bedingungen einführen, um Effekte auf das Kooperationsverhalten<br />

der Versuchspersonen zu studieren. Derartige Experimente<br />

sind wichtig, um herauszufinden, auf welche Weise soziale <strong>Dilemmata</strong><br />

gelöst werden können. Einige Ergebnisse werden wir noch in Kapitel 10<br />

kennenlernen.<br />

6.6 Freiwilligendilemma<br />

Eine einfache Entscheidungssituation illustriert das Freiwilligendilemma.<br />

Stellen Sie sich vor, Sie können in einer Gruppe von zusammen<br />

fünf Personen ohne Möglichkeit der Absprache zwischen 50 ¤ und 100 ¤<br />

wählen. Schreiben Sie Ihre Wahl auf einen Zettel. Der gewählte Betrag<br />

wird an Sie ausgezahlt, vorausgesetzt, mindestens ein Gruppenmitglied<br />

hat sich für den geringeren Betrag entschieden. Andernfalls gehen alle<br />

leer aus. Wie entscheiden Sie sich bei einem, bei neun oder bei 99 Mitspielern?<br />

Und wie entscheiden Sie sich, wenn die geringere Auszahlung<br />

99 ¤ oder nur 1 ¤ beträgt?<br />

Anders als im N-GD kann im Freiwilligendilemma oder «Volunteer’s<br />

Dilemma» (Diekmann 1985, 1993) das Kollektivgut bereits durch einen<br />

Akteur in voller Höhe bereitgestellt werden. Dem Freiwilligen entstehen<br />

dabei Kosten, die aber geringer sind als der Nutzen des Kollektivguts<br />

für jeden der Akteure. Ein Akteur hat also immer auch einen Anreiz<br />

122


zu kooperieren, wobei der Nutzen aber am höchsten ist, wenn ein Mitspieler<br />

diese Aufgabe übernimmt und sozusagen «die Kohlen aus dem<br />

Feuer holt». Gehen jedoch alle davon aus, dass ein anderer diese Aufgabe<br />

übernimmt, wird das Kollektivgut nicht erzeugt, obwohl alle Akteure<br />

daran ein Interesse haben. Die Produktionsfunktion für das Kollektivgut<br />

ist eine Stufenfunktion (erzeugt wird ein «step-level»-Kollektivgut). In<br />

einem Diagramm mit dem Nutzen des Kollektivguts an der y-Achse und<br />

der Anzahl kooperativer Akteure an der x-Achse springt der Nutzen für<br />

x = 1 auf das Nutzenniveau des Kollektivguts und verbleibt auf diesem<br />

Wert, wenn weitere kooperative Akteure hinzukommen. Im Gegensatz<br />

zum N-GD ist Defektion keine dominierende Strategie.<br />

Es gibt zahlreiche Beispiele und Anwendungen, weniger ernste und<br />

dramatische Dilemmasituationen. Ein prominentes Beispiel sind Hilfeleistungen<br />

und unterlassene Hilfe wie bei dem Mord an Kitty Genovese.<br />

Vor mehr als vier Jahrzehnten hat dieser Mord an einer jungen Frau in<br />

New York für großes Aufsehen gesorgt. 38 Zeugen haben die Gewalttat,<br />

die sich über längere Zeit hinzog, von ihrer Wohnung aus beobachtet,<br />

wie nachträgliche Rekonstruktionen ergaben. Keiner der Zeugen, von<br />

denen jeder einzelne bemerken konnte, dass weitere Beobachter zugegen<br />

waren, hat Hilfe geleistet oder auch nur zum Telefonhörer gegriffen,<br />

um die Polizei zu benachrichtigen. Ähnliche Vorkommnisse haben<br />

sich immer wieder ereignet, so in München im Olympiapark, wo zwei<br />

Kinder in Gegenwart mehrerer Zuschauer in einem See ertrunken sind.<br />

Die Anonymität städtischer Lebensformen, Persönlichkeitsmerkmale<br />

usf. wurden zur Erklärung herangezogen. Diese Faktoren dürften durchaus<br />

eine Rolle spielen. Von Interesse ist aber auch ein zusätzlich wirksamer<br />

Mechanismus, auf den Darley und Latané (1968) verwiesen haben.<br />

Ihr Prinzip der «Diffusion von Verantwortung» besagt, dass jeder der<br />

Zeugen von einem anderen Beobachter erwartet, dass er die Mühe der<br />

Hilfeleistung auf sich nimmt. Denken alle Beobachter in dieser Weise,<br />

resultiert hieraus der paradoxe Effekt (d. h. ein Effekt, der letztlich auch<br />

den Absichten der Zuschauer zuwiderläuft), dass die Hilfeleistung unterbleibt.<br />

Das Prinzip der Verantwortungsdiffusion kann folgendermaßen<br />

formuliert werden: Je größer die Zahl der Zuschauer (N) in einer Hilfeleistungssituation,<br />

desto geringer ist die (individuelle) Wahrscheinlich-<br />

123


keit (p), dass eine bestimmte Person Hilfe leistet. (Die Wahrscheinlichkeit,<br />

dass irgendeine Person Hilfe leistet, muss aber nicht notwendigerweise<br />

durch Verantwortungsdiffusion mit der Gruppengröße absinken. Der<br />

Grund ist, dass die größere Zahl potenzieller Hilfeleistender die sinkende<br />

individuelle Bereitschaft kompensieren kann.)<br />

Darley und Latané (1968) haben sich ein Experiment einfallen lassen,<br />

in dem eine Hilfeleistungssituation simuliert wurde. Den Versuchspersonen<br />

an dem Experiment wurde vorgespiegelt, sie nähmen an einer Diskussion<br />

über das College-Leben teil. Jede Person wurde in einen Raum<br />

gebeten, in dem sie sich über ein Mikrophon mit den (vorgetäuschten)<br />

anderen Gruppenmitgliedern unterhalten konnte. Je nach Versuchsbedingung<br />

wurde eine Zwei-Personen-, Drei-Personen- oder Sechs-Personen-Gruppe<br />

suggeriert. Die Probanden wurden den drei Gruppen<br />

nach dem Zufallsprinzip zugewiesen. Nach einem vorgetäuschten epileptischen<br />

Anfall eines «Gruppenmitglieds» wurde die Reaktion der Versuchspersonen<br />

in einem Zeitraum von sechs Minuten aufgezeichnet. Als<br />

Hilfeleistung wurde gewertet, wenn die Versuchsperson den Raum verließ,<br />

um den Versuchsleiter auf die vermeintliche Notsituation aufmerksam<br />

zu machen. War die Person allein Zeuge des epileptischen Anfalls,<br />

erfolgte in 85 % der Fälle eine Hilfeleistung. Bei zwei Personen sank die<br />

Bereitschaft der Versuchspersonen auf 62 % der Versuche und in einer<br />

Gruppe von fünf Personen auf 31 %.<br />

Nehmen wir an, dass die Zuschauer nicht völlig gefühlskalt und an<br />

einer Hilfeleistung durchaus interessiert sind. Der Wert der Hilfeleistung<br />

ist dann für alle N beteiligten Personen ein kollektives Gut mit dem<br />

Nutzen U. Mit der Hilfeleistung sind aber Kosten K verbunden, wobei<br />

wir annehmen, dass diese geringer als U sind (U > K > 0). Trittbrettfahrer<br />

warten nun darauf, dass andere kooperative Personen die Kosten der Hilfeleistung<br />

auf sich nehmen. Ist dies der Fall, dann erzielen sie eine Auszahlung<br />

U, während die kooperativen Personen nur U – K erhalten. Verlassen<br />

sich aber alle beteiligten Zuschauer darauf, dass mindestens eine<br />

andere Person kooperativ sein wird, dann tritt das schlechteste Ergebnis<br />

ein, indem die Hilfeleistung (allgemein die Herstellung des Kollektivguts)<br />

unterbleibt. In einer Entscheidungsmatrix der Spieltheorie dargestellt,<br />

ergibt sich folgende Situation:<br />

124


0 1 2 ... N – 1<br />

Anzahl anderer<br />

C-Wähler<br />

C U – K U – K U – K … U – K U – K > 0<br />

D 0 U U … U N ≥ 2<br />

Matrix 6.2 Freiwilligendilemma<br />

Die Interaktionsstruktur ist in einer Hilfeleistungssituation möglicherweise<br />

tödlicher Ernst (aber es gibt auch weniger dramatische<br />

Anwendungen, dazu weiter unten). Ein Akteur i aus einer Menge von<br />

N Akteuren kann zwischen C (Kooperation) und D («Defektion», Trittbrettfahren)<br />

wählen. Bei der Entscheidung für C erhält er immer die<br />

Auszahlung U – K, bei der Wahl von D dagegen U, sofern mindestens<br />

ein anderer Akteur C wählt. Andernfalls gehen sämtliche Akteure leer<br />

aus (Auszahlung 0).<br />

Gibt es ein Nash-Gleichgewicht im Freiwilligendilemma? Wenn<br />

eine Person Hilfe leistet (C) und alle anderen nicht (D), erhält man ein<br />

Nash-Gleichgewicht mit Pareto-optimalen Auszahlungen. Die Auszahlung<br />

an die Person, die das Kollektivgut herstellt, ist U – K, alle anderen<br />

bekommen U. Es gibt N derartige Konstellationen und damit N Nash-<br />

Gleichgewichte. Das Problem ist nur, dass das Gleichgewicht bei einer<br />

symmetrischen Ausgangssituation asymmetrisch ist. Ohne Vertrag und<br />

Absprache kann man das Gleichgewicht nicht erreichen.<br />

Eine andere Möglichkeit besteht darin, die Sicherheitsstrategie zu<br />

wählen, sich also nach dem Maximin-Prinzip zu richten und kooperativ<br />

zu handeln. Wenn aber alle Akteure Maximin wählen, hat jede Person<br />

einen Anreiz, durch die Wahl von D abzuweichen. Wechselseitige<br />

Anwendung des Maximin-Prinzips ist kein Nash-Gleichgewicht. Wechselseitige<br />

Defektion ist ebenfalls kein Gleichgewicht, und das Resultat ist<br />

noch ungünstiger, nämlich null statt U – K.<br />

Es gibt aber noch eine weitere Möglichkeit, wenn man gemischte<br />

Strategien zulässt. Gewählt wird eine Kooperationswahrscheinlichkeit<br />

p * , sodass bei wechselseitiger Wahl dieser Wahrscheinlichkeit kein<br />

Akteur einen Anreiz hat, auf eine andere Strategie auszuweichen. Man<br />

125


kann zeigen, dass die folgende Funktion für p * in Abhängigkeit von K, U<br />

und N ein Nash-Gleichgewicht darstellt (Diekmann 1985) 7 :<br />

N – 1<br />

p * = 1 – √<br />

K<br />

U<br />

Wahrscheinlichkeit von Kooperation<br />

1<br />

0,9<br />

0,8<br />

0,7<br />

0,6<br />

0,5<br />

0,4<br />

0,3<br />

0,2<br />

0,1<br />

0<br />

Gruppengröße (N)<br />

K/U = 0,5<br />

2 3 4 5 6 7 8 9 10<br />

Abbildung 6.3 Wahrscheinlichkeit der Kooperation in Abhängigkeit der Gruppengröße<br />

(Modellprognose)<br />

Die Wahrscheinlichkeit der Kooperation steigt mit dem Wert des Kollektivguts<br />

U, sinkt mit den Kosten K und – wie von der Hypothese der Verantwortungsdiffusion<br />

behauptet – mit der Gruppengröße N (Abbildung<br />

6.3). Damit kann die intuitiv formulierte Hypothese der Verantwortungsdiffusion<br />

spieltheoretisch untermauert und tiefer begründet werden.<br />

Mehr noch: In spieltheoretischen Experimenten können nun die unabhängigen<br />

Variablen N, U und K systematisch variiert werden. Damit ist<br />

es möglich, die Hypothese der Verantwortungsdiffusion (Effekt von N)<br />

sowie die Effekte von K und U auf die Kooperationswahrscheinlichkeit<br />

p zu untersuchen.<br />

In einer ernsthaften Hilfeleistungssituation sollte man wohl die<br />

7 Eine einfache Ableitung erhält man mittels des «Indifferenz-Theorems» aus Kapitel<br />

5. Mit q = 1 – p bezeichnen wir die Wahrscheinlichkeit einer D-Wahl. Die Wahrscheinlichkeit,<br />

dass mindestens ein anderer Akteur C wählt, ist (1 – q N – 1 ). q wird so<br />

gewählt, dass Zeile indifferent ist zwischen der Wahl von C und D. Demnach gilt:<br />

U – K = (1 – q N – 1 ) U. Die Auflösung nach q und Berücksichtigung von p = 1 – q ergibt<br />

die oben aufgeführte Formel.<br />

126


Maximin-Strategie wählen. Auch das gemischte Nash-Gleichgewicht<br />

wird in diese Richtung gehen. Ist K gering und U sehr hoch, dann geht<br />

p * gegen eins. In Experimenten ist beobachtbar, dass sich Versuchspersonen<br />

im Vergleich mit dem gemischten Nash-Gleichgewicht eher kooperativer<br />

verhalten.<br />

Ein einfaches Experiment wurde einleitend erwähnt. In Gruppen<br />

von z. B. zwei, drei oder fünf Personen kann jede Person unabhängig voneinander<br />

die Alternative A oder B wählen. Der entsprechende Buchstabe<br />

wird auf einen Zettel geschrieben. Für A erhält eine Person sicher 50<br />

Punkte, für B 100 Punkte, sofern mindestens eine Person in der Gruppe A<br />

wählt. Andernfalls erhalten alle B-Wähler null Punkte (U = 100, K = 50).<br />

Man wird feststellen, dass in größeren Gruppen häufiger B gewählt<br />

wird. Kontrollierte Experimente zeigen, dass der Effekt der Diffusion<br />

von Verantwortung in spieltheoretischen Experimenten reproduzierbar<br />

ist und fast ausnahmslos bestätigt werden kann (z. B. Diekmann<br />

1986, 1993, Murninghan, Kim und Metzger 1993, Weesie und Franzen<br />

1998).<br />

Ein Vorzug des abstrakten Modells des Freiwilligendilemmas ist<br />

aber nicht nur, dass neue und recht einfache Experimente zur Prüfung<br />

der Hypothese der Verantwortungsdiffusion arrangiert werden können.<br />

Die Hypothese ist auch verallgemeinerbar. Wir haben bereits schon allgemein<br />

von «Kollektivgut» und «Kooperation» gesprochen. Der Ausgangspunkt<br />

von Darley und Latané, nämlich Hilfeleistungssituationen,<br />

können im Rahmen des allgemeineren Modells als spezielle Anwendungen<br />

aufgefasst werden. Hier einige weitere Beispiele sozialer Situationen<br />

vom Typ Volunteer’s Dilemma:<br />

– Wenn eine Person eine Normverletzung begeht, z. B. eine Zigarette<br />

bei Rauchverbot anzündet, ist häufiger zu beobachten, dass eine<br />

Sanktion unterbleibt. Selbst wenn alle durch das Rauchen belästigten<br />

Personen an einer Sanktionierung interessiert sind (U), ist dies<br />

meist mit Kosten (K) verbunden. Wartet nun jeder darauf, dass eine<br />

andere am «Kollektivgut» interessierte Person die Kosten trägt, bleibt<br />

der Normverletzer unbehelligt (Sanktionsdilemma).<br />

– Bei Wahrnehmungsaufgaben kann es vorkommen, dass Personen in<br />

einer Gruppe weniger konzentriert sind, als wenn sie eine Aufgabe<br />

127


allein bearbeiten. Dieses Problem ist wichtig bei Überwachungstätigkeiten<br />

zur Fehlerkontrolle. Übernehmen zwei Fluglotsen die gleiche<br />

Überwachungsaufgabe, dann ist es gut möglich, dass sie insgesamt<br />

nachlässiger sind als bei individueller Verantwortlichkeit (Erev et al.<br />

1994).<br />

– Mehrere Firmen stehen vor der Entscheidung, in Forschungsanstrengungen<br />

zu investieren (K) oder aber darauf zu warten, dass eine<br />

andere Firma die Innovation entwickelt. Diese kann dann von den<br />

einzelnen Unternehmen imitiert werden (U). Folgen alle Firmen dieser<br />

Logik, werden die Forschungsinvestitionen nicht getätigt (Eger,<br />

Kraft und Weise 1992).<br />

– In der Informatik treten verschiedene <strong>Dilemmata</strong> auf, wenn einzelne<br />

Knoten (die Akteure) zu einem dezentralen Netzwerk von Computern<br />

verknüpft werden. Jeder Knoten ist z. B. daran interessiert, dass<br />

andere Knoten die Weiterleitung von Information übernehmen, d. h.<br />

sogenannte Backbones unterstützen, aber kein Knoten übernimmt<br />

diese Aufgabe gern, weil sie mit Kosten (Energieaufwand) verbunden<br />

ist. Lee et al. (2007) analysieren die Situation mit einer Variante des<br />

Dilemmas, dem Volunteer’s Timing Dilemma, und leiten aus der<br />

Analyse optimale Strategien ab, die kooperatives Verhalten in Computernetzen<br />

erklären.<br />

– Viele Alltagssituationen tragen Züge eines Volunteer’s Dilemma.<br />

Wenn mehrere Dozenten für ein Seminar verantwortlich sind, kann<br />

es vorkommen, dass bei Seminarsitzungen niemand vorbereitet ist.<br />

Bitten Sie per E-Mail um eine Auskunft, dann bekommen Sie diese<br />

eher, wenn Sie z. B. fünf separate E-Mails schreiben als eine E-Mail<br />

an alle fünf Empfänger (sofern die Kopfzeile mit den anderen Empfängern<br />

sichtbar ist) (Barron und Yechiam 2002). In italienischen<br />

Kirchen können Kunstwerke oft erst mit Genuss betrachtet werden,<br />

wenn sie beleuchtet werden. Die Beleuchtung wird aktiviert, wenn<br />

man eine Münze in einen Automaten steckt. Ein Freiwilliger kann<br />

das Kollektivgut «Beleuchtung» herstellen. Kann man beobachten,<br />

dass sich die Zahlungsneigung verringert, wenn sich mehrere Personen<br />

in dem Kirchenraum aufhalten?<br />

128


Pinguine, berichtet Dawkins (1988), haben eine raffinierte, aber ziemlich<br />

bösartige Strategie entwickelt, um das Dilemma zu lösen. Der Feind des<br />

Pinguins ist die Robbe. Ob sie im Wasser lauert, wenn die hungrigen Tiere<br />

dringend benötigte Nahrung, sprich Fische, erbeuten möchten, wissen<br />

die Pinguine, die am Rand des Eislochs auf das Wasser starren, nicht. Da<br />

kommt es ab und zu vor, dass die hinteren Tiere einen vorwitzigen Pinguin<br />

in der ersten Reihe ins Wasser stoßen, um mit dem unfreiwilligen<br />

Artgenossen einen Test zu machen. Ist das Ergebnis negativ, können sie<br />

sich gefahrlos über die ersehnte Mahlzeit hermachen.<br />

Das einfache Basisspiel kann in verschiedene Richtungen erweitert<br />

werden. Im asymmetrischen Volunteer’s Dilemma können Kosten und<br />

Nutzen der einzelnen Akteure variieren (Diekmann 1993, Weesie 1993).<br />

Im Volunteer’s Timing Dilemma (Weesie 1993, 1994) werden die Akteure<br />

darüber informiert, ob ein Mitspieler kooperiert hat, wobei sich aber der<br />

Nutzen des Kollektivguts mit der Wartezeit verringert. Zu entscheiden<br />

ist in diesem Fall der Zeitpunkt der kooperativen Handlung, vorausgesetzt,<br />

kein Mitspieler hat bereits kooperiert. Weiterhin kann man auch<br />

die Annahme lockern, dass mehrere Freiwillige jeweils die vollen Kosten<br />

tragen. Man kommt so zum Volunteer’s Dilemma mit Kostenteilung<br />

(Weesie und Franzen 1998).<br />

<strong>Soziale</strong> Situationen vom Typ des Volunteer’s Dilemma sind so häufig,<br />

dass sie in einigen Kulturen sprichwörtlich sind oder dafür sogar ein<br />

eigenes Wort existiert. In einer Untersuchung zum Volunteer’s Dilemma<br />

erwähnt Rapoport (1988), dass in Yagan, einer der Sprachen der Eingeborenen<br />

von Feuerland, das Wort «mamihlapinatapai» bedeutet: «Jeder<br />

erwartet von jemand anderem, dass dieser etwas tut, was alle wünschen,<br />

aber keiner bereit ist zu tun».<br />

6.7 Wer hängt der Katze die Schelle um?<br />

In einer Fabel von Äsop haben die Mäuse – nicht ungewöhnlich – Ärger<br />

mit der Katze. Auf der Versammlung der Mäuse hört man allgemeines<br />

Wehklagen über die Gefahr für Leib und Leben durch ihren Widersacher.<br />

Eine kluge Maus schlägt vor, der Katze eine Glocke umzuhängen. So<br />

129


könnte man immer hören, wenn sich die Katze nähert, und sich rechtzeitig<br />

in Sicherheit bringen. Der Vorschlag wird von der Mäuseversammlung<br />

begeistert angenommen. Der Plan hatte nur einen Schönheitsfehler:<br />

Niemand von den versammelten Mäusen war bereit, der Katze die<br />

Schelle umzuhängen.<br />

Das Umhängen der Schelle ist ein Kollektivgut mit hohem Nutzen<br />

U für die gesamte Gemeinschaft (siehe auch Coleman 1990). Wären die<br />

Kosten geringer als U (vielleicht bei einer schlafenden Katze?), hätten<br />

wir wieder den Fall eines Volunteer’s Dilemma. Wir werden dem Geist<br />

der Fabel aber wohl eher gerecht, wenn wir annehmen, dass gilt: K > U<br />

oder U – K < 0, denn der Held, der es schafft, der Katze die Glocke umzuhängen,<br />

wird mutmaßlich von ihr aufgefressen.<br />

Die Äsop’sche Fabel ist also eine Variante des Volunteer’s Dilemma<br />

mit der Besonderheit, dass die Kosten des Freiwilligen höher sind als sein<br />

individueller Nutzen am Kollektivgut. In diesem Fall wird Defektion zur<br />

dominierenden Strategie. Kein Wunder, dass sich in der Versammlung<br />

der Mäuse kein Freiwilliger findet! 8<br />

Schelling (1971) berichtet von Verkehrsstaus, die eine einfache<br />

Ursache haben. Eines der vielen vom Strand zurückgekehrten Fahrzeuge<br />

verliert eine auf dem Autodach nachlässig befestigte Matratze.<br />

Die Matratze liegt nun z. B. auf der rechten Fahrspur und blockiert die<br />

nachfolgenden Autos. Ein Fahrer unmittelbar vor dem Hindernis hat die<br />

Wahl, die Matratze zu umfahren oder sie zu beseitigen. Wer sich direkt<br />

vor dem Hindernis befindet, hat die geringsten Kosten K, die Matratze<br />

wegzuräumen. Leider aber auch einen noch geringeren Nutzen U, sodass<br />

gilt: U – K < 0. Wer weiter hinten im Stau steht, hat dagegen gar nicht die<br />

Möglichkeit, das Kollektivgut der Hindernisbeseitigung zu schaffen. So<br />

tastet sich jedes Fahrzeug an das Hindernis heran und umfährt es, sobald<br />

die Matratze in Sichtweite rückt. Eine vertrackte Situation, die kilometerlange<br />

Staus verursachen kann. Die Situation ist völlig äquivalent zu der<br />

Situation der Mäuse in der Fabel von Äsop. Nur ein altruistischer Held<br />

8 In Cresskill, New Jersey, hat man eine Lösung gefunden, wie die Süddeutsche Zeitung<br />

Online vermeldet (16. 6. 2008). Allerdings nicht um Mäuse, sondern um Vögel<br />

zu warnen, müssen Katzen drei Glocken tragen. Die Mäuse von Cresskill bedanken<br />

sich für die «windfall profits».<br />

130


könnte das Dilemma überwinden. Platt (1973) bezeichnet derartige Situationen<br />

folgerichtig auch als «Missing-Hero-Fallen». Allgemein wird ein<br />

Kollektivgutproblem ohne Absprachen und vertragliche Regelungen nur<br />

schwer lösbar sein, wenn genau diejenigen Akteure, die das Kollektivgut<br />

produzieren können, davon nur einen geringen Nutzen haben, den ihre<br />

Kosten übersteigen. Helden sind nicht immer vorhanden, wenn man sie<br />

gerade benötigt. Dann ist es besser, die Spielstruktur zu verändern, um<br />

das Dilemma zu entschärfen. Analog der Institution der Produkthaftung<br />

könnte man den Autofahrer, der die Matratze verliert, für alle Schäden,<br />

auch alle Zeitverluste durch den verursachten Stau, haftbar machen, vorausgesetzt,<br />

die Wahrscheinlichkeit ist nicht null, dass er identifiziert werden<br />

kann. Die Haftungspflicht und womöglich deren Verschärfung erhöhen<br />

den Anreiz, Vorsorge zu betreiben und auf dem Dach transportierte<br />

Güter besser zu sichern. Auch wenn eine Gesellschaft davon profitiert,<br />

wenn im Alltag verantwortungsbewusste Helden nicht zu rar sind, ist die<br />

strukturelle Lösung der Veränderung der Anreizstruktur oft wirksamer.<br />

In Bertolt Brechts «Galilei» klagt sein enttäuschter Schüler Andrea nach<br />

Galileis Widerruf: «Unglücklich das Land, das keine Helden hat!» Darauf<br />

antwortet Galilei: «Nein. Unglücklich das Land, das Helden nötig hat.»<br />

6.8 Lösungen sozialer <strong>Dilemmata</strong><br />

Wenn Dilemmasituationen nicht einmalig sind, sondern die gleichen<br />

Akteure wiederholt miteinander interagieren, besteht die Möglichkeit<br />

einer spontanen Entwicklung von Kooperation. 9<br />

Problematischer ist die Herstellung von Kooperation in einmaligen<br />

Situationen und in größeren Gruppen. Hier empfiehlt es sich, leichter<br />

9 Wenn zudem ein Akteur A häufiger mit wechselnden anderen Akteuren interagiert,<br />

können Informationen über das Verhalten von A in der Vergangenheit dazu beitragen,<br />

das Kooperationsniveau zu erhöhen (Reputationseffekt). Mit diesen beiden<br />

Lösungen von Dilemmasituationen, wiederholte Spiele und Reputation, werden wir<br />

uns im folgenden Kapitel befassen (zu Hinweisen auf weitere Lösungen des Kooperationsproblems<br />

siehe auch den kurzen Überblick von Diekmann und Lindenberg<br />

2001).<br />

131


gesagt als getan, Anreize zu schaffen, die kooperatives Verhalten fördern<br />

und Defektion vermindern. In jeder Gesellschaft existieren soziale<br />

Normen und Institutionen, die Kooperation unterstützen und Trittbrettfahren<br />

mehr oder minder erfolgreich reduzieren. Jeder Staat versucht,<br />

Zahlungen der Bürger für Kollektivgüter (oft auch für «Kollektivübel»)<br />

zu erzwingen. Kein Staat überlässt es seinen Bürgern, freiwillig Steuern<br />

zu zahlen. Institutionen, hier definiert als dauerhafte, kalkulierbare,<br />

positive oder negative Anreize, können exogen von einer äußeren Autorität<br />

geschaffen oder aber endogen von der betroffenen Gruppe selbst<br />

gestaltet werden. Gegenüber der exogenen «Leviathan»-Lösung wäre<br />

Letzteres die endogene, «genossenschaftliche» Variante.<br />

Nehmen wir als Beispiel eine soziale Situation, die einem N-GD<br />

strukturähnlich ist. Beim Allmendeproblem der Überfischung ist kooperativ,<br />

wer sich an die nachhaltige Strategie hält, gerade so viel zu fangen,<br />

dass der Bestand erhalten bleibt. Wenn die Wachstumsrate z. B. ein Drittel<br />

ist, kann man in einer Periode 25 % entnehmen und hätte am Ende<br />

der Periode wieder den ursprünglichen Bestand. Nehmen wir an, die<br />

Allmende wird von 25 Fischern bewirtschaftet. Die kooperative Strategie<br />

eines Fischers lautet dann, nicht mehr als 1 % des Bestands herauszufischen.<br />

Wie wir wissen, hat jeder Akteur einen Anreiz, die Quote zu<br />

überschreiten. Folgen alle der defektiven Strategie der Ausbeutung, wird<br />

das Gewässer bald leer gefischt sein (Spada und Opwis 1985, Mosler und<br />

Gutscher 1996).<br />

In einer bemerkenswerten Arbeit hat Ostrom (1990) weltweit Allmenden<br />

untersucht, um herauszufinden, unter welchen Bedingungen<br />

die Ressourcenbewirtschaftung erfolgreich ist und wann die Wahrscheinlichkeit<br />

hoch ist, dass eine Allmende zugrunde gerichtet wird.<br />

Erfolgreiche Allmenden erfüllen u. a. die folgenden Bedingungen:<br />

(1) Der Zugang ist geregelt. Nur Mitglieder – im Beispiel die 25 Fischer –<br />

haben Zugang zu der Ressource. (2) Es gibt ein Monitoring des Verhaltens<br />

der Akteure, und (3) unkooperatives Verhalten kann abgestuft sanktioniert<br />

werden. Ein Beispiel ist eine Gemeinschaft von rund 100 Fischern in<br />

Alanya in der Türkei. Das Fischereigebiet wird vor Beginn der Fangsaison<br />

in Sektoren aufgeteilt, wobei die Anzahl der Sektoren der Mitgliederzahl<br />

entspricht. Die Sektoren werden sodann an die Mitglieder verlost. Da


die Sektoren unterschiedliche Qualität haben, wechseln die Mitglieder<br />

an jedem Fangtag den Sektor nach festgelegten Regeln. Diese einfachen<br />

Regulierungen oder Institutionen sind klug gewählt. Das Monitoring<br />

erfolgt nicht durch eine bürokratische Kontrollbehörde, sondern die<br />

Mitglieder kontrollieren sich wechselseitig. Eine Regelabweichung,<br />

ein fremdes Schiff im zugewiesenen Sektor, wird automatisch von den<br />

Akteuren bemerkt. Die Alanya-Fischer haben mit ihren Regeln ein sich<br />

selbst kontrollierendes System geschaffen, das äußerer Interventionen<br />

nicht mehr bedarf (siehe auch den Überblick in Diekmann und Preisendörfer<br />

2001: Kapitel III). Mit Institutionen, die die Probleme von Monitoring<br />

und Sanktionierung lösen, kann es gelingen, einen Ausweg aus<br />

einem N-GD, einem ÖGD oder Allmendedilemma zu finden.<br />

Die Spieltheorie ist hilfreich, um soziale <strong>Dilemmata</strong> zu analysieren.<br />

Wir haben gesehen, dass es unterschiedliche Arten sozialer <strong>Dilemmata</strong><br />

gibt. Ein N-GD z. B. hat eine andere Struktur als ein Freiwilligendilemma.<br />

Da geeignete Lösungen eines Dilemmas wesentlich vom Typ abhängen,<br />

empfiehlt es sich, ein passendes spieltheoretisches Modell des Dilemmas<br />

zu formulieren, dieses zu analysieren (Ermittlung von Nash-Gleichgewichten<br />

u. a.) und auf der Basis der spieltheoretischen Analyse nach<br />

Lösungsmöglichkeiten zu suchen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!