6 Soziale Dilemmata
6 Soziale Dilemmata
6 Soziale Dilemmata
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
6 <strong>Soziale</strong> <strong>Dilemmata</strong><br />
In Adam Smiths «Reichtum der Nationen» befördert der Eigennutz des<br />
Einzelnen das allgemeine Wohl. Individuelles rationales Handeln und<br />
kollektive Wohlfahrt werden durch die «unsichtbare Hand» des Marktes<br />
in Einklang gebracht. In einem sozialen Dilemma verhält es sich genau<br />
umgekehrt, die Harmonie zwischen individuellen Interessen und kollektivem<br />
Resultat ist gestört. Die einzelnen Akteure verfolgen ihre Ziele rational,<br />
erreichen aber insgesamt nur ein suboptimales Ergebnis. «Rationales<br />
Handeln und irrationale Gesellschaft?» lautet der Titel eines Buchs von<br />
Barry und Hardin (1982), der den Konflikt auf den Punkt bringt. Sozialpsychologen<br />
sprechen von sozialen Fallen (Platt 1973), der Soziologe Boudon<br />
(1979) von «paradoxen Effekten». Die Problematik sozialer <strong>Dilemmata</strong><br />
durchzieht die Gesellschaftspolitik wie ein roter Faden. Der Irrtum naiver<br />
Gesellschaftsanalyse besteht darin, dass unvernünftige Ergebnisse<br />
auf unvernünftiges Handeln zurückgeführt werden. Das Gegenteil ist oft<br />
der Fall. Unvernünftige Ergebnisse sind oft Folge individuell-rationaler<br />
Handlungen. Von den kollektiven Ergebnissen kann man nicht auf die<br />
Motive der Handelnden schließen. Im Gefangenendilemma beispielsweise<br />
erzielen rational handelnde Personen ein «irrationales» Ergebnis.<br />
(Vom Resultat her gesehen sind die Klugen dumm und die Narren klug.)<br />
In einem sozialen Dilemma ist das Nash-Gleichgewicht nicht Paretooptimal<br />
(wie im Gefangenendilemma) oder ein Pareto-optimales Nash-<br />
Gleichgewicht ohne Koordination nicht realisierbar (wie im Chickenspiel).<br />
John Nash und Vilfredo Pareto gehen nicht Hand in Hand. Eine<br />
solche Situation bezeichnet man auch als «ineffizient». Gäbe es die Möglichkeit,<br />
einklagbare Verträge abzuschließen, wäre die Vertragslösung<br />
immer besser als das Ergebnis individuell-rationalen Handelns.<br />
Man könnte ein soziales Dilemma auf diese Weise genauer definieren:<br />
Ein soziales Dilemma liegt vor, wenn individuell-rationales Handeln schlechtere<br />
Ergebnisse hervorbringt als die theoretische Möglichkeit eines einklagbaren Vertrags<br />
unter rational handelnden Akteuren.<br />
105
Leider sind Verträge oft nur eine theoretische und keine praktische<br />
Möglichkeit. «Einklagbar» heißt, dass Vertragsverletzungen sanktioniert<br />
werden können. Weiterhin sind Verträge unter vielen Personen<br />
mit oftmals prohibitiv hohen Transaktionskosten verbunden. In einem<br />
Verkehrsstau kann man in der Regel kein Abkommen über die optimale<br />
Fahrweise aller Verkehrsteilnehmer aushandeln.<br />
Beispiele finden wir in kleinen sozialen Gruppen ebenso wie auf der<br />
Ebene der Weltgesellschaft. Zu ihnen zählen die Überfischung der Meere,<br />
Umweltverschmutzung, die Ausbeutung knapper Ressourcen, Wettrüsten,<br />
Handelskriege ebenso wie im kleinen Rahmen der Wasserverbrauch<br />
in einem Mietshaus mit gemeinsamem Zähler oder der gemeinsam<br />
genutzte Kühlschrank in einer Wohngemeinschaft (vgl. Diekmann<br />
1992).<br />
Vertiefen wir als einfaches Beispiel für ein Ressourcendilemma im<br />
Alltagsleben den aus der Einleitung bekannten Restaurantbesuch einer<br />
Gruppe von zehn mehr oder minder zivilisierten Zeitgenossen, die verabredet<br />
haben, dass sie den Rechnungsbetrag nach dem Genuss des<br />
Abendessens durch die Zahl der Köpfe teilen. Wer nur den kleinen Hunger<br />
auf den griechischen Hirtensalat für 5 ¤ verspürte, überlegt nun, ob<br />
nicht doch das Chateaubriand mit Pommes Croquettes für 35 ¤ die bessere<br />
Wahl wäre. Die Differenz beträgt 30 ¤ bei individueller Bezahlung,<br />
aber nur 3 ¤ bei kollektiver Abrechnung, da 27 ¤ von neun Mitessern<br />
subventioniert werden. Falls also der Nutzenzuwachs durch das Chateaubriand<br />
den Wert von 3 ¤ übersteigt, wird ein rationales Gruppenmitglied<br />
die teure Speise bestellen. Mit dieser Überlegung bleibt er aber nicht<br />
allein, sodass die Rechnung insgesamt aufgebläht wird und am Ende alle<br />
schlechter dastehen als bei individueller Abrechnung. (Nehmen wir an,<br />
allen Teilnehmern ist die Nutzendifferenz 5 ¤ wert. Individuell ist man<br />
also bereit, maximal 10 ¤ für das Chateaubriand auszugeben. Dann wird<br />
niemand das Chateaubriand bei individueller Abrechnung bestellen,<br />
aber alle werden es bei kollektiver Zahlweise auswählen. Jeder zahlt<br />
am Ende 35 ¤, obwohl der Nutzen maximal dem Geldwert von 10 ¤ entspricht.)<br />
Einige Modelle für soziale <strong>Dilemmata</strong> wie das Gefangenendilemma,<br />
das Chickenspiel oder das Vertrauensspiel haben wir bereits behandelt.<br />
106
Allerdings hatten wir uns auf Zwei-Personen-Spiele beschränkt. Kennzeichnend<br />
für viele soziale <strong>Dilemmata</strong> ist aber, dass oftmals mehr als<br />
zwei Akteure beteiligt sind. Zudem gibt es zahlreiche strukturell sehr<br />
unterschiedliche Situationen, die die Charakteristika eines sozialen<br />
Dilemmas aufweisen. In diesem Kapitel werden wir verschiedene Arten<br />
von N-Personen-<strong>Dilemmata</strong> untersuchen.<br />
6.1 Panik im Flaschenhals<br />
Wer in einer Paniksituation, z. B. einem Feuer im Kino, zum Ausgang eilt,<br />
wird auf zahlreiche Menschen mit dem gleichen Motiv, sich in Sicherheit<br />
zu bringen, stoßen, wodurch letztlich allen der Ausgang versperrt<br />
ist. Der Sozialpsychologe A. Mintz (1951) hat diese Situation mit einem<br />
einfachen Experiment simuliert. In einer Flasche befindet sich eine<br />
Anzahl von Metallplättchen, an denen je ein Faden befestigt ist, der aus<br />
dem Flaschenhals hinausführt (Abbildung 6.1). Nur jeweils ein Plättchen<br />
passt zur gleichen Zeit durch die Öffnung. Erklärt man nun z. B. fünf Personen,<br />
dass der Erste, der ein Plättchen herauszieht, 100 ¤ gewinnt, der<br />
Zweite 80 ¤, der Dritte 60 ¤, der Vierte 40 ¤ und der Letzte 20 ¤, so weist<br />
die Situation nach dem Startschuss alle Merkmale einer Panik auf. (Im<br />
Originalexperiment waren es Gruppen mit 15 bis 21 Personen, die relativ<br />
geringe Entlohnungen erhielten.) Führt man ferner die Regel ein, dass<br />
die Entscheidungszeit sehr kurz ist – sagen wir eine Minute –, wird man<br />
häufig beobachten, dass alle Versuchspersonen leer ausgehen. Besonders<br />
dramatisch wirkt der Versuch, wenn von unten durch ein Ventil Wasser<br />
in die Flasche eingeführt wird und ein Plättchen als wertlos gilt, sobald<br />
es nass geworden ist.<br />
107
Auszahlungen<br />
1. 100<br />
2. 80<br />
3. 60<br />
4. 40<br />
5. 20<br />
Abbildung 6.1 Das Panik-Experiment von Mintz (1951): In diesem Experiment<br />
sollten Versuchspersonen in einer kurz bemessenen Zeitspanne die Plättchen aus<br />
der Flasche herausziehen. Jede Person hielt einen Faden, und nur ein Plättchen<br />
konnte jeweils den Flaschenhals passieren. Wer sein Plättchen als Erster herauszog,<br />
erhielt den höchsten Gewinn, der Zweite den zweithöchsten Gewinn usw.<br />
Oft kam es vor, dass sich die Versuchspersonen gegenseitig blockierten und alle<br />
leer ausgingen.<br />
Betrachten wir die Situation vereinfacht als simultanes Spiel. Jeder von<br />
N Spielern hat N Strategien: als Erster, Zweiter, Dritter usw. zu ziehen.<br />
Bezeichnen wir die fünf Spieler im Beispiel mit A, B, C, D, E und die Strategie,<br />
an erster, zweiter usw. Stelle zu ziehen, mit der entsprechenden Zahl in<br />
Klammern. Dann ergeben die Strategienkombinationen A (3), B (1), C (4),<br />
D (2), E (5) oder auch A (1), B (2), C (3), D (4), E (5) jeweils ein Pareto-optima-<br />
108
les Nash-Gleichgewicht. Die Strategien A (1), B (1), C (1), D (1), E (1) – jeder<br />
zieht gleich nach dem Startschuss an dem Faden – erfüllen auch das Nash-<br />
Kriterium, das Ergebnis ist aber kein Pareto-Optimum. Die Kombination<br />
A (1), B (3), C (1), D (2), E (5) z. B. ist dagegen weder ein Nash-Gleichgewicht<br />
(A z. B. hat einen Anreiz, auf die Strategie 4 umzusteigen) noch ein Pareto-<br />
Optimum. Insgesamt gibt es bei fünf Spielern 5! = 120 Pareto-optimale<br />
Nash-Gleichgewichte. Das Panikdilemma ist ein Koordinationsproblem.<br />
6.2 Die Versteigerung eines Dollars<br />
Würden Sie für einen Dollar fünf zahlen? Die folgende Auktion kann<br />
leicht zu diesem Resultat führen.<br />
Der Auktionator versteigert einen Dollar. Es darf in Fünf-Cent-Schritten<br />
von «unten nach oben» geboten werden, und der Höchstbietende<br />
erhält den Dollar. Es gelten also die üblichen Auktionsregeln (einer offenen<br />
englischen Auktion) mit einer einzigen Ausnahme: Der Teilnehmer<br />
mit dem zweithöchsten Gebot muss ebenfalls das Gebot einlösen, ohne<br />
dafür etwas zu erhalten. Martin Shubik, der die Dollar-Auktion als eine<br />
Art Parabel für den Rüstungswettlauf beschrieben hat (Shubik 1971),<br />
nennt noch eine dritte Regel: Niemand darf mehr als 50 $ bieten.<br />
Wenn man die Auktion – wir nehmen diesmal einen Euro – vor Publikum<br />
durchführt, kann man in der Regel mit Nettoeinnahmen rechnen.<br />
Eine typische Auktion läuft so: A bietet 5, B 20 und C 50 Cent. Das ist der<br />
erste kritische Moment. B erhöht nun sein Gebot auf 60 Cent, und der<br />
Auktionator ist bereits im Plus. Aber das ist noch nicht das Ende, denn C<br />
hat einen Anreiz, B zu übertreffen. Nehmen wir an, B bietet 70, C folgt mit<br />
80, B erhöht auf 90 und C auf 95. Jetzt wird die zweite kritische Schwelle<br />
erreicht. Will B seine 90 Cent nicht verlieren, muss er sein Gebot auf<br />
einen Euro erhöhen. Diese Logik gilt aber auch für C, der jetzt auf 1,05 ¤<br />
erhöht usw. Immer hat der Zweitbietende einen Anreiz, den Höchstbietenden<br />
zu übertreffen, um seinen Verlust wenigstens zu vermindern, bis<br />
schließlich einem der Kontrahenten die Puste ausgeht.<br />
Sobald zwei Bieter in die Falle getappt sind, beginnt ein selbstschädigendes<br />
Rennen – wie beim Rüstungswettlauf zwischen den USA und der<br />
109
Sowjetunion im Kalten Krieg. Wie aber würde sich ein rationaler Akteur<br />
bei einer Ein-Dollar-Auktion verhalten? Wenn man mitspielt, ist man<br />
schon in der Falle. Aber «alle bieten nicht» ist kein Nash-Gleichgewicht.<br />
Bietet nämlich kein anderer Akteur, könnte man den Dollar für fünf<br />
Cent ersteigern. Es gibt also immer einen Anreiz, bei einer allseitigen<br />
Verweigerung (Gebot von 0) doch ein höheres Gebot abzugeben. Gibt<br />
es ein Nash-Gleichgewicht, eine rationale Bieterstrategie in der Dollar-<br />
Auktion? Eine Möglichkeit ist, dass ein Teilnehmer sofort aufspringt<br />
und einen Dollar bietet. Niemand hat dann einen Anreiz, mehr zu bieten,<br />
niemand hat verloren oder gewonnen. Das Strategienprofil, eine Person<br />
bietet einen Dollar, alle anderen bieten nicht, ist ein Nash-Gleichgewicht<br />
mit der Auszahlung null an alle Teilnehmer. Im Gleichgewicht gewinnt<br />
niemand etwas, und keiner erleidet einen Verlust, einschließlich des<br />
enttäuschten Auktionators. (Genauer gibt es so viele Gleichgewichte<br />
wie Teilnehmer, da jede Person den Part des Dollar-Bieters übernehmen<br />
kann.) Die Auszahlungen im Gleichgewicht sind Pareto-optimal und<br />
symmetrisch. Allerdings wird es bei erstmaliger Teilnahme an der Auktion<br />
selten vorkommen, dass die Gleichgewichtsstrategie gespielt wird.<br />
Die Dollar-Auktion ist streng genommen kein soziales Dilemma im<br />
spieltheoretischen Sinn. Auch für den Auktionator (meist Dozentin oder<br />
Dozent in einer Vorlesung) ist die Auktion kein Dilemma, denn sie verhilft<br />
ihm regelmäßig zu einem Nebeneinkommen. Sie ist aber im psychologischen<br />
Sinn ein Dilemma, denn fast immer kommt es in Experimenten<br />
zu einem selbstschädigenden Bieterwettbewerb.<br />
6.3 Das Dilemma der großen Zahl<br />
Das Wissenschaftsmagazin Scientific American hatte auf Initiative von<br />
Douglas Hofstadter (1985, 1992) einen Preis von einer Million Dollar<br />
ausgeschrieben. Den Preis sollte erhalten, wer die meisten Postkarten<br />
einsendet. Allerdings gab es einen Pferdefuß. Der Preis sollte durch<br />
die Zahl der Postkarten eines Einsenders dividiert werden. Schickten<br />
mehrere Personen die gleiche Anzahl, so sollte der resultierende Betrag<br />
unter den Gewinnern aufgeteilt werden. Nun kostet Porto Geld, und<br />
110
man muss es den Leuten nicht unnötigerweise schwermachen. Statt<br />
z. B. 10 Postkarten abzuschicken, durfte man einfach die Zahl «10» auf eine<br />
Postkarte schreiben. Erlaubt war, irgendeine ganze Zahl einzusenden.<br />
Tabelle 6.1 Verteilung der eingesandten Zahlen<br />
Genannte Zahl<br />
Anzahl Einsendungen<br />
1 1133<br />
2 31<br />
3 16<br />
4 8<br />
5 16<br />
6 0<br />
7 9<br />
8 1<br />
9 1<br />
10 49<br />
100 61<br />
1000 46<br />
1 000 000 33<br />
1 000 000 000 11<br />
602 300 000 000 000 000 000 000<br />
(Avogadro-Zahl)<br />
1<br />
10 100 (googol) 9<br />
10 10**100 (googolplex) 14<br />
Quelle: Hofstadter (1985: 759)<br />
111
Hofstadter musste die Redaktion überzeugen, dass Scientific American<br />
nicht Gefahr laufen wird, eine Million Dollar zu verlieren. Und er sollte<br />
recht behalten! Wie von ihm vorausgesehen, musste die Redaktion des<br />
Scientific American am Ende keinen Cent lockermachen. Tabelle 6.1<br />
informiert über die eingesandten Zahlen.<br />
Es gab 1439 Teilnehmer. 1133 (79 %) notierten eine «1». 31 wollten besser<br />
sein und schrieben «2», wodurch sie allerdings den Preis auf immer noch<br />
stattliche 500 000 $ schrumpfen ließen. 33 gaben eine Million an. Die<br />
Preissumme reduzierte sich damit auf einen mageren Dollar. Aber auch<br />
sie konnten nicht den Gewinn einstreichen. Neun Personen haben einen<br />
«Googol», eine 1 mit 100 Nullen, auf die Karte oder den Brief geschrieben<br />
(die bekannte Web-Suchmaschine leitet von diesem Begriff ihren Namen<br />
ab). Aber auch sie erreichten nicht das Siegerpodest. Als Erste gingen<br />
nämlich die 14 Einsender eines «Googolplex» ins Ziel. Ein Googolplex ist<br />
die Zahl 10 mit Exponent Googol, also eine 1 mit 10 100 Nullen. Diese Zahl<br />
ist so unvorstellbar groß, dass der Gewinn auf ein unvorstellbar geringes<br />
Niveau geschrumpft ist. Es war ein Pyrrhussieg. Die Gewinner zerstörten<br />
gleichzeitig ihren Gewinn. Das Motiv einiger Spieler war offenbar: siegen<br />
um jeden Preis (siehe dazu und zu weiteren Experimenten Rapoport<br />
1988).<br />
Immerhin waren fast vier Fünftel der Mitspieler kooperativ. Hätten<br />
alle eine «1» auf eine Postkarte geschrieben, hätte jeder Teilnehmer rund<br />
700 $ erhalten, und Scientific American wäre um eine Million Dollar<br />
ärmer gewesen.<br />
In diesem Spiel gibt es kein Nash-Gleichgewicht! Die spieltheoretische<br />
Analyse kennt keine Lösung. Denn bei jeder Zahl, und sei sie noch<br />
so groß, besteht der Anreiz, eine höhere Zahl anzugeben. Der berühmte<br />
Satz von Nash, dass in jedem Spiel mit endlicher Zahl von Strategien<br />
mindestens ein Nash-Gleichgewicht in reinen oder gemischten Strategien<br />
existiert, ist nicht anwendbar. Denn dieses Spiel hat – ebenso wie<br />
Shubiks Auktion – eine unendliche Anzahl von Strategien. In Shubiks<br />
Auktion existiert aber ein Nash-Gleichgewicht, in Hofstadters «Dilemma<br />
der großen Zahl» dagegen nicht.<br />
Die kooperative, Pareto-optimale Strategie mit maximaler und glei-<br />
112
cher Auszahlung an alle Teilnehmer, sofern sich alle an diese Strategie<br />
hielten, ist natürlich die «1». Der Anreiz ist aber groß, eine «1» zu toppen<br />
und eine höhere Zahl zu nennen.<br />
Das Dilemma der großen Zahl ist auch eine Parabel für ein sehr<br />
sensibles, störanfälliges System. Viele soziale Situationen mit Dilemma-<br />
Charakter funktionieren auch dann noch relativ gut, wenn sich einige<br />
Leute unkooperativ verhalten. Für den öffentlichen Nahverkehr ist es<br />
keine Katastrophe, wenn einige Schwarzfahrer das Fahrgeld sparen. Eine<br />
Demokratie bricht selbst dann nicht zusammen, wenn die Mehrheit der<br />
Stimmbürger nicht zur Wahl geht. Und das Recycling kollabiert nicht,<br />
wenn wenige Personen ihren Hausmüll in den Recyclingsack oder Container<br />
kippen.<br />
Es gibt aber auch äußerst instabile Situationen wechselseitiger Kooperation,<br />
in denen sich im Extremfall fast alle Personen kooperativ verhalten<br />
und bereits wenige oder sogar nur eine Person genügt, alle anderen<br />
um die Früchte der Kooperation zu bringen. Solche Systeme sollte man<br />
möglichst meiden. Das Dilemma der großen Zahl ist ein Extremfall eines<br />
sensiblen Systems. Trotz hoher Kooperation kann ein einzelner Akteur<br />
den gesamten Gewinn zerstören.<br />
6.4 N-Personen-Gefangenendilemma<br />
Betrachten wir folgende Entscheidungssituation. N Personen (N > 1)<br />
können zwischen der Strategie C (= Kooperation) oder D (= Defektion)<br />
wählen. Die Auszahlung für Strategie C ist:<br />
A C = 2x<br />
A D = 3x + 3.<br />
Dabei sind C und D die beiden Strategien, die ein Spieler zur Verfügung<br />
hat, x bezeichnet die Anzahl der Spieler, die Strategie C wählen, und A C<br />
bzw. A D sind die Auszahlungen an C-Spieler bzw. D-Spieler. Die Gesamtzahl<br />
der Spieler bezeichnen wir mit N.<br />
113
Diese einfache Variante eines N-Gefangenendilemmas wurde von<br />
Rapoport vorgeschlagen (vgl. allgemein zu sozialen <strong>Dilemmata</strong> auch<br />
den Überblick in Rapoport 1998). Um das Dilemma vor Publikum zu demonstrieren,<br />
ist diese Form sehr vorteilhaft. Man muss nur die beiden<br />
Auszahlungsfunktionen an die Tafel schreiben und alle Anwesenden<br />
danach fragen oder anonym auf einen Zettel notieren lassen, ob sie sich<br />
für C oder D entscheiden (oder X und Y wie bei Rapoport, um die wertenden<br />
Bezeichnungen «C» und «D» zu vermeiden).<br />
Angenommen, die Gruppe besteht aus N = 100 Personen, von denen<br />
40 C und 60 D wählen. Mit x = 40 erhalten C-Wähler je 80 Punkte und D-<br />
Wähler je 123 Punkte. Hätten aber alle Spieler kooperiert, würden sie alle<br />
jeweils 200 Punkte erzielen (A C = 2N).<br />
Man sieht, dass selbst die defektierenden Y-Wähler im Vergleich zur<br />
wechselseitigen Kooperation schlechter abschneiden. Erst ab x = 66 wäre<br />
in diesem Beispiel die Auszahlung für die Y-Strategie höher als bei vollständiger<br />
Kooperation.<br />
Man erkennt sofort anhand der Auszahlungsfunktionen, dass die<br />
D-Wahl immer eine höhere Auszahlung erbringt als die Wahl von C. D<br />
ist also eine strikt dominierende Strategie. Diese Strategie ist folglich<br />
auch die Nash-Gleichgewichtsstrategie.<br />
Das Nash-Gleichgewicht ist kein Pareto-Optimum. Alle Spieler könnten<br />
sich durch eine Vertragslösung verbessern. Leider ist das Pareto-Optimum<br />
wechselseitig kooperativer Spieler kein Nash-Gleichgewicht. D ist<br />
ja eine dominierende Strategie. Wenn alle anderen Akteure kooperativ<br />
sind, besteht für einen egoistischen Akteur immer ein Anreiz, D zu wählen.<br />
Ist er der einzige Trittbrettfahrer, würde er damit auch den höchsten<br />
Gewinn erzielen. Was aber dem einen recht ist, ist dem anderen billig,<br />
sodass alle – wenn sie dieser Logik folgen – in die Falle wechselseitiger<br />
Defektion tappen und als Auszahlung magere 3 Punkte ergattern.<br />
Ist N = 2, erhält man mit den oben aufgeführten Auszahlungsfunktionen<br />
die Auszahlungen für die vier Zellen des einfachen Zwei-Personen-<br />
Gefangenendilemmas (2-GD). Das N-GD ist also eine Verallgemeinerung<br />
des 2-GD.<br />
An den Auszahlungsfunktionen kann man eine weitere Möglichkeit<br />
der Interpretation des Dilemmas erkennen. Jede C-Wahl ist eine positive<br />
114
Externalität für alle Mitspieler. Ein zusätzlicher C-Spieler trägt in dem<br />
Beispiel weitere drei Punkte zum Kollektivgut bei, ein D-Spieler dagegen<br />
null Punkte.<br />
Die Strategieform für N Spieler mit binären Entscheidungsmöglichkeiten<br />
erforderte im Prinzip eine N-dimensionale Darstellung, für drei<br />
Spieler wäre das ein «Auszahlungswürfel». Wenn das Spiel symmetrisch<br />
ist, genügt hingegen die zweidimensionale Matrixform. Zeilenspieler ist<br />
irgendein beliebiger Spieler i, an den Spalten steht die Anzahl anderer<br />
Spieler, die eine bestimmte Alternative wählen, z. B. kooperativ handeln.<br />
Für unser Beispiel erhält man folgende Auszahlungsmatrix:<br />
0 1 2 3 ... 98 99 Andere C-Wähler<br />
C 2 4 6 8 … 198 200<br />
D 3 6 9 12 … 297 300<br />
Matrix 6.1 N-Gefangenendilemma<br />
Allgemein ist ein binäres N-GD, bei dem jeder Spieler zwischen den zwei<br />
Alternativen Kooperation oder Defektion wählen kann, durch folgende<br />
Bedingungen definiert:<br />
1. Jeder Spieler hat eine dominierende Strategie, deren Schnittpunkt<br />
das einzige Nash-Gleichgewicht ist.<br />
2. Das Nash-Gleichgewicht ist nicht Pareto-optimal.<br />
Bezeichnen wir mit A C (x) die Auszahlungen an einen kooperativen Spieler<br />
als Funktion der Anzahl kooperativer Wahlen x und entsprechend<br />
mit A D (x) die Auszahlungen an einen nichtkooperativen Spieler. Dann<br />
kann man die Bedingungen für das N-GD nach Dawes (1980) wie folgt<br />
ausdrücken:<br />
(1) A D (x – 1) > A C (x) (D ist dominierende Strategie)<br />
(2) A d (0) < A C (N) (Ineffizienz des Nash-Gleichgewichts)<br />
mit x = 1, 2, 3 … N<br />
115
Das oben erwähnte Beispiel ist ein N-GD mit einer linearen Auszahlungsfunktion.<br />
Ein N-GD ist eine spezielle spieltheoretische Formalisierung eines<br />
Kollektivgutproblems (Hardin 1971). Ein Kollektivgut ist per definitionem<br />
ein Gut, von dessen Konsum keine Person ausgeschlossen werden<br />
kann. Der Empfang eines Radiosenders ist ebenso ein Beispiel wie die<br />
Luft zum Atmen. Die Probleme der Herstellung kollektiver Güter wurden<br />
insbesondere von Olson (1968) in seinem Buch «Die Logik kollektiven<br />
Handelns» genauer analysiert. Oft besteht ein Gruppeninteresse. Damit<br />
ist aber noch nicht gesagt, wie ältere politikwissenschaftliche Theorien<br />
fälschlich angenommen haben, dass es auch realisiert wird. Jeder ist zwar<br />
für das Gruppeninteresse oder Kollektivgut, aber es gibt eben auch den<br />
Anreiz zum Trittbrettfahren.<br />
Wie ist z. B. das im Folgenden beschriebene Verhalten erklärbar?<br />
«Jeden Tag sterben durchschnittlich drei Menschen, weil für sie ein<br />
Organ nicht rechtzeitig zur Verfügung steht. Sie sterben an ‹akutem<br />
Organspende-Versagen›, wie es der Medizinrechtler Hans Lilie ausdrückt.<br />
(…) So befürworten zwar 80 Prozent der Deutschen in Umfragen (…)<br />
Organtransplantationen, und fast 70 Prozent geben an, sie würden einer<br />
Organentnahme nach ihrem Tod zustimmen. Doch nur 12 Prozent haben<br />
einen Spenderausweis» (Hardenberg 2008).<br />
Zwar wünschen die meisten Bundesbürger, dass das Kollektivgut<br />
einer ausreichenden Zahl von Spenderorganen verfügbar ist. Doch die<br />
Mühe, konkret einen Spenderausweis auszufüllen, und möglicherweise<br />
das Unbehagen, sich dabei mit dem Thema auseinanderzusetzen, nimmt<br />
doch nur eine Minderheit auf sich. Man sieht das Gute, das Kollektivgut,<br />
das erreicht wird, wenn alle kooperativ sind, beschließt aber für sich<br />
selbst, doch lieber nicht zum Kollektivgut beizutragen. Würden alle beitragen,<br />
ist der Nutzen für jeden Einzelnen A C (N). Trägt man selbst nicht<br />
dazu bei, aber alle anderen, erzielte man den höheren Nutzen A D (N – 1).<br />
Doch auch wenn die anderen in geringerem Maß oder gar nicht beitragen,<br />
liefert Nicht-Kooperation immer die höhere Auszahlung. Folgen alle dieser<br />
Logik, beträgt die Auszahlung gerade einmal A D (0). Als Ausweg aus<br />
der Falle hat der Philosoph Hartmut Kliemt (2006) einen provokanten<br />
Vorschlag gemacht: Wer einen Organspenderausweis hat und irgend-<br />
116
wann selbst ein Spenderorgan benötigt, soll bei einer Transplantation<br />
bevorzugt werden. Wichtig an dem Vorschlag sind nicht so sehr Gerechtigkeitsüberlegungen<br />
als vielmehr die Schaffung eines Anreizes, um das<br />
Angebot an Spenderorganen zu erhöhen.<br />
Es gibt unzählige weitere Beispiele für derartige Kollektivgutprobleme:<br />
der Beitritt zu einer Gewerkschaft, die höhere Löhne erstreikt<br />
(das Kollektivgut ist der höhere Lohn), die Teilnahme oder Nicht-Teilnahme<br />
an einer Protestdemonstration (sofern man das Ziel des Protests<br />
unterstützt), eine hohe Wahlbeteiligung in Demokratien, eine saubere<br />
Umwelt oder das Problem der Übernutzung von Ressourcen (z. B. der<br />
ungeregelte Holzeinschlag in tropischen Regenwäldern oder die Überfischung<br />
der Meere). Bei einigen Kollektivgutproblemen ist Kooperation<br />
ein aktiver Beitrag, bei anderen besteht die Kooperation in der Unterlassung<br />
(bei dem Problem der Übernutzung von Ressourcen, dem sogenannten<br />
Allmendeproblem). Eine interessante Variante eines Mehr-Personen-<br />
Gefangenendilemmas ist das Paradox von Braess (1968). Das Kollektivgut<br />
ist die Fahrzeit in einem Verkehrsnetz. Paradoxerweise erhöht sich die<br />
Fahrzeit im Nash-Gleichgewicht bei gleicher Anzahl von Verkehrsteilnehmern,<br />
wenn eine zusätzliche Straße gebaut wird. Wie das möglich<br />
ist, erklärt Kasten 6.1.<br />
Dennoch stellen wir auch fest, dass kollektive Güter häufig hergestellt<br />
werden und nicht alle Personen die Trittbrettfahrer-Strategie<br />
wählen. Olson (1968) erklärt eine Beitragsleistung insbesondere durch<br />
die Wirksamkeit «individueller Anreize». Organisationen, die mit<br />
Kollektivgutproblemen konfrontiert sind, bemühen sich, Kooperation<br />
durch individuelle Anreize zu fördern. Eine Gewerkschaft bietet z. B.<br />
Rechtsberatung, gesellige Treffen, Weiterbildung usw., aber eben nur<br />
für Mitglieder, sodass ein Anreiz besteht, sich mit einem Mitgliedsbeitrag<br />
an dem Kollektivgut zu beteiligen. Die Anreize u a müssen gemäß<br />
Gleichung (1) so hoch sein, dass Kooperation nicht mehr dominiert wird,<br />
das heißt, es muss gelten: A D (x – 1) ≤ A C (x) + u a . Individuelle Anreize<br />
verändern die Struktur des Spiels und können das Dilemma entschärfen.<br />
Nach Einführung genügend hoher individueller Anreize wird das N-GD<br />
in ein Kooperationsspiel transformiert. Auch negative Sanktionen bei<br />
Nicht-Kooperation können diesem Ziel dienen. Mafia-Organisationen<br />
117
z. B. lösen so Kollektivgutprobleme mit dem Resultat hoher Kooperation,<br />
allerdings zulasten Dritter. In beiden Fällen wird C zur dominierenden<br />
Strategie und wechselseitige Kooperation zum Nash-Gleichgewicht.<br />
Nicht alle Kollektivgutprobleme folgen dem Muster des N-GD. Eine<br />
Voraussetzung für die Anwendung besteht darin, dass jede einzelne<br />
kooperative Handlung den Wert des Kollektivguts erhöht. Anders formuliert<br />
wächst die Produktionsfunktion strikt monoton in Abhängigkeit<br />
von der Zahl kooperativer Akteure. Außerdem können die Akteure<br />
nur über Kooperation oder Nicht-Kooperation entscheiden, nicht aber<br />
über das Ausmaß der Kooperation. Damit ist eine weitere Generalisierung<br />
angesprochen, das sogenannte Öffentliche-Güter-Spiel (Public<br />
Good Game).<br />
Kasten 6.1 Länger fahren trotz Straßenbau.<br />
Das Paradox von Braess<br />
Sechs Autofahrer wollen von A nach D fahren (Abbildung 6.2a).<br />
Sie haben zwei Strategien: die Route ABD oder ACD. Die Fahrzeit<br />
hängt davon ab, wie viele andere Fahrzeuge den gleichen<br />
Weg nehmen. Die Anzahl der Autos auf einer Straße wird mit<br />
ϕ bezeichnet. Fahren z. B. drei Autos von A nach B, benötigen sie<br />
10 ϕ = 30 Minuten. Von B nach D sind es für drei Fahrzeuge 53<br />
Minuten, insgesamt also für die Route ABD 83 Minuten. Wählt<br />
man die Route ACD, ist die Fahrzeit genau gleich lang. Wir gehen<br />
davon aus, dass je kürzer die Fahrzeit, desto größer der Nutzen<br />
eines Autofahrers ist. Man kann dann leicht sehen, dass die Routenwahl<br />
ABD und ACD durch je drei Verkehrsteilnehmer ein<br />
Pareto-optimales Nash-Gleichgewicht darstellt. Wird das Koordinationsproblem<br />
der Aufteilung auf die beiden Routen gelöst,<br />
wenn alle Autofahrer simultan wählen, dann existiert keine<br />
Dilemmasituation.<br />
118
Abbildung 6.2a Abbildung 6.2b<br />
(Abbildung nach Pöppe 1992)<br />
Die Verkehrsabteilung im Rathaus überlegt sich nun, zur Verbesserung<br />
der Verkehrssituation eine Entlastungsstraße von B nach<br />
C zu bauen (Abbildung 6.2b). Jeder der sechs Autofahrer hat jetzt<br />
einen Anreiz, die neue Straße und damit die neue Strategie ABCD<br />
zu wählen. Wählt er nämlich allein ABCD, während die anderen<br />
bei ihrer Strategie bleiben, dann verringert sich seine Fahrzeit<br />
von 83 auf 81 Minuten. Gleichzeitig erhöht sich aber die Fahrzeit<br />
anderer Autofahrer.<br />
Nehmen wir an, er sei vorher die Strecke ABD gefahren. Durch<br />
seine Wahl von ABCD erhöht sich die Fahrzeit der drei Autos auf<br />
der ACD-Route von vormals 83 auf 93 Minuten. Jetzt wird ein weiterer<br />
Fahrer von ACD auf die Route ABCD wechseln, da sich die<br />
Fahrzeit dann von 93 auf 92 Minuten vermindert. Das Resultat ist,<br />
dass alle Autos auf allen drei Routen 92 Minuten benötigen. Das<br />
System ist wieder im (Nash-)Gleichgewicht. Kein Autofahrer hat<br />
einen Anreiz, seine Routenwahl zu verändern. Das Nash-Gleichgewicht<br />
ist aber nicht Pareto-optimal. Würden die Verkehrsteilnehmer<br />
einen sanktionierbaren Vertrag abschließen, dann würden<br />
sie verabreden, dass keiner die «Entlastungsstraße» befahren<br />
119
darf, und schon würde ihre Fahrzeit wieder auf 83 Minuten sinken.<br />
Braess (1968) analysiert die Situation nicht als Gefangenendilemma.<br />
Wie wir gesehen haben, ist es aber eine Variante eines<br />
Mehr-Personen-GD (mit drei Entscheidungsalternativen und<br />
einem zusätzlichen Koordinationsproblem). Braess kommentiert:<br />
«Für die Verkehrspraxis bedeutet das: In ungünstigen Fällen<br />
kann durch eine Erweiterung des Straßennetzes der Zeitaufwand<br />
anwachsen.» Wohlbemerkt, ohne zusätzliche Autos, das heißt,<br />
es geht noch nicht einmal um den Sogeffekt eines Ausbaus von<br />
Verkehrsnetzen. Die Verkehrsplaner im Rathaus sind gut beraten,<br />
die neue Straße zu sperren, mit Blumenkübeln und Bänken auszustatten<br />
und als Fußgängerzone zu deklarieren.<br />
6.5 Das Öffentliche-Güter-Spiel<br />
Das Öffentliche-Güter-Spiel (ÖGS) wird häufig in Experimenten zur<br />
Untersuchung von Kooperation und Trittbrettfahren verwendet (Überblick<br />
zu Experimenten bei Ledyard 1995; siehe auch Kapitel 10). Die Spieler<br />
erhalten zunächst eine Anfangsausstattung, die sie im Spiel investieren<br />
können. Einen Teil oder auch den gesamten Betrag können sie in<br />
einen kollektiven Fonds einzahlen, den Rest behalten sie. Der Betrag im<br />
Fonds erzielt eine hohe Rendite. Er wird z. B. verdoppelt und auf alle Spieler<br />
gleich aufgeteilt. Der Fonds ist ein Kollektivgut (oder «öffentliches»<br />
Gut); kein Spieler, auch nicht ein Trittbrettfahrer, kann ausgeschlossen<br />
werden. Das Spiel ist so angelegt bzw. die Parameter werden so eingestellt,<br />
dass Trittbrettfahren die dominierende Strategie ist und das Nash-<br />
Gleichgewicht wechselseitiger Defektion geringere Auszahlungen zur<br />
Folge hat als wechselseitige Kooperation. Das ÖGS ist eine Verallgemeinerung<br />
des N-GD. Letzteres sieht nur binäre Entscheidungen zwischen<br />
Kooperation und Defektion vor, während ein Akteur im ÖGS über das<br />
Ausmaß der Kooperation entscheiden kann.<br />
Betrachten wir ein Beispiel. Drei Spieler erhalten einen Anfangs-<br />
120
etrag von fünf Punkten. Einzahlungen in den Fonds werden verdoppelt.<br />
Spieler 1 zahlt nicht in den Fonds ein, Spieler 2 beteiligt sich mit einem<br />
Punkt, und Spieler 3 zahlt den vollen Betrag von fünf Punkten ein. Dann<br />
erzielen die Spieler folgende Auszahlungen:<br />
Tabelle 6.2 Auszahlungen im ÖGS<br />
Spieler<br />
1 2 3<br />
Investition in den kollektiven Fonds 0 1 5<br />
Auszahlung aus dem Fonds 4 4 4<br />
Private Auszahlung 5 4 0<br />
Totale Auszahlung an den Spieler 9 8 4<br />
Natürlich schneiden der Trittbrettfahrer mit neun Punkten am besten<br />
und der voll kooperative Spieler mit vier Punkten am schlechtesten ab.<br />
Hätten aber alle Spieler kooperiert und ihre Punkte in den Fonds eingezahlt,<br />
wären nach der Verdoppelung 30 Punkte im Fonds, sodass jeder<br />
Spieler zehn erhalten hätte. Im Nash-Gleichgewicht wechselseitigen<br />
Trittbrettfahrens würde jeder Spieler dagegen nur fünf Punkte erhalten.<br />
Wieder zeigt sich die Spannung zwischen individuell-rationalem Nash-<br />
Gleichgewicht und dem Pareto-Optimum wechselseitiger Kooperation.<br />
Die Eigenschaften des Spiels lassen sich anhand der Auszahlungsfunktion<br />
aufzeigen.<br />
u i = [ A – x i ] + ⎡ Rxi + R Σ x j<br />
⎤<br />
⎣ N N j ≠ i ⎦<br />
Private Auszahlung Auszahlung<br />
Auszahlung aufgrund aufgrund der<br />
von i’s Beitrag Beiträge der<br />
Mitspieler<br />
Auszahlung aus dem<br />
kollektiven Fonds<br />
121
Bezeichnen wir die Anfangsausstattung mit A und den Multiplikator des<br />
Fonds mit R. Die Anzahl der Spieler N ist größer als R. x i ist der Beitrag,<br />
der von Spieler i (i = 1, 2, 3 … N) in den Fonds eingezahlt wird (0 ≤ x i ≤ A).<br />
Für N > R ist R/N kleiner als eins, sodass die Auszahlung aufgrund von i’s<br />
Beitrag zum Fonds immer kleiner ist als x i . u i ist demnach maximal für<br />
x i = 0. Diese Strategie ist dominierend und die Nash-Gleichgewichtsstrategie.<br />
Im Gleichgewicht erhalten alle Spieler die Auszahlung A. Würden<br />
sie alle kooperieren, erhielten sie dagegen R mal den Betrag A.<br />
Die Rationalitätslösung der klassischen Spieltheorie ist Trittbrettfahren.<br />
In Experimenten zeigt sich aber, dass ein Großteil der Versuchspersonen<br />
mehr oder minder hohe Beträge in den Fonds einzahlt. Man kann nun<br />
verschiedene Bedingungen einführen, um Effekte auf das Kooperationsverhalten<br />
der Versuchspersonen zu studieren. Derartige Experimente<br />
sind wichtig, um herauszufinden, auf welche Weise soziale <strong>Dilemmata</strong><br />
gelöst werden können. Einige Ergebnisse werden wir noch in Kapitel 10<br />
kennenlernen.<br />
6.6 Freiwilligendilemma<br />
Eine einfache Entscheidungssituation illustriert das Freiwilligendilemma.<br />
Stellen Sie sich vor, Sie können in einer Gruppe von zusammen<br />
fünf Personen ohne Möglichkeit der Absprache zwischen 50 ¤ und 100 ¤<br />
wählen. Schreiben Sie Ihre Wahl auf einen Zettel. Der gewählte Betrag<br />
wird an Sie ausgezahlt, vorausgesetzt, mindestens ein Gruppenmitglied<br />
hat sich für den geringeren Betrag entschieden. Andernfalls gehen alle<br />
leer aus. Wie entscheiden Sie sich bei einem, bei neun oder bei 99 Mitspielern?<br />
Und wie entscheiden Sie sich, wenn die geringere Auszahlung<br />
99 ¤ oder nur 1 ¤ beträgt?<br />
Anders als im N-GD kann im Freiwilligendilemma oder «Volunteer’s<br />
Dilemma» (Diekmann 1985, 1993) das Kollektivgut bereits durch einen<br />
Akteur in voller Höhe bereitgestellt werden. Dem Freiwilligen entstehen<br />
dabei Kosten, die aber geringer sind als der Nutzen des Kollektivguts<br />
für jeden der Akteure. Ein Akteur hat also immer auch einen Anreiz<br />
122
zu kooperieren, wobei der Nutzen aber am höchsten ist, wenn ein Mitspieler<br />
diese Aufgabe übernimmt und sozusagen «die Kohlen aus dem<br />
Feuer holt». Gehen jedoch alle davon aus, dass ein anderer diese Aufgabe<br />
übernimmt, wird das Kollektivgut nicht erzeugt, obwohl alle Akteure<br />
daran ein Interesse haben. Die Produktionsfunktion für das Kollektivgut<br />
ist eine Stufenfunktion (erzeugt wird ein «step-level»-Kollektivgut). In<br />
einem Diagramm mit dem Nutzen des Kollektivguts an der y-Achse und<br />
der Anzahl kooperativer Akteure an der x-Achse springt der Nutzen für<br />
x = 1 auf das Nutzenniveau des Kollektivguts und verbleibt auf diesem<br />
Wert, wenn weitere kooperative Akteure hinzukommen. Im Gegensatz<br />
zum N-GD ist Defektion keine dominierende Strategie.<br />
Es gibt zahlreiche Beispiele und Anwendungen, weniger ernste und<br />
dramatische Dilemmasituationen. Ein prominentes Beispiel sind Hilfeleistungen<br />
und unterlassene Hilfe wie bei dem Mord an Kitty Genovese.<br />
Vor mehr als vier Jahrzehnten hat dieser Mord an einer jungen Frau in<br />
New York für großes Aufsehen gesorgt. 38 Zeugen haben die Gewalttat,<br />
die sich über längere Zeit hinzog, von ihrer Wohnung aus beobachtet,<br />
wie nachträgliche Rekonstruktionen ergaben. Keiner der Zeugen, von<br />
denen jeder einzelne bemerken konnte, dass weitere Beobachter zugegen<br />
waren, hat Hilfe geleistet oder auch nur zum Telefonhörer gegriffen,<br />
um die Polizei zu benachrichtigen. Ähnliche Vorkommnisse haben<br />
sich immer wieder ereignet, so in München im Olympiapark, wo zwei<br />
Kinder in Gegenwart mehrerer Zuschauer in einem See ertrunken sind.<br />
Die Anonymität städtischer Lebensformen, Persönlichkeitsmerkmale<br />
usf. wurden zur Erklärung herangezogen. Diese Faktoren dürften durchaus<br />
eine Rolle spielen. Von Interesse ist aber auch ein zusätzlich wirksamer<br />
Mechanismus, auf den Darley und Latané (1968) verwiesen haben.<br />
Ihr Prinzip der «Diffusion von Verantwortung» besagt, dass jeder der<br />
Zeugen von einem anderen Beobachter erwartet, dass er die Mühe der<br />
Hilfeleistung auf sich nimmt. Denken alle Beobachter in dieser Weise,<br />
resultiert hieraus der paradoxe Effekt (d. h. ein Effekt, der letztlich auch<br />
den Absichten der Zuschauer zuwiderläuft), dass die Hilfeleistung unterbleibt.<br />
Das Prinzip der Verantwortungsdiffusion kann folgendermaßen<br />
formuliert werden: Je größer die Zahl der Zuschauer (N) in einer Hilfeleistungssituation,<br />
desto geringer ist die (individuelle) Wahrscheinlich-<br />
123
keit (p), dass eine bestimmte Person Hilfe leistet. (Die Wahrscheinlichkeit,<br />
dass irgendeine Person Hilfe leistet, muss aber nicht notwendigerweise<br />
durch Verantwortungsdiffusion mit der Gruppengröße absinken. Der<br />
Grund ist, dass die größere Zahl potenzieller Hilfeleistender die sinkende<br />
individuelle Bereitschaft kompensieren kann.)<br />
Darley und Latané (1968) haben sich ein Experiment einfallen lassen,<br />
in dem eine Hilfeleistungssituation simuliert wurde. Den Versuchspersonen<br />
an dem Experiment wurde vorgespiegelt, sie nähmen an einer Diskussion<br />
über das College-Leben teil. Jede Person wurde in einen Raum<br />
gebeten, in dem sie sich über ein Mikrophon mit den (vorgetäuschten)<br />
anderen Gruppenmitgliedern unterhalten konnte. Je nach Versuchsbedingung<br />
wurde eine Zwei-Personen-, Drei-Personen- oder Sechs-Personen-Gruppe<br />
suggeriert. Die Probanden wurden den drei Gruppen<br />
nach dem Zufallsprinzip zugewiesen. Nach einem vorgetäuschten epileptischen<br />
Anfall eines «Gruppenmitglieds» wurde die Reaktion der Versuchspersonen<br />
in einem Zeitraum von sechs Minuten aufgezeichnet. Als<br />
Hilfeleistung wurde gewertet, wenn die Versuchsperson den Raum verließ,<br />
um den Versuchsleiter auf die vermeintliche Notsituation aufmerksam<br />
zu machen. War die Person allein Zeuge des epileptischen Anfalls,<br />
erfolgte in 85 % der Fälle eine Hilfeleistung. Bei zwei Personen sank die<br />
Bereitschaft der Versuchspersonen auf 62 % der Versuche und in einer<br />
Gruppe von fünf Personen auf 31 %.<br />
Nehmen wir an, dass die Zuschauer nicht völlig gefühlskalt und an<br />
einer Hilfeleistung durchaus interessiert sind. Der Wert der Hilfeleistung<br />
ist dann für alle N beteiligten Personen ein kollektives Gut mit dem<br />
Nutzen U. Mit der Hilfeleistung sind aber Kosten K verbunden, wobei<br />
wir annehmen, dass diese geringer als U sind (U > K > 0). Trittbrettfahrer<br />
warten nun darauf, dass andere kooperative Personen die Kosten der Hilfeleistung<br />
auf sich nehmen. Ist dies der Fall, dann erzielen sie eine Auszahlung<br />
U, während die kooperativen Personen nur U – K erhalten. Verlassen<br />
sich aber alle beteiligten Zuschauer darauf, dass mindestens eine<br />
andere Person kooperativ sein wird, dann tritt das schlechteste Ergebnis<br />
ein, indem die Hilfeleistung (allgemein die Herstellung des Kollektivguts)<br />
unterbleibt. In einer Entscheidungsmatrix der Spieltheorie dargestellt,<br />
ergibt sich folgende Situation:<br />
124
0 1 2 ... N – 1<br />
Anzahl anderer<br />
C-Wähler<br />
C U – K U – K U – K … U – K U – K > 0<br />
D 0 U U … U N ≥ 2<br />
Matrix 6.2 Freiwilligendilemma<br />
Die Interaktionsstruktur ist in einer Hilfeleistungssituation möglicherweise<br />
tödlicher Ernst (aber es gibt auch weniger dramatische<br />
Anwendungen, dazu weiter unten). Ein Akteur i aus einer Menge von<br />
N Akteuren kann zwischen C (Kooperation) und D («Defektion», Trittbrettfahren)<br />
wählen. Bei der Entscheidung für C erhält er immer die<br />
Auszahlung U – K, bei der Wahl von D dagegen U, sofern mindestens<br />
ein anderer Akteur C wählt. Andernfalls gehen sämtliche Akteure leer<br />
aus (Auszahlung 0).<br />
Gibt es ein Nash-Gleichgewicht im Freiwilligendilemma? Wenn<br />
eine Person Hilfe leistet (C) und alle anderen nicht (D), erhält man ein<br />
Nash-Gleichgewicht mit Pareto-optimalen Auszahlungen. Die Auszahlung<br />
an die Person, die das Kollektivgut herstellt, ist U – K, alle anderen<br />
bekommen U. Es gibt N derartige Konstellationen und damit N Nash-<br />
Gleichgewichte. Das Problem ist nur, dass das Gleichgewicht bei einer<br />
symmetrischen Ausgangssituation asymmetrisch ist. Ohne Vertrag und<br />
Absprache kann man das Gleichgewicht nicht erreichen.<br />
Eine andere Möglichkeit besteht darin, die Sicherheitsstrategie zu<br />
wählen, sich also nach dem Maximin-Prinzip zu richten und kooperativ<br />
zu handeln. Wenn aber alle Akteure Maximin wählen, hat jede Person<br />
einen Anreiz, durch die Wahl von D abzuweichen. Wechselseitige<br />
Anwendung des Maximin-Prinzips ist kein Nash-Gleichgewicht. Wechselseitige<br />
Defektion ist ebenfalls kein Gleichgewicht, und das Resultat ist<br />
noch ungünstiger, nämlich null statt U – K.<br />
Es gibt aber noch eine weitere Möglichkeit, wenn man gemischte<br />
Strategien zulässt. Gewählt wird eine Kooperationswahrscheinlichkeit<br />
p * , sodass bei wechselseitiger Wahl dieser Wahrscheinlichkeit kein<br />
Akteur einen Anreiz hat, auf eine andere Strategie auszuweichen. Man<br />
125
kann zeigen, dass die folgende Funktion für p * in Abhängigkeit von K, U<br />
und N ein Nash-Gleichgewicht darstellt (Diekmann 1985) 7 :<br />
N – 1<br />
p * = 1 – √<br />
K<br />
U<br />
Wahrscheinlichkeit von Kooperation<br />
1<br />
0,9<br />
0,8<br />
0,7<br />
0,6<br />
0,5<br />
0,4<br />
0,3<br />
0,2<br />
0,1<br />
0<br />
Gruppengröße (N)<br />
K/U = 0,5<br />
2 3 4 5 6 7 8 9 10<br />
Abbildung 6.3 Wahrscheinlichkeit der Kooperation in Abhängigkeit der Gruppengröße<br />
(Modellprognose)<br />
Die Wahrscheinlichkeit der Kooperation steigt mit dem Wert des Kollektivguts<br />
U, sinkt mit den Kosten K und – wie von der Hypothese der Verantwortungsdiffusion<br />
behauptet – mit der Gruppengröße N (Abbildung<br />
6.3). Damit kann die intuitiv formulierte Hypothese der Verantwortungsdiffusion<br />
spieltheoretisch untermauert und tiefer begründet werden.<br />
Mehr noch: In spieltheoretischen Experimenten können nun die unabhängigen<br />
Variablen N, U und K systematisch variiert werden. Damit ist<br />
es möglich, die Hypothese der Verantwortungsdiffusion (Effekt von N)<br />
sowie die Effekte von K und U auf die Kooperationswahrscheinlichkeit<br />
p zu untersuchen.<br />
In einer ernsthaften Hilfeleistungssituation sollte man wohl die<br />
7 Eine einfache Ableitung erhält man mittels des «Indifferenz-Theorems» aus Kapitel<br />
5. Mit q = 1 – p bezeichnen wir die Wahrscheinlichkeit einer D-Wahl. Die Wahrscheinlichkeit,<br />
dass mindestens ein anderer Akteur C wählt, ist (1 – q N – 1 ). q wird so<br />
gewählt, dass Zeile indifferent ist zwischen der Wahl von C und D. Demnach gilt:<br />
U – K = (1 – q N – 1 ) U. Die Auflösung nach q und Berücksichtigung von p = 1 – q ergibt<br />
die oben aufgeführte Formel.<br />
126
Maximin-Strategie wählen. Auch das gemischte Nash-Gleichgewicht<br />
wird in diese Richtung gehen. Ist K gering und U sehr hoch, dann geht<br />
p * gegen eins. In Experimenten ist beobachtbar, dass sich Versuchspersonen<br />
im Vergleich mit dem gemischten Nash-Gleichgewicht eher kooperativer<br />
verhalten.<br />
Ein einfaches Experiment wurde einleitend erwähnt. In Gruppen<br />
von z. B. zwei, drei oder fünf Personen kann jede Person unabhängig voneinander<br />
die Alternative A oder B wählen. Der entsprechende Buchstabe<br />
wird auf einen Zettel geschrieben. Für A erhält eine Person sicher 50<br />
Punkte, für B 100 Punkte, sofern mindestens eine Person in der Gruppe A<br />
wählt. Andernfalls erhalten alle B-Wähler null Punkte (U = 100, K = 50).<br />
Man wird feststellen, dass in größeren Gruppen häufiger B gewählt<br />
wird. Kontrollierte Experimente zeigen, dass der Effekt der Diffusion<br />
von Verantwortung in spieltheoretischen Experimenten reproduzierbar<br />
ist und fast ausnahmslos bestätigt werden kann (z. B. Diekmann<br />
1986, 1993, Murninghan, Kim und Metzger 1993, Weesie und Franzen<br />
1998).<br />
Ein Vorzug des abstrakten Modells des Freiwilligendilemmas ist<br />
aber nicht nur, dass neue und recht einfache Experimente zur Prüfung<br />
der Hypothese der Verantwortungsdiffusion arrangiert werden können.<br />
Die Hypothese ist auch verallgemeinerbar. Wir haben bereits schon allgemein<br />
von «Kollektivgut» und «Kooperation» gesprochen. Der Ausgangspunkt<br />
von Darley und Latané, nämlich Hilfeleistungssituationen,<br />
können im Rahmen des allgemeineren Modells als spezielle Anwendungen<br />
aufgefasst werden. Hier einige weitere Beispiele sozialer Situationen<br />
vom Typ Volunteer’s Dilemma:<br />
– Wenn eine Person eine Normverletzung begeht, z. B. eine Zigarette<br />
bei Rauchverbot anzündet, ist häufiger zu beobachten, dass eine<br />
Sanktion unterbleibt. Selbst wenn alle durch das Rauchen belästigten<br />
Personen an einer Sanktionierung interessiert sind (U), ist dies<br />
meist mit Kosten (K) verbunden. Wartet nun jeder darauf, dass eine<br />
andere am «Kollektivgut» interessierte Person die Kosten trägt, bleibt<br />
der Normverletzer unbehelligt (Sanktionsdilemma).<br />
– Bei Wahrnehmungsaufgaben kann es vorkommen, dass Personen in<br />
einer Gruppe weniger konzentriert sind, als wenn sie eine Aufgabe<br />
127
allein bearbeiten. Dieses Problem ist wichtig bei Überwachungstätigkeiten<br />
zur Fehlerkontrolle. Übernehmen zwei Fluglotsen die gleiche<br />
Überwachungsaufgabe, dann ist es gut möglich, dass sie insgesamt<br />
nachlässiger sind als bei individueller Verantwortlichkeit (Erev et al.<br />
1994).<br />
– Mehrere Firmen stehen vor der Entscheidung, in Forschungsanstrengungen<br />
zu investieren (K) oder aber darauf zu warten, dass eine<br />
andere Firma die Innovation entwickelt. Diese kann dann von den<br />
einzelnen Unternehmen imitiert werden (U). Folgen alle Firmen dieser<br />
Logik, werden die Forschungsinvestitionen nicht getätigt (Eger,<br />
Kraft und Weise 1992).<br />
– In der Informatik treten verschiedene <strong>Dilemmata</strong> auf, wenn einzelne<br />
Knoten (die Akteure) zu einem dezentralen Netzwerk von Computern<br />
verknüpft werden. Jeder Knoten ist z. B. daran interessiert, dass<br />
andere Knoten die Weiterleitung von Information übernehmen, d. h.<br />
sogenannte Backbones unterstützen, aber kein Knoten übernimmt<br />
diese Aufgabe gern, weil sie mit Kosten (Energieaufwand) verbunden<br />
ist. Lee et al. (2007) analysieren die Situation mit einer Variante des<br />
Dilemmas, dem Volunteer’s Timing Dilemma, und leiten aus der<br />
Analyse optimale Strategien ab, die kooperatives Verhalten in Computernetzen<br />
erklären.<br />
– Viele Alltagssituationen tragen Züge eines Volunteer’s Dilemma.<br />
Wenn mehrere Dozenten für ein Seminar verantwortlich sind, kann<br />
es vorkommen, dass bei Seminarsitzungen niemand vorbereitet ist.<br />
Bitten Sie per E-Mail um eine Auskunft, dann bekommen Sie diese<br />
eher, wenn Sie z. B. fünf separate E-Mails schreiben als eine E-Mail<br />
an alle fünf Empfänger (sofern die Kopfzeile mit den anderen Empfängern<br />
sichtbar ist) (Barron und Yechiam 2002). In italienischen<br />
Kirchen können Kunstwerke oft erst mit Genuss betrachtet werden,<br />
wenn sie beleuchtet werden. Die Beleuchtung wird aktiviert, wenn<br />
man eine Münze in einen Automaten steckt. Ein Freiwilliger kann<br />
das Kollektivgut «Beleuchtung» herstellen. Kann man beobachten,<br />
dass sich die Zahlungsneigung verringert, wenn sich mehrere Personen<br />
in dem Kirchenraum aufhalten?<br />
128
Pinguine, berichtet Dawkins (1988), haben eine raffinierte, aber ziemlich<br />
bösartige Strategie entwickelt, um das Dilemma zu lösen. Der Feind des<br />
Pinguins ist die Robbe. Ob sie im Wasser lauert, wenn die hungrigen Tiere<br />
dringend benötigte Nahrung, sprich Fische, erbeuten möchten, wissen<br />
die Pinguine, die am Rand des Eislochs auf das Wasser starren, nicht. Da<br />
kommt es ab und zu vor, dass die hinteren Tiere einen vorwitzigen Pinguin<br />
in der ersten Reihe ins Wasser stoßen, um mit dem unfreiwilligen<br />
Artgenossen einen Test zu machen. Ist das Ergebnis negativ, können sie<br />
sich gefahrlos über die ersehnte Mahlzeit hermachen.<br />
Das einfache Basisspiel kann in verschiedene Richtungen erweitert<br />
werden. Im asymmetrischen Volunteer’s Dilemma können Kosten und<br />
Nutzen der einzelnen Akteure variieren (Diekmann 1993, Weesie 1993).<br />
Im Volunteer’s Timing Dilemma (Weesie 1993, 1994) werden die Akteure<br />
darüber informiert, ob ein Mitspieler kooperiert hat, wobei sich aber der<br />
Nutzen des Kollektivguts mit der Wartezeit verringert. Zu entscheiden<br />
ist in diesem Fall der Zeitpunkt der kooperativen Handlung, vorausgesetzt,<br />
kein Mitspieler hat bereits kooperiert. Weiterhin kann man auch<br />
die Annahme lockern, dass mehrere Freiwillige jeweils die vollen Kosten<br />
tragen. Man kommt so zum Volunteer’s Dilemma mit Kostenteilung<br />
(Weesie und Franzen 1998).<br />
<strong>Soziale</strong> Situationen vom Typ des Volunteer’s Dilemma sind so häufig,<br />
dass sie in einigen Kulturen sprichwörtlich sind oder dafür sogar ein<br />
eigenes Wort existiert. In einer Untersuchung zum Volunteer’s Dilemma<br />
erwähnt Rapoport (1988), dass in Yagan, einer der Sprachen der Eingeborenen<br />
von Feuerland, das Wort «mamihlapinatapai» bedeutet: «Jeder<br />
erwartet von jemand anderem, dass dieser etwas tut, was alle wünschen,<br />
aber keiner bereit ist zu tun».<br />
6.7 Wer hängt der Katze die Schelle um?<br />
In einer Fabel von Äsop haben die Mäuse – nicht ungewöhnlich – Ärger<br />
mit der Katze. Auf der Versammlung der Mäuse hört man allgemeines<br />
Wehklagen über die Gefahr für Leib und Leben durch ihren Widersacher.<br />
Eine kluge Maus schlägt vor, der Katze eine Glocke umzuhängen. So<br />
129
könnte man immer hören, wenn sich die Katze nähert, und sich rechtzeitig<br />
in Sicherheit bringen. Der Vorschlag wird von der Mäuseversammlung<br />
begeistert angenommen. Der Plan hatte nur einen Schönheitsfehler:<br />
Niemand von den versammelten Mäusen war bereit, der Katze die<br />
Schelle umzuhängen.<br />
Das Umhängen der Schelle ist ein Kollektivgut mit hohem Nutzen<br />
U für die gesamte Gemeinschaft (siehe auch Coleman 1990). Wären die<br />
Kosten geringer als U (vielleicht bei einer schlafenden Katze?), hätten<br />
wir wieder den Fall eines Volunteer’s Dilemma. Wir werden dem Geist<br />
der Fabel aber wohl eher gerecht, wenn wir annehmen, dass gilt: K > U<br />
oder U – K < 0, denn der Held, der es schafft, der Katze die Glocke umzuhängen,<br />
wird mutmaßlich von ihr aufgefressen.<br />
Die Äsop’sche Fabel ist also eine Variante des Volunteer’s Dilemma<br />
mit der Besonderheit, dass die Kosten des Freiwilligen höher sind als sein<br />
individueller Nutzen am Kollektivgut. In diesem Fall wird Defektion zur<br />
dominierenden Strategie. Kein Wunder, dass sich in der Versammlung<br />
der Mäuse kein Freiwilliger findet! 8<br />
Schelling (1971) berichtet von Verkehrsstaus, die eine einfache<br />
Ursache haben. Eines der vielen vom Strand zurückgekehrten Fahrzeuge<br />
verliert eine auf dem Autodach nachlässig befestigte Matratze.<br />
Die Matratze liegt nun z. B. auf der rechten Fahrspur und blockiert die<br />
nachfolgenden Autos. Ein Fahrer unmittelbar vor dem Hindernis hat die<br />
Wahl, die Matratze zu umfahren oder sie zu beseitigen. Wer sich direkt<br />
vor dem Hindernis befindet, hat die geringsten Kosten K, die Matratze<br />
wegzuräumen. Leider aber auch einen noch geringeren Nutzen U, sodass<br />
gilt: U – K < 0. Wer weiter hinten im Stau steht, hat dagegen gar nicht die<br />
Möglichkeit, das Kollektivgut der Hindernisbeseitigung zu schaffen. So<br />
tastet sich jedes Fahrzeug an das Hindernis heran und umfährt es, sobald<br />
die Matratze in Sichtweite rückt. Eine vertrackte Situation, die kilometerlange<br />
Staus verursachen kann. Die Situation ist völlig äquivalent zu der<br />
Situation der Mäuse in der Fabel von Äsop. Nur ein altruistischer Held<br />
8 In Cresskill, New Jersey, hat man eine Lösung gefunden, wie die Süddeutsche Zeitung<br />
Online vermeldet (16. 6. 2008). Allerdings nicht um Mäuse, sondern um Vögel<br />
zu warnen, müssen Katzen drei Glocken tragen. Die Mäuse von Cresskill bedanken<br />
sich für die «windfall profits».<br />
130
könnte das Dilemma überwinden. Platt (1973) bezeichnet derartige Situationen<br />
folgerichtig auch als «Missing-Hero-Fallen». Allgemein wird ein<br />
Kollektivgutproblem ohne Absprachen und vertragliche Regelungen nur<br />
schwer lösbar sein, wenn genau diejenigen Akteure, die das Kollektivgut<br />
produzieren können, davon nur einen geringen Nutzen haben, den ihre<br />
Kosten übersteigen. Helden sind nicht immer vorhanden, wenn man sie<br />
gerade benötigt. Dann ist es besser, die Spielstruktur zu verändern, um<br />
das Dilemma zu entschärfen. Analog der Institution der Produkthaftung<br />
könnte man den Autofahrer, der die Matratze verliert, für alle Schäden,<br />
auch alle Zeitverluste durch den verursachten Stau, haftbar machen, vorausgesetzt,<br />
die Wahrscheinlichkeit ist nicht null, dass er identifiziert werden<br />
kann. Die Haftungspflicht und womöglich deren Verschärfung erhöhen<br />
den Anreiz, Vorsorge zu betreiben und auf dem Dach transportierte<br />
Güter besser zu sichern. Auch wenn eine Gesellschaft davon profitiert,<br />
wenn im Alltag verantwortungsbewusste Helden nicht zu rar sind, ist die<br />
strukturelle Lösung der Veränderung der Anreizstruktur oft wirksamer.<br />
In Bertolt Brechts «Galilei» klagt sein enttäuschter Schüler Andrea nach<br />
Galileis Widerruf: «Unglücklich das Land, das keine Helden hat!» Darauf<br />
antwortet Galilei: «Nein. Unglücklich das Land, das Helden nötig hat.»<br />
6.8 Lösungen sozialer <strong>Dilemmata</strong><br />
Wenn Dilemmasituationen nicht einmalig sind, sondern die gleichen<br />
Akteure wiederholt miteinander interagieren, besteht die Möglichkeit<br />
einer spontanen Entwicklung von Kooperation. 9<br />
Problematischer ist die Herstellung von Kooperation in einmaligen<br />
Situationen und in größeren Gruppen. Hier empfiehlt es sich, leichter<br />
9 Wenn zudem ein Akteur A häufiger mit wechselnden anderen Akteuren interagiert,<br />
können Informationen über das Verhalten von A in der Vergangenheit dazu beitragen,<br />
das Kooperationsniveau zu erhöhen (Reputationseffekt). Mit diesen beiden<br />
Lösungen von Dilemmasituationen, wiederholte Spiele und Reputation, werden wir<br />
uns im folgenden Kapitel befassen (zu Hinweisen auf weitere Lösungen des Kooperationsproblems<br />
siehe auch den kurzen Überblick von Diekmann und Lindenberg<br />
2001).<br />
131
gesagt als getan, Anreize zu schaffen, die kooperatives Verhalten fördern<br />
und Defektion vermindern. In jeder Gesellschaft existieren soziale<br />
Normen und Institutionen, die Kooperation unterstützen und Trittbrettfahren<br />
mehr oder minder erfolgreich reduzieren. Jeder Staat versucht,<br />
Zahlungen der Bürger für Kollektivgüter (oft auch für «Kollektivübel»)<br />
zu erzwingen. Kein Staat überlässt es seinen Bürgern, freiwillig Steuern<br />
zu zahlen. Institutionen, hier definiert als dauerhafte, kalkulierbare,<br />
positive oder negative Anreize, können exogen von einer äußeren Autorität<br />
geschaffen oder aber endogen von der betroffenen Gruppe selbst<br />
gestaltet werden. Gegenüber der exogenen «Leviathan»-Lösung wäre<br />
Letzteres die endogene, «genossenschaftliche» Variante.<br />
Nehmen wir als Beispiel eine soziale Situation, die einem N-GD<br />
strukturähnlich ist. Beim Allmendeproblem der Überfischung ist kooperativ,<br />
wer sich an die nachhaltige Strategie hält, gerade so viel zu fangen,<br />
dass der Bestand erhalten bleibt. Wenn die Wachstumsrate z. B. ein Drittel<br />
ist, kann man in einer Periode 25 % entnehmen und hätte am Ende<br />
der Periode wieder den ursprünglichen Bestand. Nehmen wir an, die<br />
Allmende wird von 25 Fischern bewirtschaftet. Die kooperative Strategie<br />
eines Fischers lautet dann, nicht mehr als 1 % des Bestands herauszufischen.<br />
Wie wir wissen, hat jeder Akteur einen Anreiz, die Quote zu<br />
überschreiten. Folgen alle der defektiven Strategie der Ausbeutung, wird<br />
das Gewässer bald leer gefischt sein (Spada und Opwis 1985, Mosler und<br />
Gutscher 1996).<br />
In einer bemerkenswerten Arbeit hat Ostrom (1990) weltweit Allmenden<br />
untersucht, um herauszufinden, unter welchen Bedingungen<br />
die Ressourcenbewirtschaftung erfolgreich ist und wann die Wahrscheinlichkeit<br />
hoch ist, dass eine Allmende zugrunde gerichtet wird.<br />
Erfolgreiche Allmenden erfüllen u. a. die folgenden Bedingungen:<br />
(1) Der Zugang ist geregelt. Nur Mitglieder – im Beispiel die 25 Fischer –<br />
haben Zugang zu der Ressource. (2) Es gibt ein Monitoring des Verhaltens<br />
der Akteure, und (3) unkooperatives Verhalten kann abgestuft sanktioniert<br />
werden. Ein Beispiel ist eine Gemeinschaft von rund 100 Fischern in<br />
Alanya in der Türkei. Das Fischereigebiet wird vor Beginn der Fangsaison<br />
in Sektoren aufgeteilt, wobei die Anzahl der Sektoren der Mitgliederzahl<br />
entspricht. Die Sektoren werden sodann an die Mitglieder verlost. Da
die Sektoren unterschiedliche Qualität haben, wechseln die Mitglieder<br />
an jedem Fangtag den Sektor nach festgelegten Regeln. Diese einfachen<br />
Regulierungen oder Institutionen sind klug gewählt. Das Monitoring<br />
erfolgt nicht durch eine bürokratische Kontrollbehörde, sondern die<br />
Mitglieder kontrollieren sich wechselseitig. Eine Regelabweichung,<br />
ein fremdes Schiff im zugewiesenen Sektor, wird automatisch von den<br />
Akteuren bemerkt. Die Alanya-Fischer haben mit ihren Regeln ein sich<br />
selbst kontrollierendes System geschaffen, das äußerer Interventionen<br />
nicht mehr bedarf (siehe auch den Überblick in Diekmann und Preisendörfer<br />
2001: Kapitel III). Mit Institutionen, die die Probleme von Monitoring<br />
und Sanktionierung lösen, kann es gelingen, einen Ausweg aus<br />
einem N-GD, einem ÖGD oder Allmendedilemma zu finden.<br />
Die Spieltheorie ist hilfreich, um soziale <strong>Dilemmata</strong> zu analysieren.<br />
Wir haben gesehen, dass es unterschiedliche Arten sozialer <strong>Dilemmata</strong><br />
gibt. Ein N-GD z. B. hat eine andere Struktur als ein Freiwilligendilemma.<br />
Da geeignete Lösungen eines Dilemmas wesentlich vom Typ abhängen,<br />
empfiehlt es sich, ein passendes spieltheoretisches Modell des Dilemmas<br />
zu formulieren, dieses zu analysieren (Ermittlung von Nash-Gleichgewichten<br />
u. a.) und auf der Basis der spieltheoretischen Analyse nach<br />
Lösungsmöglichkeiten zu suchen.