03.06.2014 Aufrufe

Differentielle Psychologie, - Universität Regensburg

Differentielle Psychologie, - Universität Regensburg

Differentielle Psychologie, - Universität Regensburg

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Differentielle</strong> <strong>Psychologie</strong>,<br />

persönliche Unfallgefährdung<br />

WS 2010/11<br />

Prof. Dr. Jan Drösler<br />

Universität <strong>Regensburg</strong><br />

Thematik<br />

Dargelegt wird, unter welchen Umständen<br />

beobachtetes Verhalten etwas für eine Person<br />

„bedeutet“, d. h. auch zukünftig entsprechendes<br />

bei dieser Person zu erwarten.<br />

Dies ist ein speziell naturwissenschaftliches<br />

Wahrheitskriterium. Andere Wissenschaften<br />

benutzen auch andere Kriterien,<br />

etwa die Übereinstimmung der Aussage<br />

mit einem vorher festgelegten Kanon von<br />

„Grundwahrheiten“.<br />

Grundbegriffe<br />

Die in dieser Aussage vorkommenden Begriffe<br />

sind mit Rücksicht auf eine wissenschaftliche<br />

Behandlung des Themas ausgewählt.<br />

Der Begriff Verhalten erinnert<br />

daran, daß nicht beliebige Bezüge auf die<br />

Erfahrungsgrundlage des Faches vorkommen,<br />

sondern nur solche, die objektiv,<br />

d. h. unabhängig vom Beobachter registrierbar<br />

sind.<br />

Vorhersagbarkeit<br />

Gerade bei der Vorhersagbarkeit beginnt<br />

aber eine besondere Schwierigkeit vieler<br />

Wissenschaften, wie Meteorologie, Volkswirtschaftslehre,<br />

Biologie oder Kernphysik<br />

ebenso wie der <strong>Psychologie</strong>: Bereits die<br />

einfachsten Zugriffe auf die Erfahrung, die<br />

elementaren Experimente lassen in aller<br />

Regel ihr Ergebnis nicht im einzelnen<br />

vorhersagen.<br />

„Versuchs-Personen“.<br />

Mit Personen sind, der Wiederholbarkeit<br />

der Beobachtungen wegen, stets Versuchspersonen<br />

gemeint Das sind Individuen,<br />

die sich zur Beobachtung ihrer Verhaltensäußerungen<br />

bereiterklärt haben und<br />

nichts von etwaigen theoretischen Überlegungen<br />

des Untersuchers wissen. Dieser<br />

Grundsatz schließt das Verfahren der früher<br />

in der <strong>Psychologie</strong> verbreiteten Selbstbeobachtung<br />

des Untersuchers zur Datengewinnung<br />

aus.<br />

Naturwissenschaftlicher Wahrheitsbegriff<br />

Zukünftiges ist deshalb angesprochen, weil<br />

auch in der <strong>Psychologie</strong> die sachliche<br />

Richtigkeit einer theoretischen Behauptung<br />

allein durch die korrekte Vorhersage von<br />

zukünftigen Beobachtungen belegt ist.<br />

Fehlende Determiniertheit<br />

Der Ausgang eines Experiments kann stets<br />

nur als eine Palette von Möglichkeiten<br />

angegeben werden. Der Wetterbericht<br />

prognostiziert Regen oder Sonnenschein,<br />

der Volkswirtschaftler ein Steigen oder<br />

Fallen bestimmter Aktienkurse, der Biologe<br />

ein mehr oder weniger starkes Wachstum<br />

eines Organismus, der Kernphysiker<br />

eine vielleicht stattfindende Spaltung usw.<br />

Zufall<br />

Das Fehlen einer Vorhersagbarkeit im einzelnen<br />

nennt man Zufall. Ihr Vorherrschen<br />

verhindert nicht grundsätzlich die Vorhersagbarkeit<br />

von Ereignissen und damit den<br />

Einsatz des naturwissenschaftlichen Wahrheitskriteriums.<br />

Unter bestimmten Umständen<br />

wird Zufälliges durch den Einsatz<br />

Prof. Dr. J. Drösler Seite 1 15.02.2011


des Wahrscheinlichkeitsbegriffs kalkulierbar.<br />

Daten als wiederholbare Erfahrungsbindung<br />

Wiederholbare Verhaltensbeobachtungen<br />

werden bei Verwendung von standardisierten<br />

Aufgaben erreicht. Dabei zeigt sich<br />

immer, daß ein erheblicher Teil der Personen<br />

die Aufgaben nicht, wie erwartet löst,<br />

andere Personen aber, von denen man es<br />

nicht erwartet hat, gelegentlich als schwierig<br />

geltende Aufgaben lösen. Menschliches<br />

Verhalten ist zufällig. Das bedeutet auch in<br />

diesem Zusammenhang weiter nichts, als<br />

„im einzelnen nicht vorhersagbar“. Umso<br />

gewichtiger ist die Konvention, nicht beliebige<br />

Resultate von Verhaltensbeobachtungen<br />

als wissenschaftliche Daten gelten<br />

zu lassen, sondern nur solche, die sich bei<br />

Wiederholung des Experiments wenigstens<br />

mit einer statistischen Tendenz reproduzieren<br />

lassen.<br />

Gewissheit<br />

Die <strong>Psychologie</strong> erfüllt das Vorhersagbarkeitskriterium<br />

der Wissenschaftlichkeit,<br />

indem sie den Bezug auf das Zufällige qualifiziert.<br />

Das geschieht durch Skalierung<br />

der Gewissheit mittels des Wahrscheinlichkeitsbegriffs.<br />

Skalierung der Gewissheit nach Kolmogorov<br />

(1933).<br />

Ausgangspunkt ist die Betrachtung einer<br />

Menge von Ergebnissen. Damit sind die<br />

Möglichen Ausgänge eines Zufallsexperiment<br />

bezeichnet. Zum Beispiel<br />

{richtig, falsch}, {konservativ, liberal, progressiv},<br />

{Sonderschulbildung,<br />

Volksschulabschluß, qualifizierter<br />

Volksschulabschluß, Realschulabschluß,<br />

Abitur, Hochschulabschluß}, { t | t =<br />

Reaktionszeit }, { k | k = Blutalkoholkonzentration<br />

}.<br />

Ergebnisse und Ereignisse<br />

Die ersten Beispiele betreffen endliche<br />

Ereignismengen, die beiden letzten unendliche<br />

(kontinuierliche). Sei Ω eine Menge<br />

von Ergebnissen. Alle logischen Kombinationen<br />

der Elemente von Ω sollen bezeichenbar<br />

sein. Dazu muß man wissen, wie<br />

man logische Kombinationen („und“ ,<br />

„oder“) bzw. Operationen („nicht“) auf<br />

Mengen anwendet.<br />

Mengenlehre und Logik<br />

Das geschieht wegen der gegebenen eins<br />

zu eins Entsprechung von (Aussagen-)<br />

Logik zur Mengenlehre mittels mengentheoretischer<br />

Operationen (, , ). Die<br />

Menge Ω bildet mit diesen Operationen<br />

eine Algebra von Teilmengen von Ω ,<br />

weil sie bezüglich dem Mengendurchschnitt<br />

und der Mengenvereinigung <br />

abgeschlossen ist.<br />

Sobald alle logischen Kombinationen <br />

der<br />

Erge Ω<br />

gebnismenge<br />

als Ereignismenge verfügbar<br />

sind, lässt sich darauf ein Maß der Gewissheit<br />

definieren. Es hat die Eigenschaften,<br />

die wir beispielsweise von einem Maß<br />

für Flächen kennen. Wegen dieser Strukturgleichheit<br />

lassen sich die mit Mengen<br />

verknüpften Wahrscheinlichkeiten einem<br />

Venn Diagramm als Flächen repräsentieren.<br />

Ω<br />

A<br />

A AB B<br />

B<br />

Ω<br />

Prof. Dr. J. Drösler Seite 2 15.02.2011


(Ω) = 1,<br />

(A B) = (A) + (B) gdw. A B = .<br />

Für disjunkte Ereignisse A, B bedeutet eine<br />

Vereinigung (logisch „oder“), daß sich die<br />

Wahrscheinlichkeit des Auftretens von A<br />

oder B als Summe der Einzelwahrscheinlichkeiten<br />

errechnen läßt.<br />

Das Gewißheitsmaß ist für disjunkte<br />

Ereignisse additiv.<br />

Disjunktheit darf nicht mit Unabhängigkeit<br />

von Ereignissen verwechselt werden. Zu<br />

deren Definition ist zunächst die bedingte<br />

Wahrscheinlichkeit einzuführen. Die<br />

Wahrscheinlichkeit von a unter der Bedingung<br />

B ist definiert als<br />

(A | B ) = ( A B ) / ( B).<br />

Untersucht wird, ob ein Ergebnis B mit<br />

irgend einer infragekommenden Bedeutung<br />

A in Zusammenhang steht. Da von zufälligen<br />

Ereignissen die Rede ist, wird nach<br />

einem Zusammenhang in Wahrscheinlichkeit<br />

gesucht.<br />

Unabhängigkeit zweier Ereignisse A und B<br />

liegt vor, wenn gilt P(A | B) = P(A). Flächenmäßig<br />

ausgedrückt liegt dieser Fall<br />

vor, wenn die Fläche von A B im Verhältnis<br />

zu der von B gleich dem Flächenverhältnis<br />

von A zu Ω ist. Abhängigkeit<br />

ist gegeben, wenn statt dessen die Ungleichheit<br />

gilt.<br />

P(A | B) ≠ P(A).<br />

Empirische Überprüfung<br />

Zur Prüfung der Abhängigkeit eines Ergebnisses<br />

und dessen mutmaßlicher<br />

Bedeutung ist eine empirische Untersuchung<br />

erforderlich. Beispiel: Bedeutet die<br />

Lösung einer Denkaufgabe, daß die Person<br />

das Klassenziel des Schuljahres erreichen<br />

wird? Wir beobachten 104 Versuchspersonen<br />

in einem Experiment:<br />

erreicht<br />

reeicht<br />

Summrei<br />

erreicht<br />

nicht<br />

er-<br />

Der kritische Wert für die Prüfgröße ist –<br />

bei einer Irrtumswahrscheinlichkeit von<br />

0,05 – laut Tabelle von ² 3,841. Im vorliegenden<br />

Beispiel wird dieser Wert der<br />

Prüfgröße nicht erreicht. Die statistische<br />

Entscheidung lautet „insignifikante Unter-<br />

cht<br />

nicht<br />

gelöst“<br />

17<br />

(22)<br />

37<br />

(32)<br />

54<br />

Summe<br />

gelöstllöst“ö<br />

st“<br />

25<br />

(20)<br />

25<br />

(30)<br />

Die empirisch zu beantwortende Frage<br />

läuft auf eine Untersuchung hinaus, ob die<br />

bedingte Wahrscheinlichkeit des Ereignisses<br />

„Klassenziel erreicht, gegeben Test<br />

bestanden“ sich von der unbedingten<br />

Wahrscheinlichkeit des Ereignisses „Klassenziel<br />

erreicht“ unterscheidet. Die Wahrscheinlichkeiten<br />

werden durch relative<br />

Häufigkeiten geschätzt. Als statistische<br />

Nullhypothese wird die Gleichheit der beingten<br />

und unbedingten Wahrscheinlichkeiten<br />

angesetzt und in erwarteten relativen<br />

Häufigkeiten ausgewiesen. Das sind die<br />

Zahlen in Klammern. Eine statistische<br />

Prüfgröße für derartige Fälle wurde von<br />

Pearson (1922) als ² bereitgestellt.<br />

Sie berechnet sich als Summe der auf die<br />

erwarteten Häufigkeiten normierten quadrierten<br />

Abweichungen der beobachteten<br />

Häufigkeiten:<br />

2<br />

( fb fe )<br />

i i<br />

i<br />

, i 1..4.<br />

fe<br />

Die Anzahl der Freiheitsgrade ist 1.<br />

Die unter der Nullhypothese erwarteten<br />

Häufigkeiten müssen ihren entsprechenden<br />

Randsummen proportional und der Gesamtsumme<br />

umgekehrt proportional sein.<br />

Ebenso werden sie berechnet: Das Produkt<br />

der einer Zelle der Tabelle entsprechenden<br />

Randsummen wird gebildet und durch die<br />

Gesamtanzahl geteilt.<br />

i<br />

50<br />

2<br />

42<br />

62<br />

104<br />

Prof. Dr. J. Drösler Seite 3 15.02.2011


schiede zwischen beobachteten und unter<br />

der Nullhypothese erwarteten Häufigkeiten“.<br />

Die Nullhypothese wird beibehalten.<br />

Falsche Entscheidungen<br />

Man vermeidet die Blamage, fälschlich<br />

einen (neuen) Effekt für die Wissenschaft<br />

zu behaupten, wenn man die entsprechende<br />

Irrtumswahrscheinlichkeit „der ersten Art“<br />

möglichst klein ( 0,01 oder 0,05) ansetzt.<br />

Einen bestehenden Effekt zu übersehen gilt<br />

als weniger ehrenrührig. Die entsprechende<br />

Irrtumswahrscheinlichkeit „der zweiten<br />

Art“ wird höher angesetzt (> 0.2).<br />

Ausweitung der Erfahrungsgrundlage.<br />

Die Binomialverteilung<br />

Die Eigenschaften der Binomialverteilung<br />

erkennt man am leichtesten durch Betrachtung<br />

ihres Graphen.<br />

Erwartungswert: X = n p,<br />

Varianz var(X) = n p (1-p)<br />

Theoretische Bedeutung<br />

Die Binomialverteilung zeigt, daß extrem<br />

Schiefe Verteilungen entstehen können,<br />

auch wenn die Ereignisse – im Beispiel<br />

Unfälle – als voneinander unabhängig vorausgesetzt<br />

werden. Kennzeichnet diese<br />

Verteilung eine brauchbare Modellvorstellung<br />

für das psychologische Geschehen?<br />

Wir beobachten Personen über einen längeren<br />

Zeitraum, und treffen auf individuelle<br />

Unfallhäufigkeiten, die nicht mehr durch<br />

eine binäre Zufallsgröße mit Zweipunktverteilung<br />

zu beschreiben sind. Das Beobachtungszeitraum<br />

sei in zehn Perioden<br />

aufgeteilt und man kann in jeder von diesen<br />

unfallfrei oder unfallbehaftet sein. So<br />

haben wir eine Zufallsgröße vor uns, die<br />

die Werte 0 bis 10 annehmen kann.<br />

Die Verteilung der individuellen Häufigkeiten<br />

Unter der Annahme, daß die Ereignisse in<br />

den einzelnen Perioden mit gleicher Wahrscheinlichkeit<br />

aber statistisch unabhängig<br />

voneinander Auftreten, ergibt sich folgende<br />

Zufallgröße:<br />

10<br />

x<br />

10<br />

x<br />

P ( X x) p (1 p ) , x 0...10.<br />

x <br />

10<br />

10!<br />

m it = und x! = x(x-1)(x-2)...1.<br />

x x! (10-x)!<br />

Die Poisson-Verteilung<br />

Setzt man in der Binomialverteilung den<br />

Erwartungswert p = λ / n und läßt n so gegen<br />

Unendlich streben, daß sich p nicht<br />

ändert, dann wird die Binomialverteilung<br />

zur Poissonverteilung:<br />

Erwatungswert: (X) = λ, Varianz: var(X)<br />

= λ<br />

Kennwerte von Zufallsgrößen<br />

Eine spezielle Verteilung läßt sich durch<br />

ihre Momente beschreiben. Man unterscheidet<br />

rohe und zentrale Momente. Das<br />

erst zentrale Moment der Zufallgröße X ist<br />

der Erwartungswert (X )= Σ xi Pi .<br />

Das zweite zentrale Moment ist die Varianz<br />

s²( X ) = X² - ( X)². Für die Zweipunktverteilung<br />

ergeben sich (X )= 1*P(X =1)<br />

+0* P(X = 0) = P(X=1) bzw. s²( X ) = 1² *<br />

P(X=1) + 0² * P(X=0) – P(X=1)^2<br />

=P(X=1)*(1- P(X=1)).<br />

Prof. Dr. J. Drösler Seite 4 15.02.2011


Empirische Prüfung<br />

Drei Schritte sind erforderlich<br />

1. Schätzung der Parameter auf Grund<br />

von Stichprobenmittelwert und<br />

Stichprobenstreuung.<br />

2. Aufzeichnen der nun errechenbaren<br />

theoretischen Häufigkeiten gegen<br />

die vorgefundenen empirischen<br />

Häufigkeiten.<br />

3. Zufallskritische Entscheidung mittels<br />

Pearsons Anpassungstest.<br />

4.<br />

Die Alternativhypothese<br />

Fällt de Pearsonsche Anpassungstest einer<br />

Poissonverteilung an die empirische Verteilung<br />

der individuellen Unfallhäufigkeiten<br />

zur Ablehnung der Nullhypothese, so<br />

wird eine Alternativhypothese formuliert.<br />

Diese behauptet echte Unterschiede zwischen<br />

den Personen hinsichtlich deren persönlicher<br />

Gefährdung λ.<br />

Im folgenden treten einige kompliziert<br />

aussehende Ausdrücke und deren Umformungen<br />

auf. Auch der weniger versierte<br />

Leser kann diese heutzutage mittels Expertensystemen<br />

wie Maple oder Mathematica<br />

leicht nachvollziehen, sofern er sich auch<br />

nur vage an das übliche Grundwissen zum<br />

Abitur in Mathematik erinnert. Ein Maple-<br />

Worksheet zum gegenwärtigen Stoff ist<br />

diesem Skriptum in der Virtuellen Universität<br />

<strong>Regensburg</strong> beigegeben.<br />

Die Gammaverteilungsdichte<br />

Eine nur zweiparametrige aber sehr flexibel<br />

zu handhabende Verteilungsdichte ist<br />

gegeben durch<br />

<br />

( 1)<br />

a exp( a)<br />

f ( ) <br />

für 0<br />

( )<br />

<br />

( 1)<br />

m it ( )= x exp( x)<br />

dx<br />

Bedingte Verteilungsdichten<br />

0<br />

<br />

Die gesuchten individuellen Ausprägungen<br />

der Gefährdung werden mittels bedingter<br />

Wahrscheinlichkeiten ermittelt. Sei k die<br />

individuelle Unfallhäufigkeit im Berichtszeitraum.<br />

Gegeben ist P (k | λ), gesucht ist<br />

P( λ | k). Die Verbindung der beiden ist<br />

durch die Definition der bedingten Wahrscheinlichkeit<br />

gegeben.<br />

P(k | λ) = P( k, λ) / P( λ).<br />

Die gemeinsame Verteilung<br />

Die gemeinsame Verteilung P(k, λ) ergibt<br />

sich daraus als<br />

P ( X k , h)<br />

<br />

1 1<br />

P ( X k | h) * P ( h)<br />

1 1 1 1<br />

weil Wahrscheinlichkeiten für das kontinuierliche<br />

λ als Flächen unter der Dichtefunktion<br />

ermittelt werden.<br />

Ein Grenzübergang<br />

Die gemeinsame Verteilung von k und λ<br />

erhält man durch Einsetzen und anschließenden<br />

Grenzübergang als<br />

1<br />

lim P ( X k , h)<br />

<br />

1 1<br />

h 0<br />

h<br />

k<br />

1<br />

<br />

a ( 1)<br />

a<br />

1 1 1<br />

<br />

exp( ) exp( )<br />

k ! ( )<br />

Die neue Verteilung der individuellen<br />

Unfallhäufigkeiten<br />

Sie ist als Randverteilung der gemeinsamen<br />

Verteilung durch Integration über λ<br />

gegeben:<br />

<br />

a 1 ( k <br />

)<br />

P ( X k ) <br />

( ) k! ( a 1) k<br />

( <br />

)<br />

Es ist die Wahrscheinlichkeitsfunktion der<br />

in der Wahrscheinlichkeitstheorie bekannten<br />

Negativen Binomialverteilung.<br />

Prof. Dr. J. Drösler Seite 5 15.02.2011


Die bedingte persönliche Gefährdung<br />

Die Negative Binomialverteilung dient als<br />

neue Nullhypothese. Kann sie nach Pearsonschen<br />

Anpassungstest beibehalten werden,<br />

so läßt sich die bedingte Dichte der λ,<br />

gegeben k diskutieren. Die verschiedenen<br />

Kurven zeigen die Gammaverteilten persönlichen<br />

Gefährdungen für Personen, die<br />

im Berichtszeitraum keinen, einen, zwei<br />

usw. Unfälle auf sich zogen.<br />

1<br />

exp a exp( a<br />

)<br />

f ( k, ) <br />

k ! ( )<br />

<br />

a<br />

1<br />

<br />

C ov( k , ) <br />

<br />

exp( ) exp( a ) d <br />

( ) k !<br />

E ( k ) E ( )<br />

k<br />

<br />

<br />

0<br />

Wenn man die zur gemeinsamen Verteilung<br />

von k und gehörige Kovarianz ausrechnet<br />

(oder durch ein Expertensystem<br />

wie Maple ausrechnen läßt) und sie durch<br />

die bereits oben ermittelten Standardabweichungen<br />

der Verteilungen von k bzw.<br />

von dividiert, so erhält an den Korrelationskoeffizienten<br />

zwischen den beiden Zufallsgrößen:<br />

1<br />

<br />

k <br />

1 a<br />

0<br />

k<br />

Der Parameter a der Negativen Binomialverteilung<br />

war vorher unter realistischen<br />

Verhältnissen mit a=3/4 bestimmt worden.<br />

Eingesetzt ergibt sich ein Korrelationskoeffizient<br />

von 0.75. Das bedeutete einen<br />

deutlichen Informationsgewinn. Aus einer<br />

gegebenen individuellen Unfallhäufigkeit k<br />

läßt sich mittels linearer Regression die<br />

erwartete persönliche Gefährdung recht<br />

präzise bestimmen.<br />

Die Bedeutung für den Einzelnen<br />

Lassen sich unter diesen Umständen die<br />

individuellen Unfallhäufigkeiten psychologisch<br />

"auswerten"? Diese Frage ist zunächst<br />

zu operationalisieren: Was weiß<br />

man mehr über die persönliche Gefährdung<br />

einer Person, wenn man ihre individuelle<br />

Unfallhäufigkeit kennt?<br />

Die gemeinsame Verteilung<br />

Berechnung der Korrelation von k und<br />

<br />

Bedeutung für den Einzelnen<br />

Lassen sich unter derartigen Umständen die individuellen<br />

Unfallhäufigkeiten psychologisch „auswerten“?<br />

Besitzen sie eine diagnostische Bedeutung?<br />

Diese Frage ist zunächst zu operationalisieren: Was<br />

weiß man mehr über eine Person, wenn man deren<br />

individuelle Unfallhäufigkeit kennt?<br />

Die gemeinsame Verteilung<br />

Berechnung der Korrelation von k und λ<br />

k<br />

1<br />

exp a exp( a<br />

)<br />

f ( k, ) <br />

k ! ( )<br />

<br />

a<br />

1<br />

<br />

C ov( k , ) <br />

<br />

exp( ) exp( a ) d <br />

( ) k !<br />

E ( k ) E ( )<br />

<br />

<br />

0<br />

0<br />

k<br />

Prof. Dr. J. Drösler Seite 6 15.02.2011


Unfallhäufigkeiten k und persönliche Gefährdung<br />

lambda<br />

„Reproduktivität“ der Poisson-Verteilung: Summen<br />

von Poissonverteilten Zufallsgrößen sind ebenfalls<br />

poissonverteilt.<br />

Unfälle und Testaufgaben<br />

In der Sicherheitsforschung sind individuelle Unfallhäufigkeiten<br />

gleichzeitig das Kriterium und das<br />

Diagnostikum. Die Frage nach der Bedeutung der<br />

Befunde stellt sich nicht in der Weise, wie etwa bei<br />

der Verwendung von Testaufgaben zur Prognose<br />

der Schulreife. Wie wird die Brauchbarkeit einer<br />

Testaufgabe für eine bestimmte Prognose bestimmt?<br />

Beispiel: Intelligenztest<br />

Korrelationen<br />

Entsprechend der Definition des Korrelationskoeffizienten<br />

läßt sich die Formel für die Korrelation<br />

zwischen der individuellen Unfallhäufigkeit k<br />

und dem Gefährdungs-parameter λ bestimmen: ρkλ<br />

= (1+a)^(-1/2). Für a= ¾ ergibt sich ein Koeffizient<br />

von 0,75. Das Quadrat aus diesem Koeffizienten,<br />

0.57, kennzeichnet die Korrelation der individuellen<br />

Unfallhäufigkeiten in verschiedenen Beobachtungszeiträumen,<br />

ρkk´ .<br />

Informationsgewinn<br />

Am Anfang einer Untersuchung kennt man allein<br />

die Streuung der Befunde zwischen den Personen,<br />

also hier der Unfallhäufigkeiten. Mit Hilfe der Korrelationskoeffizienten<br />

kann man die verbleibende<br />

Ungewißheit bestimmen. Sie ist definiert als das<br />

Verhältnis der bedingten Varianz zur unbedingten<br />

Varianz. Dieses Verhältnis ist gegeben durch 1<br />

minus dem Quadrat des Reliabilitätskoeffizienten,<br />

hier also durch 0,43.<br />

Unsicherheitsreduktion<br />

Man spricht von einer Unsicherheitsreduktion , hier<br />

von 43 %.Allgemein kann man sich merken<br />

ρ² xλ = s²λ/s²x =ρx1x2<br />

Die Unsicherheitsreduktion ist<br />

<br />

Additive Fehlerkomposition<br />

x<br />

1 <br />

Traditionell bevorzugt die psychologische Diagnostik<br />

additive Fehlermodelle: X = T + E. Die negative<br />

Binomialverteilung als Mischung von individuell<br />

verschiedenen Poisson-Verteilungen läßt sich auch<br />

als additives Modell auffassen. Das liegt an der<br />

2<br />

xx<br />

Thurstone & Thurstone (1941) haben die Bedeutung<br />

von bestimmten Testaufgaben dadurch zu<br />

bestimmen versucht, daß sie 63 Aufgabenarten, die<br />

von anderen zur Intelligenzdiagnose verwendet<br />

worden sind, mit statistischen Mitteln in Äquivalenzklassen<br />

zerlegt haben. Sie erhielten ca. 10 Klassen,<br />

die sie „Faktoren“ nannten.<br />

Beispiele<br />

1 Buchstabenkombinationen herstellen:<br />

Zwei gleiche (aus A;B;C) erzeugen diesen Buchstaben.<br />

Verschiedene zwei erzeugen den dritten<br />

Buchstaben.<br />

2. Absurditäten erkennen: „Frau Schmidt hatte<br />

keine Kinder, ebenso wie Ihre Mutter.“<br />

3. Arithmetik (Textaufgaben mit ein- und zweistelligen<br />

Geldbeträgen)<br />

4. Anagramme. Konstruiere Worte aus Buchstaben<br />

eines vorgegebenen Wortes.<br />

6. Addition: (von drei zweistelligen Zahlen).<br />

7.Assoziationen: Schreibe alle Worte, die „Trinkbares“<br />

bezeichnen.<br />

8.Spiegelschrift lesen (einzelne Worte).<br />

9 Drehungen und Drehung mit Klappung unterscheiden.<br />

10. Satzergänzung<br />

11. (vierstellige) Zahlen wiedergeben<br />

12. Anweisungen befolgen: „wenn eine Katze ein<br />

Tier ist, schreibe eine 4“.<br />

13. Worte zu einem Satz ordnen (drank milk she)<br />

14. Punktmuster auszählen.<br />

15.- 16. Abweichend Muster markieren<br />

17. Figuren sortieren<br />

18. Figuren benennen<br />

19. Möglicht viele Worte mit einem vorgegebenen<br />

Anfangsbuchstaben aufschreiben.<br />

20. Personennamen lernen<br />

21. Geometrische Formen<br />

22. Zahlen ordnen<br />

23. Gleiche Zahlen markieren<br />

24. Gleiche Figuren markieren.<br />

25. Buchstabenlücken in Worten füllen.<br />

26. Abweichende Buchstabenkombinationen markieren<br />

Prof. Dr. J. Drösler Seite 7 15.02.2011


Thurstones Faktoren der Intelligenz<br />

Numerisches Denken N<br />

Wortflüssigkeit W<br />

Räumliche Vorstellung S<br />

Sprachverständnis V<br />

Gedächtnis<br />

M<br />

Induktives Denken I<br />

Perzeptive Auffassung P<br />

Unklare Interpretierbarkeit<br />

für drei weitere gemeinsame<br />

Faktoren X1,X2,X3<br />

Störabstand<br />

In Wissenschaft und Technik wird der Störabstand<br />

(von Signal T zum „Rauschen“ E) definiert als<br />

10 log( var(T) / var (E) ).<br />

Er wird mittels des dimensionslosen Maßes<br />

Dezibel [ dB ] angegeben.<br />

Beispiele<br />

Schallplatte: 100 dB<br />

CD: 120 dB<br />

Gesichtssinn: 120 dB<br />

Lenkradspiel im Kfz:<br />

Zwei Fingerbreiten Spiel auf 60 Fingerbreiten<br />

Gesamtausschlag entspricht 10 log( (2/60)^2)<br />

= 68 dB<br />

Anwendung auf Testergebnisse<br />

Ein Test wird a) einschlägige, b) gleichartige Aufgaben<br />

enthalten. Die Einschlägigkeit prüft man<br />

durch Korrelation des Tests mit dem Kriterium, die<br />

Gleichartigkeit durch Untersuchung von Erwartungswert,<br />

Streuung und Korrelation der Aufgaben<br />

untereinander bzw. mit dem Gesamttest.Aufgabenparameter:<br />

E(X) = piDer Aufgabenerwartungswert<br />

ist zu bestimmen als Erwartungswert<br />

E(X) einer Zufallsgröße X, die nur die Werte<br />

Eins („gelöst“) und Null („nicht gelöst“) annimmt:<br />

E(X) = 1 p(X=1) + 0 P(X=0).<br />

Heraus kommt die Lösungswahrscheinlichkeit pi<br />

der Aufgabe i.Aufgabenvarianz: Var(X) = p (1-<br />

p)Die Varianz einer Zufallgröße X ist definiert als<br />

Var(X) = ΣX²p(X) – [E(X)]² . Für unsere binäreZufallsgröße<br />

ergibt sich<br />

Var(X) = pi - pi² = pi ( 1- pi).<br />

Besitzen demnach zwei Aufgaben den gleichen<br />

Erwartungswert, so besitzen sie auch die gleiche<br />

Varianz.<br />

Varianz einer Summe von Zufallsgrößen<br />

²(X+Y)= ²(X)+ ² (Y) + 2 ρ (X) (Y)Die<br />

Varianz einer Summe hängt also von der Korrelation<br />

ρ der beiden ab. Für unabhängige Zufallsgrößen<br />

(ρ = 0) ergibt sich also einfach deren Summe. Ist ρ<br />

=1, wie bei den True-Werten paralleler Tests, dann<br />

ergibt sich ein Anwachsen im Quadrat der Anzahl<br />

der Summanden, da ja alle paarweisen ρ zu berücksichtigen<br />

sind.<br />

Störabstand und Testlänge<br />

Für eine Testverlängerung läßt sich zeigen, daß die<br />

Fehlervarianz sigma(E)^2proportional zum Verlängerungsfaktor<br />

n wächst, die True-Varianz sigma(T)^2<br />

aber quadratisch, also mit n^2. Deshalb<br />

wirkt sich Testverlängerung auf den Störabstand<br />

(wegen der Logarithmierung) als Addition eines<br />

konstanten Zuwachses aus:<br />

Zehnfache Testlänge<br />

In der klassischen Testtheorie wird vorausgesetzt,<br />

daß der beobachtete Rohwert X sich als Summe des<br />

„wahren“ Werts T und des Testfehlers E zusammensetzt<br />

und daß T und E stochastisch unabhängig<br />

sind. Außerdem ist die Reliabilität rho als Verhältnis<br />

der wahren Varianz zur Gesamtvarianz definiert.<br />

Daraus läßt sich der Störabstand als 10 log<br />

rho/(1-rho) bestimmen.<br />

Störabstand abhängig von der Reliabilität<br />

Testkonstruktion<br />

Prof. Dr. J. Drösler Seite 8 15.02.2011


Reliabilität und Testlänge<br />

Weil das Verhältnis ²(T)/²(E) = ρ/(1-ρ) mit der<br />

Testlänge n Proportional wächst, steigt die<br />

Ausgangsreliabilität Reliabilität ρ (X,X‘) mit der<br />

Testlänge wie<br />

ρ(X,X‘)<br />

ρ(n X, n X‘) = -------------------<br />

1+(n-1) ρ(X,X‘)<br />

(Spearman-Brown-Formel).<br />

Die Spearman-Brown Formel<br />

Es gilt ρ11/(1-ρ11)=²(T)/ ²(E). Das Verhältnis<br />

Von True- zu Fehlervarianz verändert sich durch n-<br />

fache Testverlängerung mittels paralleler Testaufgaben<br />

zu ρnn/(1-ρnn) = n² ²(T)/ n ²(E)= n<br />

²(T)/²(E) weil die E untereinander unabhängig<br />

und die T identisch sind. Durch Auflösen nach ρnn<br />

und Einsetzen von ρ11 ergibt sich die S-B-Formel.<br />

Reliabilität und Testlänge graphisch<br />

Validität und Testlänge<br />

Aufgaben-Test-Korrelation<br />

Aufgaben sind äquivalent („parallel“), wenn siegleiche<br />

Erwartungswerte, Varianzen sowie<br />

Aufgaben-Test-Korrelationen besitzen. Der Korrelationskoeffizient<br />

ist definiert als<br />

ρxy = cov(X,Y)/(sx sy)<br />

Mit cov(X,Y)= E(XY) - E(X)E(Y) .Eingesetzt ergibt<br />

sich der punkt-biseriale Korrelationskoeffizient<br />

ρxy = [E(Y | X=1) – E(Y | X = 0)(pi(1- pi)] /sy<br />

Aufgabenauswahl<br />

Der Einfluß der Testlänge auf die Reliabilität<br />

Wirkt sich auch auf die Validität des Test aus:<br />

n ρ²(X,Y)<br />

Ρ(nX,Y)=(----------------------------)^(1/2)<br />

1+(n-1)ρ(X,X‘)<br />

Validität und Testlänge n graphisch für verschiedene<br />

Reliabilitäten<br />

Diagnostik in anderen Bereichen<br />

Eine große Gruppe von Verfügbaren Tests bezieht<br />

sich auf Verhaltensattribute wie „Geschicklichkeit“<br />

oder „Aufmerksamkeit“. Diese Tests zeichnen sich<br />

zwar durch hohe Reliabilitäten aus, sind aber meist<br />

schwer zu interpretieren, weil es die Geschicklichkeit<br />

oder die Aufmerksamkeit nicht gibt, sondern<br />

sehr viele verschiedene.<br />

Prof. Dr. J. Drösler Seite 9 15.02.2011


„Persönlichkeitstests“<br />

Fragebogen mit Fragen, die sich auf individuelle-<br />

Vorlieben, Gewohnheiten. Manchmal sogar auf das<br />

Intimleben beziehen, werden von ihren Autoren<br />

gern Persönlichkeitstests genannt. Diese Fragebogen<br />

leiden darunter, daß die damit erzielten Äußerungen<br />

besonders anfällig gegen Simulation und<br />

Dissimulation seitend ser Befragten sind, und daß<br />

sie sich kaum validieren lasssen. Ihre Reliabilität ist<br />

meist gering.<br />

Fisz, M.,Wahrscheinlichkeitsrechnung und mathematische<br />

Statistik. Berlin, Dt. Verl. D. wiss., 1958<br />

Gulliksen, H.,Theory of mental Tests, New York,<br />

Wiley, 1950.<br />

Lundberg, O.,On random processes and their application<br />

to sickness and accident statistics. Almquist<br />

& Wiksells, Uppsala 1940.<br />

Renyi, A. Wahrscheinlichkeitsrechnung, Berlin, Dt.<br />

Verl. d. Wiss., 1962<br />

„Projektive“ Tests<br />

Die Schwierigkeiten bei der Entwicklung objektivierter<br />

diagnostischer Verfahren haben immer wieder<br />

Autoren veranlaßt, sogenannte „freie“ Außerungen<br />

der Personen zu bestimmten Materialien,<br />

z.B. Tintenklexe oder Bildern von Personengruppen<br />

zu protokollieren und „auszuwerten“. Dieser Verzicht<br />

auf die Definition einer Grundmenge Ω eines<br />

Wahrscheinlichkeitsraumes der Antworten hat<br />

fatale Folgen für die Diagnostik.<br />

Stevens, S. S. Psychology and the Science of Science.<br />

Psychological Bulletin, 1939, 36, 221 – 263.<br />

Nachgedruckt in Marx, M. Theories in contemporary<br />

Psychology. New York, 1968..<br />

Stevens, S. S. Psychology and the Science of<br />

Science. Psychological Bulletin, 1939, 36, 221<br />

– 263. Nachgedruckt in Marx, M. Theories in<br />

contemporary Psychology. New York, 1968..<br />

Motivations-Tests<br />

Szenische Darstellungen sollen bei den Versuchspersonen<br />

Äußerungen provozieren, die sich als<br />

deren Motiviertheit interpretieren lassen.<br />

Diese Erwartung ist äußerst gewagt, wie Untersuchungen<br />

von McClelland und Atkinson zeigen:<br />

Überwindet man die geringe Reproduzierbarkeit der<br />

Antworten durch Zusammenfassung vieler Versuchspersonen,<br />

dann spiegeln die Antworten die<br />

motivationalen Autostereotype des jeweiligen Landes<br />

wider.<br />

(Wird fortgesetzt.)<br />

Literatur<br />

Arbous, A. G. & Kerrich, J.E. Accident Statistics<br />

and the concept of Accident Proneness. Biometrics,7,<br />

340 – 432, 1951<br />

Bosch, K. (1976). Elementare Einführung in<br />

die Wahrscheinlichkeitsrechnung. Reinbeck:<br />

Rowohlt.<br />

Bosch, K. (1982). Elementare Einführung in<br />

die angewandte Statistik. Braunschweig:<br />

Vieweg.<br />

Drösler, J., Zur Methodik der Verkehrspsychologie,<br />

245 – 290 in: Hoyos, C.,: <strong>Psychologie</strong> des<br />

Straßenverkehrs, Bern, Huber,1965<br />

Prof. Dr. J. Drösler Seite 10 15.02.2011

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!