Differentielle Psychologie, - Universität Regensburg
Differentielle Psychologie, - Universität Regensburg
Differentielle Psychologie, - Universität Regensburg
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Differentielle</strong> <strong>Psychologie</strong>,<br />
persönliche Unfallgefährdung<br />
WS 2010/11<br />
Prof. Dr. Jan Drösler<br />
Universität <strong>Regensburg</strong><br />
Thematik<br />
Dargelegt wird, unter welchen Umständen<br />
beobachtetes Verhalten etwas für eine Person<br />
„bedeutet“, d. h. auch zukünftig entsprechendes<br />
bei dieser Person zu erwarten.<br />
Dies ist ein speziell naturwissenschaftliches<br />
Wahrheitskriterium. Andere Wissenschaften<br />
benutzen auch andere Kriterien,<br />
etwa die Übereinstimmung der Aussage<br />
mit einem vorher festgelegten Kanon von<br />
„Grundwahrheiten“.<br />
Grundbegriffe<br />
Die in dieser Aussage vorkommenden Begriffe<br />
sind mit Rücksicht auf eine wissenschaftliche<br />
Behandlung des Themas ausgewählt.<br />
Der Begriff Verhalten erinnert<br />
daran, daß nicht beliebige Bezüge auf die<br />
Erfahrungsgrundlage des Faches vorkommen,<br />
sondern nur solche, die objektiv,<br />
d. h. unabhängig vom Beobachter registrierbar<br />
sind.<br />
Vorhersagbarkeit<br />
Gerade bei der Vorhersagbarkeit beginnt<br />
aber eine besondere Schwierigkeit vieler<br />
Wissenschaften, wie Meteorologie, Volkswirtschaftslehre,<br />
Biologie oder Kernphysik<br />
ebenso wie der <strong>Psychologie</strong>: Bereits die<br />
einfachsten Zugriffe auf die Erfahrung, die<br />
elementaren Experimente lassen in aller<br />
Regel ihr Ergebnis nicht im einzelnen<br />
vorhersagen.<br />
„Versuchs-Personen“.<br />
Mit Personen sind, der Wiederholbarkeit<br />
der Beobachtungen wegen, stets Versuchspersonen<br />
gemeint Das sind Individuen,<br />
die sich zur Beobachtung ihrer Verhaltensäußerungen<br />
bereiterklärt haben und<br />
nichts von etwaigen theoretischen Überlegungen<br />
des Untersuchers wissen. Dieser<br />
Grundsatz schließt das Verfahren der früher<br />
in der <strong>Psychologie</strong> verbreiteten Selbstbeobachtung<br />
des Untersuchers zur Datengewinnung<br />
aus.<br />
Naturwissenschaftlicher Wahrheitsbegriff<br />
Zukünftiges ist deshalb angesprochen, weil<br />
auch in der <strong>Psychologie</strong> die sachliche<br />
Richtigkeit einer theoretischen Behauptung<br />
allein durch die korrekte Vorhersage von<br />
zukünftigen Beobachtungen belegt ist.<br />
Fehlende Determiniertheit<br />
Der Ausgang eines Experiments kann stets<br />
nur als eine Palette von Möglichkeiten<br />
angegeben werden. Der Wetterbericht<br />
prognostiziert Regen oder Sonnenschein,<br />
der Volkswirtschaftler ein Steigen oder<br />
Fallen bestimmter Aktienkurse, der Biologe<br />
ein mehr oder weniger starkes Wachstum<br />
eines Organismus, der Kernphysiker<br />
eine vielleicht stattfindende Spaltung usw.<br />
Zufall<br />
Das Fehlen einer Vorhersagbarkeit im einzelnen<br />
nennt man Zufall. Ihr Vorherrschen<br />
verhindert nicht grundsätzlich die Vorhersagbarkeit<br />
von Ereignissen und damit den<br />
Einsatz des naturwissenschaftlichen Wahrheitskriteriums.<br />
Unter bestimmten Umständen<br />
wird Zufälliges durch den Einsatz<br />
Prof. Dr. J. Drösler Seite 1 15.02.2011
des Wahrscheinlichkeitsbegriffs kalkulierbar.<br />
Daten als wiederholbare Erfahrungsbindung<br />
Wiederholbare Verhaltensbeobachtungen<br />
werden bei Verwendung von standardisierten<br />
Aufgaben erreicht. Dabei zeigt sich<br />
immer, daß ein erheblicher Teil der Personen<br />
die Aufgaben nicht, wie erwartet löst,<br />
andere Personen aber, von denen man es<br />
nicht erwartet hat, gelegentlich als schwierig<br />
geltende Aufgaben lösen. Menschliches<br />
Verhalten ist zufällig. Das bedeutet auch in<br />
diesem Zusammenhang weiter nichts, als<br />
„im einzelnen nicht vorhersagbar“. Umso<br />
gewichtiger ist die Konvention, nicht beliebige<br />
Resultate von Verhaltensbeobachtungen<br />
als wissenschaftliche Daten gelten<br />
zu lassen, sondern nur solche, die sich bei<br />
Wiederholung des Experiments wenigstens<br />
mit einer statistischen Tendenz reproduzieren<br />
lassen.<br />
Gewissheit<br />
Die <strong>Psychologie</strong> erfüllt das Vorhersagbarkeitskriterium<br />
der Wissenschaftlichkeit,<br />
indem sie den Bezug auf das Zufällige qualifiziert.<br />
Das geschieht durch Skalierung<br />
der Gewissheit mittels des Wahrscheinlichkeitsbegriffs.<br />
Skalierung der Gewissheit nach Kolmogorov<br />
(1933).<br />
Ausgangspunkt ist die Betrachtung einer<br />
Menge von Ergebnissen. Damit sind die<br />
Möglichen Ausgänge eines Zufallsexperiment<br />
bezeichnet. Zum Beispiel<br />
{richtig, falsch}, {konservativ, liberal, progressiv},<br />
{Sonderschulbildung,<br />
Volksschulabschluß, qualifizierter<br />
Volksschulabschluß, Realschulabschluß,<br />
Abitur, Hochschulabschluß}, { t | t =<br />
Reaktionszeit }, { k | k = Blutalkoholkonzentration<br />
}.<br />
Ergebnisse und Ereignisse<br />
Die ersten Beispiele betreffen endliche<br />
Ereignismengen, die beiden letzten unendliche<br />
(kontinuierliche). Sei Ω eine Menge<br />
von Ergebnissen. Alle logischen Kombinationen<br />
der Elemente von Ω sollen bezeichenbar<br />
sein. Dazu muß man wissen, wie<br />
man logische Kombinationen („und“ ,<br />
„oder“) bzw. Operationen („nicht“) auf<br />
Mengen anwendet.<br />
Mengenlehre und Logik<br />
Das geschieht wegen der gegebenen eins<br />
zu eins Entsprechung von (Aussagen-)<br />
Logik zur Mengenlehre mittels mengentheoretischer<br />
Operationen (, , ). Die<br />
Menge Ω bildet mit diesen Operationen<br />
eine Algebra von Teilmengen von Ω ,<br />
weil sie bezüglich dem Mengendurchschnitt<br />
und der Mengenvereinigung <br />
abgeschlossen ist.<br />
Sobald alle logischen Kombinationen <br />
der<br />
Erge Ω<br />
gebnismenge<br />
als Ereignismenge verfügbar<br />
sind, lässt sich darauf ein Maß der Gewissheit<br />
definieren. Es hat die Eigenschaften,<br />
die wir beispielsweise von einem Maß<br />
für Flächen kennen. Wegen dieser Strukturgleichheit<br />
lassen sich die mit Mengen<br />
verknüpften Wahrscheinlichkeiten einem<br />
Venn Diagramm als Flächen repräsentieren.<br />
Ω<br />
A<br />
A AB B<br />
B<br />
Ω<br />
Prof. Dr. J. Drösler Seite 2 15.02.2011
(Ω) = 1,<br />
(A B) = (A) + (B) gdw. A B = .<br />
Für disjunkte Ereignisse A, B bedeutet eine<br />
Vereinigung (logisch „oder“), daß sich die<br />
Wahrscheinlichkeit des Auftretens von A<br />
oder B als Summe der Einzelwahrscheinlichkeiten<br />
errechnen läßt.<br />
Das Gewißheitsmaß ist für disjunkte<br />
Ereignisse additiv.<br />
Disjunktheit darf nicht mit Unabhängigkeit<br />
von Ereignissen verwechselt werden. Zu<br />
deren Definition ist zunächst die bedingte<br />
Wahrscheinlichkeit einzuführen. Die<br />
Wahrscheinlichkeit von a unter der Bedingung<br />
B ist definiert als<br />
(A | B ) = ( A B ) / ( B).<br />
Untersucht wird, ob ein Ergebnis B mit<br />
irgend einer infragekommenden Bedeutung<br />
A in Zusammenhang steht. Da von zufälligen<br />
Ereignissen die Rede ist, wird nach<br />
einem Zusammenhang in Wahrscheinlichkeit<br />
gesucht.<br />
Unabhängigkeit zweier Ereignisse A und B<br />
liegt vor, wenn gilt P(A | B) = P(A). Flächenmäßig<br />
ausgedrückt liegt dieser Fall<br />
vor, wenn die Fläche von A B im Verhältnis<br />
zu der von B gleich dem Flächenverhältnis<br />
von A zu Ω ist. Abhängigkeit<br />
ist gegeben, wenn statt dessen die Ungleichheit<br />
gilt.<br />
P(A | B) ≠ P(A).<br />
Empirische Überprüfung<br />
Zur Prüfung der Abhängigkeit eines Ergebnisses<br />
und dessen mutmaßlicher<br />
Bedeutung ist eine empirische Untersuchung<br />
erforderlich. Beispiel: Bedeutet die<br />
Lösung einer Denkaufgabe, daß die Person<br />
das Klassenziel des Schuljahres erreichen<br />
wird? Wir beobachten 104 Versuchspersonen<br />
in einem Experiment:<br />
erreicht<br />
reeicht<br />
Summrei<br />
erreicht<br />
nicht<br />
er-<br />
Der kritische Wert für die Prüfgröße ist –<br />
bei einer Irrtumswahrscheinlichkeit von<br />
0,05 – laut Tabelle von ² 3,841. Im vorliegenden<br />
Beispiel wird dieser Wert der<br />
Prüfgröße nicht erreicht. Die statistische<br />
Entscheidung lautet „insignifikante Unter-<br />
cht<br />
nicht<br />
gelöst“<br />
17<br />
(22)<br />
37<br />
(32)<br />
54<br />
Summe<br />
gelöstllöst“ö<br />
st“<br />
25<br />
(20)<br />
25<br />
(30)<br />
Die empirisch zu beantwortende Frage<br />
läuft auf eine Untersuchung hinaus, ob die<br />
bedingte Wahrscheinlichkeit des Ereignisses<br />
„Klassenziel erreicht, gegeben Test<br />
bestanden“ sich von der unbedingten<br />
Wahrscheinlichkeit des Ereignisses „Klassenziel<br />
erreicht“ unterscheidet. Die Wahrscheinlichkeiten<br />
werden durch relative<br />
Häufigkeiten geschätzt. Als statistische<br />
Nullhypothese wird die Gleichheit der beingten<br />
und unbedingten Wahrscheinlichkeiten<br />
angesetzt und in erwarteten relativen<br />
Häufigkeiten ausgewiesen. Das sind die<br />
Zahlen in Klammern. Eine statistische<br />
Prüfgröße für derartige Fälle wurde von<br />
Pearson (1922) als ² bereitgestellt.<br />
Sie berechnet sich als Summe der auf die<br />
erwarteten Häufigkeiten normierten quadrierten<br />
Abweichungen der beobachteten<br />
Häufigkeiten:<br />
2<br />
( fb fe )<br />
i i<br />
i<br />
, i 1..4.<br />
fe<br />
Die Anzahl der Freiheitsgrade ist 1.<br />
Die unter der Nullhypothese erwarteten<br />
Häufigkeiten müssen ihren entsprechenden<br />
Randsummen proportional und der Gesamtsumme<br />
umgekehrt proportional sein.<br />
Ebenso werden sie berechnet: Das Produkt<br />
der einer Zelle der Tabelle entsprechenden<br />
Randsummen wird gebildet und durch die<br />
Gesamtanzahl geteilt.<br />
i<br />
50<br />
2<br />
42<br />
62<br />
104<br />
Prof. Dr. J. Drösler Seite 3 15.02.2011
schiede zwischen beobachteten und unter<br />
der Nullhypothese erwarteten Häufigkeiten“.<br />
Die Nullhypothese wird beibehalten.<br />
Falsche Entscheidungen<br />
Man vermeidet die Blamage, fälschlich<br />
einen (neuen) Effekt für die Wissenschaft<br />
zu behaupten, wenn man die entsprechende<br />
Irrtumswahrscheinlichkeit „der ersten Art“<br />
möglichst klein ( 0,01 oder 0,05) ansetzt.<br />
Einen bestehenden Effekt zu übersehen gilt<br />
als weniger ehrenrührig. Die entsprechende<br />
Irrtumswahrscheinlichkeit „der zweiten<br />
Art“ wird höher angesetzt (> 0.2).<br />
Ausweitung der Erfahrungsgrundlage.<br />
Die Binomialverteilung<br />
Die Eigenschaften der Binomialverteilung<br />
erkennt man am leichtesten durch Betrachtung<br />
ihres Graphen.<br />
Erwartungswert: X = n p,<br />
Varianz var(X) = n p (1-p)<br />
Theoretische Bedeutung<br />
Die Binomialverteilung zeigt, daß extrem<br />
Schiefe Verteilungen entstehen können,<br />
auch wenn die Ereignisse – im Beispiel<br />
Unfälle – als voneinander unabhängig vorausgesetzt<br />
werden. Kennzeichnet diese<br />
Verteilung eine brauchbare Modellvorstellung<br />
für das psychologische Geschehen?<br />
Wir beobachten Personen über einen längeren<br />
Zeitraum, und treffen auf individuelle<br />
Unfallhäufigkeiten, die nicht mehr durch<br />
eine binäre Zufallsgröße mit Zweipunktverteilung<br />
zu beschreiben sind. Das Beobachtungszeitraum<br />
sei in zehn Perioden<br />
aufgeteilt und man kann in jeder von diesen<br />
unfallfrei oder unfallbehaftet sein. So<br />
haben wir eine Zufallsgröße vor uns, die<br />
die Werte 0 bis 10 annehmen kann.<br />
Die Verteilung der individuellen Häufigkeiten<br />
Unter der Annahme, daß die Ereignisse in<br />
den einzelnen Perioden mit gleicher Wahrscheinlichkeit<br />
aber statistisch unabhängig<br />
voneinander Auftreten, ergibt sich folgende<br />
Zufallgröße:<br />
10<br />
x<br />
10<br />
x<br />
P ( X x) p (1 p ) , x 0...10.<br />
x <br />
10<br />
10!<br />
m it = und x! = x(x-1)(x-2)...1.<br />
x x! (10-x)!<br />
Die Poisson-Verteilung<br />
Setzt man in der Binomialverteilung den<br />
Erwartungswert p = λ / n und läßt n so gegen<br />
Unendlich streben, daß sich p nicht<br />
ändert, dann wird die Binomialverteilung<br />
zur Poissonverteilung:<br />
Erwatungswert: (X) = λ, Varianz: var(X)<br />
= λ<br />
Kennwerte von Zufallsgrößen<br />
Eine spezielle Verteilung läßt sich durch<br />
ihre Momente beschreiben. Man unterscheidet<br />
rohe und zentrale Momente. Das<br />
erst zentrale Moment der Zufallgröße X ist<br />
der Erwartungswert (X )= Σ xi Pi .<br />
Das zweite zentrale Moment ist die Varianz<br />
s²( X ) = X² - ( X)². Für die Zweipunktverteilung<br />
ergeben sich (X )= 1*P(X =1)<br />
+0* P(X = 0) = P(X=1) bzw. s²( X ) = 1² *<br />
P(X=1) + 0² * P(X=0) – P(X=1)^2<br />
=P(X=1)*(1- P(X=1)).<br />
Prof. Dr. J. Drösler Seite 4 15.02.2011
Empirische Prüfung<br />
Drei Schritte sind erforderlich<br />
1. Schätzung der Parameter auf Grund<br />
von Stichprobenmittelwert und<br />
Stichprobenstreuung.<br />
2. Aufzeichnen der nun errechenbaren<br />
theoretischen Häufigkeiten gegen<br />
die vorgefundenen empirischen<br />
Häufigkeiten.<br />
3. Zufallskritische Entscheidung mittels<br />
Pearsons Anpassungstest.<br />
4.<br />
Die Alternativhypothese<br />
Fällt de Pearsonsche Anpassungstest einer<br />
Poissonverteilung an die empirische Verteilung<br />
der individuellen Unfallhäufigkeiten<br />
zur Ablehnung der Nullhypothese, so<br />
wird eine Alternativhypothese formuliert.<br />
Diese behauptet echte Unterschiede zwischen<br />
den Personen hinsichtlich deren persönlicher<br />
Gefährdung λ.<br />
Im folgenden treten einige kompliziert<br />
aussehende Ausdrücke und deren Umformungen<br />
auf. Auch der weniger versierte<br />
Leser kann diese heutzutage mittels Expertensystemen<br />
wie Maple oder Mathematica<br />
leicht nachvollziehen, sofern er sich auch<br />
nur vage an das übliche Grundwissen zum<br />
Abitur in Mathematik erinnert. Ein Maple-<br />
Worksheet zum gegenwärtigen Stoff ist<br />
diesem Skriptum in der Virtuellen Universität<br />
<strong>Regensburg</strong> beigegeben.<br />
Die Gammaverteilungsdichte<br />
Eine nur zweiparametrige aber sehr flexibel<br />
zu handhabende Verteilungsdichte ist<br />
gegeben durch<br />
<br />
( 1)<br />
a exp( a)<br />
f ( ) <br />
für 0<br />
( )<br />
<br />
( 1)<br />
m it ( )= x exp( x)<br />
dx<br />
Bedingte Verteilungsdichten<br />
0<br />
<br />
Die gesuchten individuellen Ausprägungen<br />
der Gefährdung werden mittels bedingter<br />
Wahrscheinlichkeiten ermittelt. Sei k die<br />
individuelle Unfallhäufigkeit im Berichtszeitraum.<br />
Gegeben ist P (k | λ), gesucht ist<br />
P( λ | k). Die Verbindung der beiden ist<br />
durch die Definition der bedingten Wahrscheinlichkeit<br />
gegeben.<br />
P(k | λ) = P( k, λ) / P( λ).<br />
Die gemeinsame Verteilung<br />
Die gemeinsame Verteilung P(k, λ) ergibt<br />
sich daraus als<br />
P ( X k , h)<br />
<br />
1 1<br />
P ( X k | h) * P ( h)<br />
1 1 1 1<br />
weil Wahrscheinlichkeiten für das kontinuierliche<br />
λ als Flächen unter der Dichtefunktion<br />
ermittelt werden.<br />
Ein Grenzübergang<br />
Die gemeinsame Verteilung von k und λ<br />
erhält man durch Einsetzen und anschließenden<br />
Grenzübergang als<br />
1<br />
lim P ( X k , h)<br />
<br />
1 1<br />
h 0<br />
h<br />
k<br />
1<br />
<br />
a ( 1)<br />
a<br />
1 1 1<br />
<br />
exp( ) exp( )<br />
k ! ( )<br />
Die neue Verteilung der individuellen<br />
Unfallhäufigkeiten<br />
Sie ist als Randverteilung der gemeinsamen<br />
Verteilung durch Integration über λ<br />
gegeben:<br />
<br />
a 1 ( k <br />
)<br />
P ( X k ) <br />
( ) k! ( a 1) k<br />
( <br />
)<br />
Es ist die Wahrscheinlichkeitsfunktion der<br />
in der Wahrscheinlichkeitstheorie bekannten<br />
Negativen Binomialverteilung.<br />
Prof. Dr. J. Drösler Seite 5 15.02.2011
Die bedingte persönliche Gefährdung<br />
Die Negative Binomialverteilung dient als<br />
neue Nullhypothese. Kann sie nach Pearsonschen<br />
Anpassungstest beibehalten werden,<br />
so läßt sich die bedingte Dichte der λ,<br />
gegeben k diskutieren. Die verschiedenen<br />
Kurven zeigen die Gammaverteilten persönlichen<br />
Gefährdungen für Personen, die<br />
im Berichtszeitraum keinen, einen, zwei<br />
usw. Unfälle auf sich zogen.<br />
1<br />
exp a exp( a<br />
)<br />
f ( k, ) <br />
k ! ( )<br />
<br />
a<br />
1<br />
<br />
C ov( k , ) <br />
<br />
exp( ) exp( a ) d <br />
( ) k !<br />
E ( k ) E ( )<br />
k<br />
<br />
<br />
0<br />
Wenn man die zur gemeinsamen Verteilung<br />
von k und gehörige Kovarianz ausrechnet<br />
(oder durch ein Expertensystem<br />
wie Maple ausrechnen läßt) und sie durch<br />
die bereits oben ermittelten Standardabweichungen<br />
der Verteilungen von k bzw.<br />
von dividiert, so erhält an den Korrelationskoeffizienten<br />
zwischen den beiden Zufallsgrößen:<br />
1<br />
<br />
k <br />
1 a<br />
0<br />
k<br />
Der Parameter a der Negativen Binomialverteilung<br />
war vorher unter realistischen<br />
Verhältnissen mit a=3/4 bestimmt worden.<br />
Eingesetzt ergibt sich ein Korrelationskoeffizient<br />
von 0.75. Das bedeutete einen<br />
deutlichen Informationsgewinn. Aus einer<br />
gegebenen individuellen Unfallhäufigkeit k<br />
läßt sich mittels linearer Regression die<br />
erwartete persönliche Gefährdung recht<br />
präzise bestimmen.<br />
Die Bedeutung für den Einzelnen<br />
Lassen sich unter diesen Umständen die<br />
individuellen Unfallhäufigkeiten psychologisch<br />
"auswerten"? Diese Frage ist zunächst<br />
zu operationalisieren: Was weiß<br />
man mehr über die persönliche Gefährdung<br />
einer Person, wenn man ihre individuelle<br />
Unfallhäufigkeit kennt?<br />
Die gemeinsame Verteilung<br />
Berechnung der Korrelation von k und<br />
<br />
Bedeutung für den Einzelnen<br />
Lassen sich unter derartigen Umständen die individuellen<br />
Unfallhäufigkeiten psychologisch „auswerten“?<br />
Besitzen sie eine diagnostische Bedeutung?<br />
Diese Frage ist zunächst zu operationalisieren: Was<br />
weiß man mehr über eine Person, wenn man deren<br />
individuelle Unfallhäufigkeit kennt?<br />
Die gemeinsame Verteilung<br />
Berechnung der Korrelation von k und λ<br />
k<br />
1<br />
exp a exp( a<br />
)<br />
f ( k, ) <br />
k ! ( )<br />
<br />
a<br />
1<br />
<br />
C ov( k , ) <br />
<br />
exp( ) exp( a ) d <br />
( ) k !<br />
E ( k ) E ( )<br />
<br />
<br />
0<br />
0<br />
k<br />
Prof. Dr. J. Drösler Seite 6 15.02.2011
Unfallhäufigkeiten k und persönliche Gefährdung<br />
lambda<br />
„Reproduktivität“ der Poisson-Verteilung: Summen<br />
von Poissonverteilten Zufallsgrößen sind ebenfalls<br />
poissonverteilt.<br />
Unfälle und Testaufgaben<br />
In der Sicherheitsforschung sind individuelle Unfallhäufigkeiten<br />
gleichzeitig das Kriterium und das<br />
Diagnostikum. Die Frage nach der Bedeutung der<br />
Befunde stellt sich nicht in der Weise, wie etwa bei<br />
der Verwendung von Testaufgaben zur Prognose<br />
der Schulreife. Wie wird die Brauchbarkeit einer<br />
Testaufgabe für eine bestimmte Prognose bestimmt?<br />
Beispiel: Intelligenztest<br />
Korrelationen<br />
Entsprechend der Definition des Korrelationskoeffizienten<br />
läßt sich die Formel für die Korrelation<br />
zwischen der individuellen Unfallhäufigkeit k<br />
und dem Gefährdungs-parameter λ bestimmen: ρkλ<br />
= (1+a)^(-1/2). Für a= ¾ ergibt sich ein Koeffizient<br />
von 0,75. Das Quadrat aus diesem Koeffizienten,<br />
0.57, kennzeichnet die Korrelation der individuellen<br />
Unfallhäufigkeiten in verschiedenen Beobachtungszeiträumen,<br />
ρkk´ .<br />
Informationsgewinn<br />
Am Anfang einer Untersuchung kennt man allein<br />
die Streuung der Befunde zwischen den Personen,<br />
also hier der Unfallhäufigkeiten. Mit Hilfe der Korrelationskoeffizienten<br />
kann man die verbleibende<br />
Ungewißheit bestimmen. Sie ist definiert als das<br />
Verhältnis der bedingten Varianz zur unbedingten<br />
Varianz. Dieses Verhältnis ist gegeben durch 1<br />
minus dem Quadrat des Reliabilitätskoeffizienten,<br />
hier also durch 0,43.<br />
Unsicherheitsreduktion<br />
Man spricht von einer Unsicherheitsreduktion , hier<br />
von 43 %.Allgemein kann man sich merken<br />
ρ² xλ = s²λ/s²x =ρx1x2<br />
Die Unsicherheitsreduktion ist<br />
<br />
Additive Fehlerkomposition<br />
x<br />
1 <br />
Traditionell bevorzugt die psychologische Diagnostik<br />
additive Fehlermodelle: X = T + E. Die negative<br />
Binomialverteilung als Mischung von individuell<br />
verschiedenen Poisson-Verteilungen läßt sich auch<br />
als additives Modell auffassen. Das liegt an der<br />
2<br />
xx<br />
Thurstone & Thurstone (1941) haben die Bedeutung<br />
von bestimmten Testaufgaben dadurch zu<br />
bestimmen versucht, daß sie 63 Aufgabenarten, die<br />
von anderen zur Intelligenzdiagnose verwendet<br />
worden sind, mit statistischen Mitteln in Äquivalenzklassen<br />
zerlegt haben. Sie erhielten ca. 10 Klassen,<br />
die sie „Faktoren“ nannten.<br />
Beispiele<br />
1 Buchstabenkombinationen herstellen:<br />
Zwei gleiche (aus A;B;C) erzeugen diesen Buchstaben.<br />
Verschiedene zwei erzeugen den dritten<br />
Buchstaben.<br />
2. Absurditäten erkennen: „Frau Schmidt hatte<br />
keine Kinder, ebenso wie Ihre Mutter.“<br />
3. Arithmetik (Textaufgaben mit ein- und zweistelligen<br />
Geldbeträgen)<br />
4. Anagramme. Konstruiere Worte aus Buchstaben<br />
eines vorgegebenen Wortes.<br />
6. Addition: (von drei zweistelligen Zahlen).<br />
7.Assoziationen: Schreibe alle Worte, die „Trinkbares“<br />
bezeichnen.<br />
8.Spiegelschrift lesen (einzelne Worte).<br />
9 Drehungen und Drehung mit Klappung unterscheiden.<br />
10. Satzergänzung<br />
11. (vierstellige) Zahlen wiedergeben<br />
12. Anweisungen befolgen: „wenn eine Katze ein<br />
Tier ist, schreibe eine 4“.<br />
13. Worte zu einem Satz ordnen (drank milk she)<br />
14. Punktmuster auszählen.<br />
15.- 16. Abweichend Muster markieren<br />
17. Figuren sortieren<br />
18. Figuren benennen<br />
19. Möglicht viele Worte mit einem vorgegebenen<br />
Anfangsbuchstaben aufschreiben.<br />
20. Personennamen lernen<br />
21. Geometrische Formen<br />
22. Zahlen ordnen<br />
23. Gleiche Zahlen markieren<br />
24. Gleiche Figuren markieren.<br />
25. Buchstabenlücken in Worten füllen.<br />
26. Abweichende Buchstabenkombinationen markieren<br />
Prof. Dr. J. Drösler Seite 7 15.02.2011
Thurstones Faktoren der Intelligenz<br />
Numerisches Denken N<br />
Wortflüssigkeit W<br />
Räumliche Vorstellung S<br />
Sprachverständnis V<br />
Gedächtnis<br />
M<br />
Induktives Denken I<br />
Perzeptive Auffassung P<br />
Unklare Interpretierbarkeit<br />
für drei weitere gemeinsame<br />
Faktoren X1,X2,X3<br />
Störabstand<br />
In Wissenschaft und Technik wird der Störabstand<br />
(von Signal T zum „Rauschen“ E) definiert als<br />
10 log( var(T) / var (E) ).<br />
Er wird mittels des dimensionslosen Maßes<br />
Dezibel [ dB ] angegeben.<br />
Beispiele<br />
Schallplatte: 100 dB<br />
CD: 120 dB<br />
Gesichtssinn: 120 dB<br />
Lenkradspiel im Kfz:<br />
Zwei Fingerbreiten Spiel auf 60 Fingerbreiten<br />
Gesamtausschlag entspricht 10 log( (2/60)^2)<br />
= 68 dB<br />
Anwendung auf Testergebnisse<br />
Ein Test wird a) einschlägige, b) gleichartige Aufgaben<br />
enthalten. Die Einschlägigkeit prüft man<br />
durch Korrelation des Tests mit dem Kriterium, die<br />
Gleichartigkeit durch Untersuchung von Erwartungswert,<br />
Streuung und Korrelation der Aufgaben<br />
untereinander bzw. mit dem Gesamttest.Aufgabenparameter:<br />
E(X) = piDer Aufgabenerwartungswert<br />
ist zu bestimmen als Erwartungswert<br />
E(X) einer Zufallsgröße X, die nur die Werte<br />
Eins („gelöst“) und Null („nicht gelöst“) annimmt:<br />
E(X) = 1 p(X=1) + 0 P(X=0).<br />
Heraus kommt die Lösungswahrscheinlichkeit pi<br />
der Aufgabe i.Aufgabenvarianz: Var(X) = p (1-<br />
p)Die Varianz einer Zufallgröße X ist definiert als<br />
Var(X) = ΣX²p(X) – [E(X)]² . Für unsere binäreZufallsgröße<br />
ergibt sich<br />
Var(X) = pi - pi² = pi ( 1- pi).<br />
Besitzen demnach zwei Aufgaben den gleichen<br />
Erwartungswert, so besitzen sie auch die gleiche<br />
Varianz.<br />
Varianz einer Summe von Zufallsgrößen<br />
²(X+Y)= ²(X)+ ² (Y) + 2 ρ (X) (Y)Die<br />
Varianz einer Summe hängt also von der Korrelation<br />
ρ der beiden ab. Für unabhängige Zufallsgrößen<br />
(ρ = 0) ergibt sich also einfach deren Summe. Ist ρ<br />
=1, wie bei den True-Werten paralleler Tests, dann<br />
ergibt sich ein Anwachsen im Quadrat der Anzahl<br />
der Summanden, da ja alle paarweisen ρ zu berücksichtigen<br />
sind.<br />
Störabstand und Testlänge<br />
Für eine Testverlängerung läßt sich zeigen, daß die<br />
Fehlervarianz sigma(E)^2proportional zum Verlängerungsfaktor<br />
n wächst, die True-Varianz sigma(T)^2<br />
aber quadratisch, also mit n^2. Deshalb<br />
wirkt sich Testverlängerung auf den Störabstand<br />
(wegen der Logarithmierung) als Addition eines<br />
konstanten Zuwachses aus:<br />
Zehnfache Testlänge<br />
In der klassischen Testtheorie wird vorausgesetzt,<br />
daß der beobachtete Rohwert X sich als Summe des<br />
„wahren“ Werts T und des Testfehlers E zusammensetzt<br />
und daß T und E stochastisch unabhängig<br />
sind. Außerdem ist die Reliabilität rho als Verhältnis<br />
der wahren Varianz zur Gesamtvarianz definiert.<br />
Daraus läßt sich der Störabstand als 10 log<br />
rho/(1-rho) bestimmen.<br />
Störabstand abhängig von der Reliabilität<br />
Testkonstruktion<br />
Prof. Dr. J. Drösler Seite 8 15.02.2011
Reliabilität und Testlänge<br />
Weil das Verhältnis ²(T)/²(E) = ρ/(1-ρ) mit der<br />
Testlänge n Proportional wächst, steigt die<br />
Ausgangsreliabilität Reliabilität ρ (X,X‘) mit der<br />
Testlänge wie<br />
ρ(X,X‘)<br />
ρ(n X, n X‘) = -------------------<br />
1+(n-1) ρ(X,X‘)<br />
(Spearman-Brown-Formel).<br />
Die Spearman-Brown Formel<br />
Es gilt ρ11/(1-ρ11)=²(T)/ ²(E). Das Verhältnis<br />
Von True- zu Fehlervarianz verändert sich durch n-<br />
fache Testverlängerung mittels paralleler Testaufgaben<br />
zu ρnn/(1-ρnn) = n² ²(T)/ n ²(E)= n<br />
²(T)/²(E) weil die E untereinander unabhängig<br />
und die T identisch sind. Durch Auflösen nach ρnn<br />
und Einsetzen von ρ11 ergibt sich die S-B-Formel.<br />
Reliabilität und Testlänge graphisch<br />
Validität und Testlänge<br />
Aufgaben-Test-Korrelation<br />
Aufgaben sind äquivalent („parallel“), wenn siegleiche<br />
Erwartungswerte, Varianzen sowie<br />
Aufgaben-Test-Korrelationen besitzen. Der Korrelationskoeffizient<br />
ist definiert als<br />
ρxy = cov(X,Y)/(sx sy)<br />
Mit cov(X,Y)= E(XY) - E(X)E(Y) .Eingesetzt ergibt<br />
sich der punkt-biseriale Korrelationskoeffizient<br />
ρxy = [E(Y | X=1) – E(Y | X = 0)(pi(1- pi)] /sy<br />
Aufgabenauswahl<br />
Der Einfluß der Testlänge auf die Reliabilität<br />
Wirkt sich auch auf die Validität des Test aus:<br />
n ρ²(X,Y)<br />
Ρ(nX,Y)=(----------------------------)^(1/2)<br />
1+(n-1)ρ(X,X‘)<br />
Validität und Testlänge n graphisch für verschiedene<br />
Reliabilitäten<br />
Diagnostik in anderen Bereichen<br />
Eine große Gruppe von Verfügbaren Tests bezieht<br />
sich auf Verhaltensattribute wie „Geschicklichkeit“<br />
oder „Aufmerksamkeit“. Diese Tests zeichnen sich<br />
zwar durch hohe Reliabilitäten aus, sind aber meist<br />
schwer zu interpretieren, weil es die Geschicklichkeit<br />
oder die Aufmerksamkeit nicht gibt, sondern<br />
sehr viele verschiedene.<br />
Prof. Dr. J. Drösler Seite 9 15.02.2011
„Persönlichkeitstests“<br />
Fragebogen mit Fragen, die sich auf individuelle-<br />
Vorlieben, Gewohnheiten. Manchmal sogar auf das<br />
Intimleben beziehen, werden von ihren Autoren<br />
gern Persönlichkeitstests genannt. Diese Fragebogen<br />
leiden darunter, daß die damit erzielten Äußerungen<br />
besonders anfällig gegen Simulation und<br />
Dissimulation seitend ser Befragten sind, und daß<br />
sie sich kaum validieren lasssen. Ihre Reliabilität ist<br />
meist gering.<br />
Fisz, M.,Wahrscheinlichkeitsrechnung und mathematische<br />
Statistik. Berlin, Dt. Verl. D. wiss., 1958<br />
Gulliksen, H.,Theory of mental Tests, New York,<br />
Wiley, 1950.<br />
Lundberg, O.,On random processes and their application<br />
to sickness and accident statistics. Almquist<br />
& Wiksells, Uppsala 1940.<br />
Renyi, A. Wahrscheinlichkeitsrechnung, Berlin, Dt.<br />
Verl. d. Wiss., 1962<br />
„Projektive“ Tests<br />
Die Schwierigkeiten bei der Entwicklung objektivierter<br />
diagnostischer Verfahren haben immer wieder<br />
Autoren veranlaßt, sogenannte „freie“ Außerungen<br />
der Personen zu bestimmten Materialien,<br />
z.B. Tintenklexe oder Bildern von Personengruppen<br />
zu protokollieren und „auszuwerten“. Dieser Verzicht<br />
auf die Definition einer Grundmenge Ω eines<br />
Wahrscheinlichkeitsraumes der Antworten hat<br />
fatale Folgen für die Diagnostik.<br />
Stevens, S. S. Psychology and the Science of Science.<br />
Psychological Bulletin, 1939, 36, 221 – 263.<br />
Nachgedruckt in Marx, M. Theories in contemporary<br />
Psychology. New York, 1968..<br />
Stevens, S. S. Psychology and the Science of<br />
Science. Psychological Bulletin, 1939, 36, 221<br />
– 263. Nachgedruckt in Marx, M. Theories in<br />
contemporary Psychology. New York, 1968..<br />
Motivations-Tests<br />
Szenische Darstellungen sollen bei den Versuchspersonen<br />
Äußerungen provozieren, die sich als<br />
deren Motiviertheit interpretieren lassen.<br />
Diese Erwartung ist äußerst gewagt, wie Untersuchungen<br />
von McClelland und Atkinson zeigen:<br />
Überwindet man die geringe Reproduzierbarkeit der<br />
Antworten durch Zusammenfassung vieler Versuchspersonen,<br />
dann spiegeln die Antworten die<br />
motivationalen Autostereotype des jeweiligen Landes<br />
wider.<br />
(Wird fortgesetzt.)<br />
Literatur<br />
Arbous, A. G. & Kerrich, J.E. Accident Statistics<br />
and the concept of Accident Proneness. Biometrics,7,<br />
340 – 432, 1951<br />
Bosch, K. (1976). Elementare Einführung in<br />
die Wahrscheinlichkeitsrechnung. Reinbeck:<br />
Rowohlt.<br />
Bosch, K. (1982). Elementare Einführung in<br />
die angewandte Statistik. Braunschweig:<br />
Vieweg.<br />
Drösler, J., Zur Methodik der Verkehrspsychologie,<br />
245 – 290 in: Hoyos, C.,: <strong>Psychologie</strong> des<br />
Straßenverkehrs, Bern, Huber,1965<br />
Prof. Dr. J. Drösler Seite 10 15.02.2011