Wahrscheinlichkeit
Wahrscheinlichkeit
Wahrscheinlichkeit
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Statistiktutorat : Termin 5<br />
<strong>Wahrscheinlichkeit</strong>stheorie<br />
S.Tomczyk@gmx.net
Lösung des Arbeitsblattes Nr. 3
Arbeitsblatt 3
Arbeitsblatt 3
Arbeitsblatt 3
Arbeitsblatt 3
Arbeitsblatt 3
Arbeitsblatt 3
...zurück zum Thema<br />
<strong>Wahrscheinlichkeit</strong>stheorie
Der große Rahmen<br />
Stochastik<br />
Statistik<br />
deskriptiv<br />
inferentiell<br />
<strong>Wahrscheinlichkeit</strong>srechnung<br />
Tutorat Statistik I<br />
22.11.10
Gliederung<br />
I. Grundlagen<br />
-<br />
Zufallsexperimente<br />
-<br />
Ereignisräume<br />
I. Verknüpfung von Ereignissen<br />
-<br />
Bedingte <strong>Wahrscheinlichkeit</strong> (WS)<br />
-<br />
Additionssatz<br />
-<br />
Multiplikationssatz<br />
I. Verteilungsfunktionen
Grundlagen
Das Zufallsexperiment<br />
beliebig oft wiederholbar (z.B. Befragung)<br />
kann zu verschiedenen Ergebnissen (A, B, C<br />
usw.) führen, die jeweils mit einer bestimmten<br />
<strong>Wahrscheinlichkeit</strong> p<br />
(= probability) eintreten<br />
Das Ergebnis eines Durchgangs wird als<br />
Elementarereignis ω bezeichnet<br />
p(A) = ω
Der Ereignisraum Ω<br />
Die WS für die<br />
Ergebnisse von<br />
Zufallsexperimenten<br />
(Ereignisse) liegt<br />
zwischen 0 (unmöglich)<br />
und 1 (sicher).
Logisches UND sowie ODER<br />
Das logische ODER<br />
beschreibt die WS für das<br />
Auftreten von<br />
mindestenens einem<br />
Ereignis aus einer Menge<br />
von zwei Ereignissen.<br />
Grafisch: Einzelmengen +<br />
Schnittmenge<br />
Das logische UND<br />
beschreibt die WS für das<br />
gleichzeitige Auftreten<br />
zweier Ereignisse<br />
Grafisch: Schnittmenge
A priori- oder Laplace-<br />
<strong>Wahrscheinlichkeit</strong>(WS)<br />
Wenn vor Durchführung eines Zufallsexperiments:<br />
-<br />
Alle möglichen Ereignisse bekannt sind<br />
-<br />
und jedes Ereignis mit der gleichen WS auftritt<br />
dann kann die WS für das Auftreten eines Ereignisses<br />
(A) im Vorhinein („a priori“) mittels der Formel von<br />
Laplace geschätzt werden.<br />
p ( A)<br />
=<br />
Relativer Anteil<br />
der „günstigen Fälle“ an allen<br />
möglichen Ereignissen.<br />
N<br />
n<br />
A<br />
gesamt
Laplace-<strong>Wahrscheinlichkeit</strong><br />
2<br />
6<br />
4<br />
5<br />
1<br />
3
Beispiel: Laplace-WS<br />
Wie groß ist die WS, aus einem Kartenspiel<br />
mit 32 Karten mit einem Versuch folgende<br />
Karte(n) zu ziehen:<br />
Ein Herzass<br />
1/32<br />
Einen König<br />
4/32 = 1/8<br />
Eine schwarze Karte<br />
16/32 = 1/2<br />
p(<br />
HerzAss)<br />
=<br />
1<br />
32
A posteriori oder Bernoulli-WS<br />
In er psychologischen Forschungspraxis ist a priori<br />
zumeist weder die Anzahl der möglichen Fälle bekannt, noch hat<br />
jeder Fall die gleiche Auftretenswahrscheinlichkeit (→ viele<br />
psychologisch relevante Variablen sind normalverteilt).<br />
Daher schätzt man die Häufigkeit des Auftretens von<br />
Elementarereignis A im Nachhinein („a posteriori)“ nach sehr<br />
vielen Durchgängen eines Zufallsexperiments mittels der Formel<br />
von Bernoulli.<br />
Grenzwert der relativen<br />
Häufigkeit des Eintretens der<br />
„günstigen Fälle“ bei sehr<br />
häufigem Durchführen eines<br />
Zufallsexperimentes.<br />
π<br />
(<br />
A)<br />
=<br />
lim<br />
N →<br />
∞<br />
n<br />
A<br />
N
Bernoulli-WS grafisch<br />
• Bernoulli: „a posteriori“ <strong>Wahrscheinlichkeit</strong>:<br />
– <strong>Wahrscheinlichkeit</strong> für A wird geschätzt über<br />
die relative Häufigkeit für A bei unendlich<br />
vielen Zufallsexperimenten<br />
– Gesetz der Großen Zahl<br />
? ?<br />
A<br />
A<br />
A<br />
A<br />
A (Nicht-A), das<br />
Komplementärereignis zu A
Beispiel: Bernoulli-WS<br />
Geben Sie die <strong>Wahrscheinlichkeit</strong> dafür an, dass ein/e<br />
zufällig angesprochene/r Freiburger Psychologiestudent/in<br />
weiblich ist.<br />
sex Häufigkeit p<br />
w 58 0,74<br />
m 20 0,26<br />
Gesamt 78 1,00
<strong>Wahrscheinlichkeit</strong> für (w)=1<br />
Vp sex π(w)<br />
1 1 1.00<br />
2 2 0.50<br />
3 2 0.33<br />
1.00<br />
0.80<br />
0.60<br />
0.40<br />
0.20<br />
4 1 0.50<br />
5 1 0.60<br />
0.00<br />
1 11 21 31 41 51 61 71<br />
6 2 0.50<br />
7 1 0.57<br />
Je größer N wird, desto genauer wird<br />
unsere Schätzung. Dies bezeichnet<br />
man als Gesetz der großen Zahl.
Gliederung<br />
I. Grundlagen<br />
-<br />
Zufallsexperimente<br />
-<br />
Ereignisräume<br />
I. Verknüpfung von Ereignissen<br />
-<br />
Bedingte <strong>Wahrscheinlichkeit</strong> (WS)<br />
-<br />
Additionssatz<br />
-<br />
Multiplikationssatz<br />
I. Verteilungsfunktionen
Verknüpfung von Ereignissen
Stochastische Unabhängigkeit<br />
Zwei Ereignisse sind stochastisch unabhängig,<br />
wenn die <strong>Wahrscheinlichkeit</strong> für Ereignis A nicht<br />
vom Eintreten oder Nicht-Eintreten von Ereignis<br />
B beeinflusst wird.<br />
Mathematisch ist stochastische Unabhängigkeit<br />
folgendermaßen definiert:<br />
p ( A)<br />
= p(<br />
A | B)<br />
= p(<br />
A | B)<br />
Bedingte<br />
<strong>Wahrscheinlichkeit</strong>
Bedingte <strong>Wahrscheinlichkeit</strong><br />
Die bedingte <strong>Wahrscheinlichkeit</strong> gibt an, wie wahrscheinlich<br />
ein Ereignis ist, wenn ein anderes Ereignis schon<br />
eingetreten ist (►Einschränkung der „Population“)<br />
p(<br />
A | B)<br />
=<br />
p(<br />
A ∩ B)<br />
p(<br />
B)<br />
<strong>Wahrscheinlichkeit</strong> von „A“<br />
unter der Bedingung „B“<br />
<strong>Wahrscheinlichkeit</strong>, dass A<br />
und B gleichzeitig eintreten.<br />
<strong>Wahrscheinlichkeit</strong>, dass B<br />
eintritt.<br />
Die bedingte WS ergibt sich aus dem<br />
Multiplikationstheorem für abhängige Ereignisse.
Hier liegt keine bedingte WS vor: Die Häufigkeit von A ist nicht<br />
abhängig vom Aufreten von B.<br />
A B A<br />
Hier liegt eine bedingte WS vor: Die Häufigkeit von A ist<br />
abhängig vom Aufreten von B.<br />
A B A
Vorsicht! Nicht verwechseln!<br />
Stochastische Unabhängigkeit: Die<br />
Eintretenswahrscheinlichkeit von A wird nicht<br />
durch das Eintreten von B beeinflusst.<br />
Statistische Unabhängigkeit: Zwei Stichproben<br />
hängen nicht zusammen(Bsp. EG und KG).<br />
Statistische Abhängigkeit: Zwei Stichproben<br />
hängen miteinander zusammen(Bsp.<br />
Messwiederholungsdesigns).
Multiplikationstheorem<br />
Mit dem Multiplikationstheorem wird die<br />
<strong>Wahrscheinlichkeit</strong> berechnet, dass die<br />
Ereignisse A und B gleichzeitig eintreten.<br />
Bei unabhängigen Ereignissen werden die<br />
Einzelwahrscheinlichkeiten einfach<br />
multipliziert:
Multiplikationstheorem
Multiplikationstheorem<br />
Bei abhängigen Ereignissen wird folgende<br />
Formel verwendet:<br />
Auflösen nach…<br />
Bedingte WS<br />
p(<br />
A<br />
|<br />
B)<br />
=<br />
p(<br />
A ∩ B)<br />
p(<br />
B)
Beispiel: Bedingte WS<br />
10% der Bevölkerung in Deutschland sind<br />
arm ► p(B).<br />
5% der Bevölkerung ist gleichzeitig arm<br />
und psychisch gestört ► p(A ∩ B).<br />
Wie groß ist die WS für einen Armen<br />
(Bedingung) unter einer psychischen<br />
Störung (Ereignis) zu leiden?<br />
p<br />
( A B)<br />
( A ∩ B)<br />
p( B)<br />
p .05<br />
| =<br />
= =<br />
.1<br />
.50
Vorsicht!<br />
Eine bedingte WS darf nicht mit der<br />
„Gegenbedingung“ verwechselt werden:<br />
p( A | B)<br />
≠ p(<br />
B | A)<br />
Im Beispiel haben wir errechnet, dass 50% der Armen (B;<br />
Bedingung) unter einer psychischen Störung (A; Ereignis)<br />
leidet:<br />
p<br />
( A B)<br />
( A ∩ B)<br />
p( B)<br />
p .05<br />
| =<br />
= =<br />
.1<br />
.50<br />
Die Frage, welcher Prozentsatz der psychisch gestörten<br />
(Bedingung; A) arm (Ereignis, B) ist, haben wir damit<br />
nicht beantwortet. Können wir die Frage überhaupt<br />
klären?<br />
Nein, da wir keine Angabe<br />
über die „Basisrate“<br />
psychischer Störungen haben<br />
- p(A) fehlt uns!<br />
p<br />
( B | A)<br />
=<br />
p<br />
( A ∩ B)<br />
p( A)
Prüfung der Unabhängigkeit<br />
Die Grundrate psychischer Störungen in der<br />
Gesamtbevölkerung beträgt 10%.<br />
Sind die Ereignisse krank (A) und arm (B)<br />
stochastisch unabhängig?<br />
Zwei Ereignisse sind stochastisch unabhängig<br />
wenn gilt:<br />
)<br />
p ( A)<br />
= p(<br />
A | B)<br />
= p(<br />
A | B<br />
p(krank) ≠ p(krank/arm) p(<br />
krank |<br />
p(<br />
krank)<br />
=<br />
10%<br />
arm)<br />
=<br />
50%
Additionstheorem<br />
Mit dem Additionstheorem wird die<br />
<strong>Wahrscheinlichkeit</strong> berechnet, dass entweder<br />
Ereignis A oder Ereignis B eintritt.<br />
Bei „disjunkten“ Ereignissen, die niemals<br />
gleichzeitig auftreten, werden die<br />
Einzelwahrscheinlichkeiten von A und B einfach<br />
addiert:<br />
Bei nicht-disjunkten Ereignissen, wird die WS für A<br />
∩ B von A + B abgezogen:
Additionstheorem grafisch<br />
Disjunktes Ereignis<br />
Nicht-disjunktes<br />
Ereignis
Disjunkt- und Unabhängigkeit<br />
Disjunkte Ereignisse sind praktisch immer abhängig!<br />
(außer bei p(A) = 0 oder p(B) = 0)<br />
Beim WS-Experiment „Wurf eines sechseitigen Würfels“<br />
gilt nach LaPlace:<br />
<br />
p(6) = 1/6; p(ungerade) = 3/6<br />
Die Ereignisse sind disjunkt: p(6 ∩ ung.) = 0
Disjunkt- und Unabhängigkeit<br />
p(6) = 1/6; p(ungerade) = 3/6 → disjunkt<br />
Zwei Ereignisse sind stochastisch unabhängig wenn gilt:<br />
p ( A)<br />
= p(<br />
A | B)<br />
= p(<br />
A | B)<br />
<br />
p(6) ≠ p(6/ungerade)<br />
p(6)<br />
p(6 |<br />
= 1/ 6<br />
ungerade)<br />
=<br />
0
Das Theorem von Bayes<br />
Das Theorem von Bayes erlaubt es, die bedingten<br />
<strong>Wahrscheinlichkeit</strong>en p(A|B) und p(B|A) in Beziehung zu<br />
setzen:<br />
p(<br />
A<br />
p(<br />
B<br />
|<br />
|<br />
B)<br />
A)<br />
=<br />
=<br />
p(<br />
A)<br />
⋅ p(<br />
B |<br />
p(<br />
B)<br />
p(<br />
B)<br />
⋅ p(<br />
A |<br />
p(<br />
A)<br />
A)<br />
B)<br />
bzw.<br />
Das Theorem von Bayes erlaubt uns also, aus einer<br />
bekannten bedingten WS, die WS für die<br />
„Gegenbedingung“ zu berechnen, wenn uns auch die<br />
Einzelwahrscheinlichkeiten p(A) und p(B) bekannt<br />
sind.
Herleitung<br />
Das Theorem von Bayes wird aus der bedingten<br />
<strong>Wahrscheinlichkeit</strong> hergeleitet:<br />
Nach<br />
Umstellung
Theorem von Bayes: Beispiel 1<br />
12% der Bevölkerung ist psychisch gestört; p(A).<br />
10% der Bevölkerung ist arm; p(B).<br />
50% der Armen ist psychisch gestört; p(A|B).<br />
Welcher Anteil der psychisch gestörten ist arm;<br />
p(B|A)?<br />
p(<br />
B<br />
|<br />
A)<br />
=<br />
p(<br />
B)<br />
⋅ p(<br />
A |<br />
p(<br />
A)<br />
B)<br />
0.1⋅<br />
0.5<br />
p(<br />
B | A)<br />
=<br />
=<br />
0.12<br />
0.42
Theorem von Bayes: Beispiel 2<br />
Die WS für ein Kind eine Gymnasialempfehlung zu erhalten<br />
beträgt für einen deutschen Grundschüler 40%.<br />
90% aller Gymnasiasten kommen aus Familien mit<br />
überdurchschnittlich hohem sozioökonomischen Status.<br />
Mit anderen Worten: Wenn ich auf dem Gymnasium bin, ist<br />
mein Elternhaus mit 90% WS besser gestellt.<br />
Der Anteil der Familien mit überdurchschnittlichem<br />
sozioökonomischen Status an der Gesamtbevölkerung beträgt<br />
50% (Operationalisierung: Median-Split).<br />
Aufgabe 1: Wenn ich ein Kind aus einem relativ reichen<br />
Elternhaus bin (obere 50%), wie groß ist die WS später auf ein<br />
Gymnasium zu gehen?<br />
Aufgabe 2: Wenn ich ein Kind aus einem relativ armen<br />
Elternhaus bin (untere 50%), wie groß ist dann die WS in<br />
Zukunft aufs Gymnasium zu gehen?
Lösungsweg Aufgabe 1<br />
p(<br />
B<br />
|<br />
A)<br />
=<br />
p(<br />
B)<br />
⋅ p(<br />
A<br />
p(<br />
A)<br />
|<br />
B)<br />
Die WS. für Ereignis A („reich“) ist 0.5<br />
Die WS. für Ereignis B (Gymnasium) ist 0.4<br />
Die WS für einen Gymnasiasten (Bedingung) „reich“ zu<br />
sein (Ereignis) ist 0.9<br />
Gesucht ist nun die WS für einen „Reichen“ (Bedingung),<br />
ein Gymnasiast zu sein (Ereignis).<br />
0.4 ⋅ 0.9<br />
p( B | A)<br />
=<br />
=<br />
0.5<br />
0.72
Lösungsweg Aufgabe 2<br />
p(<br />
B<br />
|<br />
A)<br />
=<br />
p(<br />
B)<br />
⋅ p(<br />
A<br />
p(<br />
A)<br />
|<br />
B)<br />
Die WS. für Ereignis A („arm“) 0.5<br />
Die WS. für Ereignis B (Gymnasium) ist 0.4<br />
Die WS für einen Gymnasiasten „reich“ zu sein ist 0.9<br />
Demnach beträgt die inverse WS, nämlich die WS für<br />
einen Gymnasiasten „arm“ zu sein, 0.1<br />
Gesucht ist hier also die WS für einen „Armen“<br />
(Bedingung), ein Gymnasiast zu sein (Ereignis).<br />
0.4 ⋅ 0.1<br />
p(<br />
B | A)<br />
=<br />
=<br />
0.5<br />
0.08
Theorem von Bayes: Beispiel 3<br />
Es zeigt sich, dass Gewaltopfer zu 80% Frauen sind:<br />
p(w | gewaltopfer) = .80<br />
Die Grundwahrscheinlichkeit Opfer von Gewalt zu<br />
werden in der Bevölkerung sei: p(Gew.) = .03<br />
Wie hoch ist das Risiko für einen Frau, Opfer von Gewalt<br />
zu werden?<br />
p(<br />
Gew.<br />
|<br />
w)<br />
=<br />
p(<br />
Gew.)<br />
⋅ p(<br />
w<br />
p(<br />
w)<br />
|<br />
Gew.)<br />
=<br />
.03 ⋅ .80<br />
.50<br />
=<br />
.048
Verteilungsfunktionen
Gliederung<br />
I. Grundlagen<br />
-<br />
Zufallsexperimente<br />
-<br />
Ereignisräume<br />
I. Verknüpfung von Ereignissen<br />
-<br />
Bedingte <strong>Wahrscheinlichkeit</strong> (WS)<br />
-<br />
Additionssatz<br />
-<br />
Multiplikationssatz<br />
I. Verteilungsfunktionen
Was sind Verteilungsfunktionen?<br />
Eine Verteilungsfunktion beschreibt die<br />
Ereignisse eines Zufallsexperiments, bei dem<br />
unendlich viele Elementarereignisse realisiert<br />
werden können.<br />
→ Die Skala einer<br />
kontinuierlichen<br />
Variable kann als<br />
Ereignisraum mit<br />
unendlich vielen<br />
möglichen<br />
Elementarereignissen<br />
verstanden werden.
Histogramm mit<br />
Verteilungsfunktion<br />
Dies Kurve gibt an, wie die<br />
Messwerte aussehen<br />
müssten, damit das erhobene<br />
Merkmal in der Stichprobe<br />
normalverteilt ist.
Nutzen von Verteilungsfunktionen<br />
Verteilungsfunktionen oder –kurven (synonym<br />
auch: Dichte-funktionen) erlauben mir für beliebige<br />
Intervalle x auf meiner Skala die Anzahl der im Bereich<br />
von x liegenden Probanden zu bestimmen.<br />
Sie ermöglichen auch, die WS dafür zu<br />
berechnen, dass ein einzelner Proband einen<br />
Messwert im Intervall x aufweist.<br />
Wie wir heute sehen werden, bildet dies die<br />
theoretische Grundlage der Inferenzstatistik.
Nutzen von Verteilungsfunktionen<br />
Mathematisch benötige ich hierfür die Funktion der<br />
Verteilungskurve der Messwerte meiner Stichprobe.<br />
Die Bestimmung der Anzahl meiner Probanden im<br />
Messbereich x erfolgt mittels Integralrechnung.<br />
Für uns sind in der Praxis jedoch nur bestimmte<br />
Verteilungsfunktionen relevant.<br />
Daher brauchen wir keine Integrale berechnen sondern<br />
lesen unserer Ergebnisse aus Verteilungstabellen ab.
.30<br />
.20<br />
.10<br />
d<br />
Eine Verteilungsfunktionen<br />
Beispiel: Wenn für eine Funktion f gilt:<br />
25<br />
∫ − ∞<br />
dann ist die <strong>Wahrscheinlichkeit</strong> einen Wert<br />
von x ≤ 25 zu erzielen p = .20.<br />
f<br />
( x)<br />
dx<br />
=<br />
0.2<br />
Wie gesagt: Man kann die<br />
<strong>Wahrscheinlichkeit</strong> für<br />
beliebige Wertebereiche<br />
angeben, z.B.:<br />
z.B. p(25 ≤ x ≤ 75) = 0.71<br />
.00<br />
x=25<br />
x
Die Normalverteilung<br />
Die wichtigste Verteilungsfunktion ist<br />
die Normalverteilung. Sie wurde von<br />
C.F. Gauß „entdeckt“.<br />
Die Normalverteilung ist deshalb so<br />
wichtig, weil in der Natur sehr viele<br />
Merkmale normalverteilt sind<br />
(zumindest als Grundlage<br />
psychologischer Testverfahren).
Die Normalverteilung<br />
Jede Normalverteilung …<br />
a) hat einen „glockenförmigen“ Verlauf und<br />
b) ist symmetrisch (a3=0) und<br />
c) hat einen „normalen“ Exzess (a4 = 3)<br />
Zwei Parameter definieren eine<br />
Normalverteilung:<br />
a) Der Mittelwert (μ) gibt die Position des<br />
„Gipfels“ an.<br />
b) Die Streuung oder Standardabweichung (σ)<br />
gibt die Breite der Verteilung an.
Normalverteilung (schematisch)
Die Standardnormalverteilung<br />
Ein Normalverteilung mit einem Mittelwert von 0 und einer<br />
Streuung von 1 heißt Standardnormalverteilung.<br />
Jede normalverteilte Variable kann einfach in eine<br />
Standard-normalverteilung transformiert werden. Dafür<br />
muss für jeden Wert einer Stichprobe folgende Formel<br />
angewandt werden:<br />
x<br />
neu<br />
xalt<br />
−<br />
= zx<br />
=<br />
σ<br />
Diese Transformation nennt man auch Standardisierung.<br />
Die Standardisierung erlaubt uns auch, Untersuchungen<br />
des gleichen Merkmals, die jedoch mit verschieden<br />
skalierten Messinstrumenten durchgeführt wurden, zu<br />
vergleichen.<br />
µ
Verteilungsfunktion der Ergebnisse eines<br />
Optimismusfragebogens<br />
Ein alternativer<br />
Optimismusfragebogen<br />
ist so konstruiert, dass<br />
der Mittelwert 10 und<br />
die SD 2 beträgt.<br />
Die Standardisierung<br />
ermöglicht es nun,<br />
beide Instrumente<br />
zueinander in<br />
Beziehung zu setzen.<br />
Z.B. könnte exakt<br />
bestimmt werden,<br />
welcher Wert im<br />
alternativen Fragebogen<br />
dem Wert 28 entspricht.
Schätzung von Prozenträngen<br />
Ein Prozentrang gibt an, wie viel Prozent der<br />
Population Werte kleiner als einen oder gleich<br />
einem kritischen Wert haben.<br />
Wenn man Mittelwert und Standardabweichung<br />
eines Merkmals kennt, und dieses normalverteilt<br />
ist, kann man den Prozentrang aus der z-<br />
Verteilungstabelle ablesen.<br />
Der z-Wert entspricht der Abweichung vom<br />
Mittelwert in „Standardabweichungseinheiten“<br />
(z.B. bei 1,5 Std.-Abweichungen über dem<br />
Mittelwert µ; z = 1.50).
z Fläche z Fläche z Fläche z Fläche<br />
-3.00 0.00 -1.50 0.07 0.00 0.50 1.50 0.93<br />
-2.90 0.00 -1.40 0.08 0.10 0.54 1.60 0.95<br />
-2.80 0.00 -1.30 0.10 0.20 0.58 1.70 0.96<br />
-2.70 0.00 -1.20 0.12 0.30 0.62 1.80 0.96<br />
-2.60 0.00 -1.10 0.14 0.40 0.66 1.90 0.97<br />
-2.50 0.01 -1.00 0.16 0.50 0.69 2.00 0.98<br />
-2.40 0.01 -0.90 0.18 0.60 0.73 2.10 0.98<br />
-2.30 0.01 -0.80 0.21 0.70 0.76 2.20 0.99<br />
-2.20 0.01 -0.70 0.24 0.80 0.79 2.30 0.99<br />
-2.10 0.02 -0.60 0.27 0.90 0.82 2.40 0.99<br />
-2.00 0.02 -0.50 0.31 1.00 0.84 2.50 0.99<br />
-1.90 0.03 -0.40 0.34 1.10 0.86 2.60 1.00
Die Standardnormalverteilung<br />
Interpretation von z-Werten:<br />
f(z)<br />
2% 14% 68% 14% 2%<br />
-2<br />
-1<br />
0 1 2<br />
z
Beispiele: z-Werte<br />
Wie können Sie aus einer stetigen<br />
<strong>Wahrscheinlichkeit</strong>sfunktion die<br />
<strong>Wahrscheinlichkeit</strong> dafür ablesen, dass ein<br />
konkreter Wert in einem Intervall von x1 bis x2<br />
vorkommt?<br />
Die Fläche unter der Kurve im Bereich von x1<br />
bis x2 gibt die <strong>Wahrscheinlichkeit</strong> an.
Beispiele: z-Werte<br />
Welche <strong>Wahrscheinlichkeit</strong> kann man bei<br />
der Standardnormalverteilung dem<br />
Bereich von z1 = -1 bis z2 = +1<br />
zuordnen?<br />
<br />
Die <strong>Wahrscheinlichkeit</strong> beträgt<br />
ungefähr p = .68.
Ende (vorläufig...)<br />
Bis nächste Woche<br />
Fragen an:<br />
S.Tomczyk@gmx.net