uvod - Laboratorij za obdelavo signalov in daljinska vodenja
uvod - Laboratorij za obdelavo signalov in daljinska vodenja
uvod - Laboratorij za obdelavo signalov in daljinska vodenja
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
138 6. Naključni signali <strong>in</strong> statistične metode<br />
P( X = x i )<br />
1<br />
0,5<br />
1-p<br />
p<br />
0 1<br />
Slika 6.14<br />
Primer porazdelitve<br />
verjetnosti X = {0,1}.<br />
x<br />
6.3.1 B<strong>in</strong>omska porazdelitev<br />
B<strong>in</strong>omsko porazdelitev uporabljamo predvsem <strong>za</strong> izračunavanje verjetnosti<br />
pri ponavljanju poskusa, ki ima le dva možna izida (primer takega poskusa<br />
je metanje kovanca). Vzemimo, da je pri poskusu lahko izid dogodek A.<br />
Če se ta ne realizira, se realizira nasprotni dogodek B = A. Bodi verjetnost<br />
dogodka A enak p, dogodka B pa q. Ker sta dogodka A <strong>in</strong> B nepove<strong>za</strong>na, velja<br />
P(S ) = P(A ∪ B) = P(A) + P(B) = 1, <strong>za</strong>to 1 = p + q oziroma q = 1 − p<br />
(slika 6.14). Z <strong>in</strong>dikatorsko funkcijo dogodka A <strong>in</strong> B preslikamo na x-os:<br />
A ↦→ 1,B ↦→ 0. S tem uvedemo Bernoullijevo spremenljivko X i = {0,1}.<br />
Naredimo n poskusov, ti naj določijo spremenljivko Y :<br />
Y =<br />
n<br />
∑<br />
i=1<br />
X i (6.61)<br />
<strong>in</strong> se vprašamo: kolika je verjetnost, da se bo v tem poskusu k-krat zgodil<br />
dogodek A oziroma, da bo k spremenljivk X i enakih 1? Vrstni red reali<strong>za</strong>cije<br />
pri tem naj ne bo pomemben. Da odgovorimo na to vprašanje, upoštevajmo,<br />
da iz (6.61) sledi, da je S Y = {0,1,...,n}. Verjetnost P(Y = 0) je enaka verjetnosti,<br />
da so vsi X i enaki 0. Ker je X i statistično neodvisna spremenljivka,<br />
velja:<br />
P(Y = 0) = q n = (1 − p) n . (6.62)<br />
Verjetnost P(Y = 1) je verjetnost, da je en X i = 1. Ta dogodek se more zgoditi<br />
na n različnih nač<strong>in</strong>ov:<br />
P(Y = 1) = np(1 − p) n−1 . (6.63)<br />
Posplošimo. Verjetnost P(Y = k) je enaka verjetnosti, da je bil v poskusu<br />
k-krat X = 1 <strong>in</strong> <strong>za</strong>to (n − k)-krat X = 0. To je možno doseči v<br />
komb<strong>in</strong>acijah. Iz tega sledi<br />
( n<br />
k)<br />
=<br />
P(Y = k) =<br />
n!<br />
k!(n − k)!<br />
(6.64)<br />
( n<br />
k)<br />
p k (1 − p) n−k . (6.65)<br />
To porazdelitev imenujemo Bernoullijeva ali b<strong>in</strong>omska porazdelitev. Iz (6.65)<br />
sledi, da je funkcija porazdelitve gostote verjetnosti enaka:<br />
f Y (y i ) =<br />
n<br />
∑<br />
k=0<br />
n<br />
∑<br />
P(Y = k)δ K (y − k)<br />
) n<br />
= p<br />
k=0( k (1 − p) n−k δ K (y − k) , (6.66)<br />
k<br />
šarko ƒu£ej: Teorija <strong>signalov</strong> revizija 20040315