m kn n 0k − ∑ =
m kn n 0k − ∑ =
m kn n 0k − ∑ =
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Analogicznie - informacja wzajemna zmiennej losowej X i pary zmiennych losowych Y, Z:<br />
I ( X ; Y , Z ) = H ( X ) - HY,Z ( X )<br />
• I ( X ; Y ) ≥ 0<br />
• I ( X ; Y ) = 0 ⇔ X i Y są niezaleŜne<br />
• I ( X ; Y ) = I ( Y ; X )<br />
Warunkowa informacja wzajemna pary X i Y przy znanym Z:<br />
IZ ( X ; Y ) = HZ ( X ) - HY,Z ( X )<br />
jest interpretowana jako ilość informacji o X ujawniana na podstawie znajomości Y przy<br />
załoŜeniu, Ŝe juŜ zaobserwowano Z.<br />
• I ( X ; Y , Z ) = I ( X ; Y ) + IY ( X ; Z )<br />
• IZ ( X ; Y ) = IZ ( Y ; X )<br />
W.Chocianowicz – Kryptologia – semestr zimowy 2008/2009<br />
str.97