17.11.2013 Views

m kn n 0k − ∑ =

m kn n 0k − ∑ =

m kn n 0k − ∑ =

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Analogicznie - informacja wzajemna zmiennej losowej X i pary zmiennych losowych Y, Z:<br />

I ( X ; Y , Z ) = H ( X ) - HY,Z ( X )<br />

• I ( X ; Y ) ≥ 0<br />

• I ( X ; Y ) = 0 ⇔ X i Y są niezaleŜne<br />

• I ( X ; Y ) = I ( Y ; X )<br />

Warunkowa informacja wzajemna pary X i Y przy znanym Z:<br />

IZ ( X ; Y ) = HZ ( X ) - HY,Z ( X )<br />

jest interpretowana jako ilość informacji o X ujawniana na podstawie znajomości Y przy<br />

załoŜeniu, Ŝe juŜ zaobserwowano Z.<br />

• I ( X ; Y , Z ) = I ( X ; Y ) + IY ( X ; Z )<br />

• IZ ( X ; Y ) = IZ ( Y ; X )<br />

W.Chocianowicz – Kryptologia – semestr zimowy 2008/2009<br />

str.97

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!