17.11.2013 Views

m kn n 0k − ∑ =

m kn n 0k − ∑ =

m kn n 0k − ∑ =

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

TEORIA INFORMACJI A KRYPTOLOGIA<br />

Niech X będzie zmienną losową przybierającą wartości ze skończonego zbioru { x 1 , x 2 , ..., x n } ,<br />

przy czym rozkład prawdopodobieństwa tej zmiennej określony będzie przez zbiór wartości:<br />

p i = P ( X = x i ) (i = 1, 2, ..., n )<br />

a ponadto:<br />

n<br />

Σ p i = 1<br />

i =1<br />

Rozkład ten, o ile nie będzie to wiodło do nieporozumień, będzie oznaczany jako p ( X ).<br />

Entropia jest miarą ilości informacji pozyskanej w wyniku obserwacji zmiennej losowej X:<br />

n<br />

Η(X) = <strong>−</strong> Σ p i log 2<br />

p i [w bitach]<br />

i=1<br />

W.Chocianowicz – Kryptologia – semestr zimowy 2008/2009<br />

str.93

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!