m kn n 0k − ∑ =
m kn n 0k − ∑ =
m kn n 0k − ∑ =
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
TEORIA INFORMACJI A KRYPTOLOGIA<br />
Niech X będzie zmienną losową przybierającą wartości ze skończonego zbioru { x 1 , x 2 , ..., x n } ,<br />
przy czym rozkład prawdopodobieństwa tej zmiennej określony będzie przez zbiór wartości:<br />
p i = P ( X = x i ) (i = 1, 2, ..., n )<br />
a ponadto:<br />
n<br />
Σ p i = 1<br />
i =1<br />
Rozkład ten, o ile nie będzie to wiodło do nieporozumień, będzie oznaczany jako p ( X ).<br />
Entropia jest miarą ilości informacji pozyskanej w wyniku obserwacji zmiennej losowej X:<br />
n<br />
Η(X) = <strong>−</strong> Σ p i log 2<br />
p i [w bitach]<br />
i=1<br />
W.Chocianowicz – Kryptologia – semestr zimowy 2008/2009<br />
str.93