teoria komunikacji Shannona.pdf
teoria komunikacji Shannona.pdf
teoria komunikacji Shannona.pdf
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />
Podstawowe własności logarytmów:<br />
W1. log a (x · z) = log a x + log a z<br />
W2. log a ( 1 x ) = − log a x<br />
W3. log a ( x z ) = log a x − log a z<br />
Definicja<br />
Ilość informacji. Komunikat, którego prawdopodobieństwo<br />
1<br />
wystąpienia wynosi P zawiera k = log a P = − log a P jednostek<br />
ilości informacji.<br />
Dla a = 2 jednostką informacji jest bit (8 bitów= 1 bajt). Dla<br />
a = e jednostką nat. Dla a = 10 jednostką jest hartley.<br />
W definicji tej ilość informacji generowana przez źródło zależy od<br />
prawdopodobieństwa każdego ze zdarzeń. Im większe<br />
prawdopodobieństwo zdarzenia, tym mniejsza ilość informacji jaką<br />
niesie.<br />
Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />
Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>