02.01.2014 Views

teoria komunikacji Shannona.pdf

teoria komunikacji Shannona.pdf

teoria komunikacji Shannona.pdf

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Informacja w informatyce cz. 1<br />

<strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong><br />

Izabela Bondecka-Krzykowska<br />

Wydział Matematyki i Informatyki UAM<br />

ul. Umultowska 87<br />

61–614 Poznań<br />

izab@amu.edu.pl<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Głównym celem matematycznej teorii informacji jest opracowanie<br />

odpowiednich metod kodowania i przesyłania danych.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Głównym celem matematycznej teorii informacji jest opracowanie<br />

odpowiednich metod kodowania i przesyłania danych.<br />

Za ojca teorii informacji uważa się Claude’a E. <strong>Shannona</strong><br />

1945 „A Mathematical Theory of Cryptography”<br />

1948 „A Mathematical Theory of Communication”<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Teoria informacji <strong>Shannona</strong> charakteryzuje w sposób matematyczny<br />

zapis, przesyłanie i odtwarzanie informacji. Dąży przy tym do<br />

pogodzenia dwóch przeciwstawnych celów:<br />

zapisywania wiadomości jak najzwięźlej,<br />

chronienia wiadomości przed przekłamaniami podczas<br />

transmisji.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

W pracy z roku 1948 Shannon przedstawia następujący model<br />

<strong>komunikacji</strong>:<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

źródło informacji, które wytwarza wiadomość<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

nadajnik, który przekształca wiadomość w taki sposób, aby<br />

można ją było przesłać przez dany kanał (w sygnał).<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

odbiornik zazwyczaj wykonuje operację odwrotną do<br />

wykonanej przez nadajnik.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

odbiorca to osoba lub rzecz do której kierowana jest<br />

wiadomość.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

kanał to medium za pomocą którego wiadomość dociera od<br />

nadajnika do odbiornika.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

źródło zakłóceń<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

komunikat zawiera tym więcej informacji, im mniejsze jest<br />

prawdopodobieństwo jego wystąpienia.Jest to jedno z<br />

podstawowych założeń ilościowej teorii informacji.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

komunikat zawiera tym więcej informacji, im mniejsze jest<br />

prawdopodobieństwo jego wystąpienia.Jest to jedno z<br />

podstawowych założeń ilościowej teorii informacji.<br />

Ilość informacji określa się w teorii informacji jako usunięcie<br />

lub zmniejszenie nieokreśloności zaistnienia dowolnego<br />

zdarzenia (komunikatu).Jest to różnica nieokreśloności pewnego<br />

wyniku przed i po zaistnieniu zdarzenia.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Źródła informacji<br />

źródło unarne – kruk Poe’go, który na wszystkie zadawane<br />

pytania odpowiada zawsze jednakowo „być może”.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Źródła informacji<br />

źródło unarne – kruk Poe’go, który na wszystkie zadawane<br />

pytania odpowiada zawsze jednakowo „być może”.<br />

Produkuje ono informację zerową.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Źródła informacji<br />

źródło unarne – kruk Poe’go, który na wszystkie zadawane<br />

pytania odpowiada zawsze jednakowo „być może”.<br />

Produkuje ono informację zerową.<br />

źródło binarne – symetryczna moneta (orzeł-reszka). Przed<br />

rzutem monetą informowany nie wie, czy wpadnie orzeł czy<br />

reszka a zatem informowany znajduje się w stanie deficytu<br />

danych równym 2 jednostki.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Źródła informacji<br />

źródło unarne – kruk Poe’go, który na wszystkie zadawane<br />

pytania odpowiada zawsze jednakowo „być może”.<br />

Produkuje ono informację zerową.<br />

źródło binarne – symetryczna moneta (orzeł-reszka). Przed<br />

rzutem monetą informowany nie wie, czy wpadnie orzeł czy<br />

reszka a zatem informowany znajduje się w stanie deficytu<br />

danych równym 2 jednostki.<br />

Ilość informacji = jedna jednostka.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Źródła informacji<br />

źródło unarne – kruk Poe’go, który na wszystkie zadawane<br />

pytania odpowiada zawsze jednakowo „być może”.<br />

Produkuje ono informację zerową.<br />

źródło binarne – symetryczna moneta (orzeł-reszka). Przed<br />

rzutem monetą informowany nie wie, czy wpadnie orzeł czy<br />

reszka a zatem informowany znajduje się w stanie deficytu<br />

danych równym 2 jednostki.<br />

Ilość informacji = jedna jednostka.<br />

dwie monety (ozn.je przez A i B). W wyniku takiego rzutu<br />

możemy otrzymać 4 różne wyniki: , , ,<br />

. Zatem źródło to generuje deficyt danych równy 4<br />

jednostki.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Źródła informacji<br />

źródło unarne – kruk Poe’go, który na wszystkie zadawane<br />

pytania odpowiada zawsze jednakowo „być może”.<br />

Produkuje ono informację zerową.<br />

źródło binarne – symetryczna moneta (orzeł-reszka). Przed<br />

rzutem monetą informowany nie wie, czy wpadnie orzeł czy<br />

reszka a zatem informowany znajduje się w stanie deficytu<br />

danych równym 2 jednostki.<br />

Ilość informacji = jedna jednostka.<br />

dwie monety (ozn.je przez A i B). W wyniku takiego rzutu<br />

możemy otrzymać 4 różne wyniki: , , ,<br />

. Zatem źródło to generuje deficyt danych równy 4<br />

jednostki.<br />

Ilość informacji = dwie jednostki.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Ozn. N – liczba symboli generowanych przez źródło (liczba<br />

możliwych zdarzeń).<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Ozn. N – liczba symboli generowanych przez źródło (liczba<br />

możliwych zdarzeń).<br />

Dla N = 1 ilość informacji generowanej przez źródło wynosi 0.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Ozn. N – liczba symboli generowanych przez źródło (liczba<br />

możliwych zdarzeń).<br />

Dla N = 1 ilość informacji generowanej przez źródło wynosi 0.<br />

Dla N = 2 źródło produkuje 1 jednostkę informacji (w przypadku<br />

rzutu jedną monetą informacja dotyczy tego, czy wypadł orzeł, czy<br />

reszka).<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Ozn. N – liczba symboli generowanych przez źródło (liczba<br />

możliwych zdarzeń).<br />

Dla N = 1 ilość informacji generowanej przez źródło wynosi 0.<br />

Dla N = 2 źródło produkuje 1 jednostkę informacji (w przypadku<br />

rzutu jedną monetą informacja dotyczy tego, czy wypadł orzeł, czy<br />

reszka).<br />

Dla N = 4 (rzut dwiema monetami) ilość informacji generowanej<br />

przez źródło wynosi 2 jednostki.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Przykład. Jeden z jej uczestników wybiera liczbę z pewnego zbioru<br />

np. ze zbioru liczb 1,2,. . . 8. Pozostali uczestnicy próbują odgadnąć<br />

jaka to liczba zadając pytania, na które mogą otrzymać tylko<br />

odpowiedź "tak" lub "nie". Zwycięża ten, kto zgadnie liczbę po<br />

zadaniu najmniejszej liczby pytań.<br />

Ile w ogólności trzeba zadać pytań by odgadnąć liczbę?<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Przykład. Jeden z jej uczestników wybiera liczbę z pewnego zbioru<br />

np. ze zbioru liczb 1,2,. . . 8. Pozostali uczestnicy próbują odgadnąć<br />

jaka to liczba zadając pytania, na które mogą otrzymać tylko<br />

odpowiedź "tak" lub "nie". Zwycięża ten, kto zgadnie liczbę po<br />

zadaniu najmniejszej liczby pytań.<br />

Ile w ogólności trzeba zadać pytań by odgadnąć liczbę?<br />

Jeden ze sposobów polega na dzieleniu zbioru na dwie części (o<br />

możliwie takiej samej liczbie elementów), potem dzielenie każdej z<br />

tych części itd. aż do zidentyfikowania pary liczb, a w niej szukanej<br />

liczby.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

1, 2, 3, 4, 5, 6, 7, 8<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

1, 2, 3, 4, 5, 6, 7, 8<br />

<br />

<br />

✠<br />

1, 2, 3, 4<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

1, 2, 3, 4, 5, 6, 7, 8<br />

<br />

<br />

✠<br />

1, 2, 3, 4<br />

❅<br />

❅<br />

❅❘<br />

5, 6, 7, 8<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

<br />

✠<br />

1, 2<br />

1, 2, 3, 4<br />

1, 2, 3, 4, 5, 6, 7, 8<br />

<br />

<br />

✠<br />

❅<br />

❅<br />

❅❘<br />

5, 6, 7, 8<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

<br />

✠<br />

1, 2<br />

1, 2, 3, 4<br />

1, 2, 3, 4, 5, 6, 7, 8<br />

❅<br />

❅❘<br />

3, 4<br />

<br />

<br />

✠<br />

❅<br />

❅<br />

❅❘<br />

5, 6, 7, 8<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

<br />

✠<br />

1, 2<br />

1, 2, 3, 4<br />

1, 2, 3, 4, 5, 6, 7, 8<br />

❅<br />

❅❘<br />

3, 4<br />

<br />

<br />

✠<br />

❅<br />

❅<br />

❅❘<br />

<br />

✠<br />

5, 6<br />

5, 6, 7, 8<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

<br />

✠<br />

1, 2<br />

1, 2, 3, 4<br />

1, 2, 3, 4, 5, 6, 7, 8<br />

❅<br />

❅❘<br />

3, 4<br />

<br />

<br />

✠<br />

❅<br />

❅<br />

❅❘<br />

<br />

✠<br />

5, 6<br />

5, 6, 7, 8<br />

❅<br />

❅❘<br />

7, 8<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

<br />

✠<br />

1, 2<br />

1, 2, 3, 4<br />

1, 2, 3, 4, 5, 6, 7, 8<br />

❅<br />

❅❘<br />

3, 4<br />

<br />

<br />

✠<br />

❅<br />

❅<br />

❅❘<br />

<br />

✠<br />

5, 6<br />

5, 6, 7, 8<br />

❅<br />

❅❘<br />

7, 8<br />

Liczba pytań koniecznych do odgadnięcia jaki komunikat został<br />

nadany przez źródło (czyli liczba kroków podziału) jest równa ilości<br />

informacji generowanej przez to źródło.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

A - w rzucie kostką do gry wypadała szóstka<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

A - w rzucie kostką do gry wypadała szóstka P(A) = 1 6<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

A - w rzucie kostką do gry wypadała szóstka P(A) = 1 6<br />

B - w rzucie kostką wypadło mniej niż 5 oczek<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

A - w rzucie kostką do gry wypadała szóstka P(A) = 1 6<br />

B - w rzucie kostką wypadło mniej niż 5 oczek<br />

P(B) = 4 6<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

A - w rzucie kostką do gry wypadała szóstka P(A) = 1 6<br />

B - w rzucie kostką wypadło mniej niż 5 oczek<br />

P(B) = 4 6<br />

C - w rzucie kostką wypadła parzysta liczba oczek<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

A - w rzucie kostką do gry wypadała szóstka P(A) = 1 6<br />

B - w rzucie kostką wypadło mniej niż 5 oczek<br />

P(B) = 4 6<br />

C - w rzucie kostką wypadła parzysta liczba oczek<br />

P(C) = 3 6 = 1 2<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

A - w rzucie kostką do gry wypadała szóstka P(A) = 1 6<br />

B - w rzucie kostką wypadło mniej niż 5 oczek<br />

P(B) = 4 6<br />

C - w rzucie kostką wypadła parzysta liczba oczek<br />

P(C) = 3 6 = 1 2<br />

D - w rzucie dwiema monetami wypadły dwa orły<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo zajścia zdarzenia A jest równe stosunkowi<br />

liczby zdarzeń sprzyjających zajściu danego zdarzenia do liczby<br />

wszystkich możliwych zdarzeń.<br />

Przykłady:<br />

A - w rzucie kostką do gry wypadała szóstka P(A) = 1 6<br />

B - w rzucie kostką wypadło mniej niż 5 oczek<br />

P(B) = 4 6<br />

C - w rzucie kostką wypadła parzysta liczba oczek<br />

P(C) = 3 6 = 1 2<br />

D - w rzucie dwiema monetami wypadły dwa orły<br />

P(D) = 1 4<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo równoczesnego zajścia niezależnych zdarzeń A<br />

i B wyraża wzór<br />

P(A ∩ B) = P(A) · P(B).<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo równoczesnego zajścia niezależnych zdarzeń A<br />

i B wyraża wzór<br />

P(A ∩ B) = P(A) · P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami wypadły dwa orły<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo równoczesnego zajścia niezależnych zdarzeń A<br />

i B wyraża wzór<br />

P(A ∩ B) = P(A) · P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami wypadły dwa orły<br />

P(A) - prawdopodobieństwo tego, że na monecie A wypadł orzeł<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo równoczesnego zajścia niezależnych zdarzeń A<br />

i B wyraża wzór<br />

P(A ∩ B) = P(A) · P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami wypadły dwa orły<br />

P(A) - prawdopodobieństwo tego, że na monecie A wypadł orzeł<br />

P(B) - prawdopodobieństwo tego, że na monecie B wypadł orzeł<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo równoczesnego zajścia niezależnych zdarzeń A<br />

i B wyraża wzór<br />

P(A ∩ B) = P(A) · P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami wypadły dwa orły<br />

P(A) - prawdopodobieństwo tego, że na monecie A wypadł orzeł<br />

P(B) - prawdopodobieństwo tego, że na monecie B wypadł orzeł<br />

P(A) = P(B) = 1 2<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo równoczesnego zajścia niezależnych zdarzeń A<br />

i B wyraża wzór<br />

P(A ∩ B) = P(A) · P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami wypadły dwa orły<br />

P(A) - prawdopodobieństwo tego, że na monecie A wypadł orzeł<br />

P(B) - prawdopodobieństwo tego, że na monecie B wypadł orzeł<br />

P(A) = P(B) = 1 2<br />

Prawdopodobieństwo zdarzenia C wynosi<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Prawdopodobieństwo równoczesnego zajścia niezależnych zdarzeń A<br />

i B wyraża wzór<br />

P(A ∩ B) = P(A) · P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami wypadły dwa orły<br />

P(A) - prawdopodobieństwo tego, że na monecie A wypadł orzeł<br />

P(B) - prawdopodobieństwo tego, że na monecie B wypadł orzeł<br />

P(A) = P(B) = 1 2<br />

Prawdopodobieństwo zdarzenia C wynosi<br />

P(C) = P(A ∩ B) = P(A) · P(B) = 1 2 · 1<br />

2 = 1 4<br />

.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Jeżeli zdarzenia losowe A i B nie zależą od siebie, to<br />

prawdopodobieństwo zajścia zdarzenia A lub B określa równanie:<br />

P(A ∪ B) = P(A) + P(B).<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Jeżeli zdarzenia losowe A i B nie zależą od siebie, to<br />

prawdopodobieństwo zajścia zdarzenia A lub B określa równanie:<br />

P(A ∪ B) = P(A) + P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami na obu monetach wypadło to samo.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Jeżeli zdarzenia losowe A i B nie zależą od siebie, to<br />

prawdopodobieństwo zajścia zdarzenia A lub B określa równanie:<br />

P(A ∪ B) = P(A) + P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami na obu monetach wypadło to samo.<br />

A - w rzucie dwiema monetami wypadły dwa orły<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Jeżeli zdarzenia losowe A i B nie zależą od siebie, to<br />

prawdopodobieństwo zajścia zdarzenia A lub B określa równanie:<br />

P(A ∪ B) = P(A) + P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami na obu monetach wypadło to samo.<br />

A - w rzucie dwiema monetami wypadły dwa orły<br />

B - w rzucie dwiema monetami wypadły dwie reszki<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Prawdopodobieństwo<br />

Jeżeli zdarzenia losowe A i B nie zależą od siebie, to<br />

prawdopodobieństwo zajścia zdarzenia A lub B określa równanie:<br />

P(A ∪ B) = P(A) + P(B).<br />

Przykład.<br />

C - w rzucie dwiema monetami na obu monetach wypadło to samo.<br />

A - w rzucie dwiema monetami wypadły dwa orły<br />

B - w rzucie dwiema monetami wypadły dwie reszki<br />

P(A ∪ B) = P(A) + P(B) = 1 4 + 1 4 = 2 4 = 1 2<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Logarytm<br />

Logarytm liczby x przy podstawie a, to liczba rzeczywista y równa<br />

wykładnikowi potęgi, do jakiej trzeba podnieść liczbę rzeczywistą a<br />

(dodatnią, różną od jedności), aby otrzymać liczbę dodatnią<br />

rzeczywistą x.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Logarytm<br />

Logarytm liczby x przy podstawie a, to liczba rzeczywista y równa<br />

wykładnikowi potęgi, do jakiej trzeba podnieść liczbę rzeczywistą a<br />

(dodatnią, różną od jedności), aby otrzymać liczbę dodatnią<br />

rzeczywistą x.<br />

log a x = y ⇔ a y = x, a > 0, x > 0, a ≠ 1.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Logarytm<br />

Logarytm liczby x przy podstawie a, to liczba rzeczywista y równa<br />

wykładnikowi potęgi, do jakiej trzeba podnieść liczbę rzeczywistą a<br />

(dodatnią, różną od jedności), aby otrzymać liczbę dodatnią<br />

rzeczywistą x.<br />

log a x = y ⇔ a y = x, a > 0, x > 0, a ≠ 1.<br />

Przykłady:<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Logarytm<br />

Logarytm liczby x przy podstawie a, to liczba rzeczywista y równa<br />

wykładnikowi potęgi, do jakiej trzeba podnieść liczbę rzeczywistą a<br />

(dodatnią, różną od jedności), aby otrzymać liczbę dodatnią<br />

rzeczywistą x.<br />

log a x = y ⇔ a y = x, a > 0, x > 0, a ≠ 1.<br />

Przykłady:<br />

log 2 1 = 0 ponieważ 2 0 = 1<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Logarytm<br />

Logarytm liczby x przy podstawie a, to liczba rzeczywista y równa<br />

wykładnikowi potęgi, do jakiej trzeba podnieść liczbę rzeczywistą a<br />

(dodatnią, różną od jedności), aby otrzymać liczbę dodatnią<br />

rzeczywistą x.<br />

log a x = y ⇔ a y = x, a > 0, x > 0, a ≠ 1.<br />

Przykłady:<br />

log 2 1 = 0 ponieważ 2 0 = 1<br />

log 2 2 = 1 ponieważ 2 1 = 2<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Logarytm<br />

Logarytm liczby x przy podstawie a, to liczba rzeczywista y równa<br />

wykładnikowi potęgi, do jakiej trzeba podnieść liczbę rzeczywistą a<br />

(dodatnią, różną od jedności), aby otrzymać liczbę dodatnią<br />

rzeczywistą x.<br />

log a x = y ⇔ a y = x, a > 0, x > 0, a ≠ 1.<br />

Przykłady:<br />

log 2 1 = 0 ponieważ 2 0 = 1<br />

log 2 2 = 1 ponieważ 2 1 = 2<br />

log 2 4 = 2 ponieważ 2 2 = 4<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Logarytm<br />

Logarytm liczby x przy podstawie a, to liczba rzeczywista y równa<br />

wykładnikowi potęgi, do jakiej trzeba podnieść liczbę rzeczywistą a<br />

(dodatnią, różną od jedności), aby otrzymać liczbę dodatnią<br />

rzeczywistą x.<br />

log a x = y ⇔ a y = x, a > 0, x > 0, a ≠ 1.<br />

Przykłady:<br />

log 2 1 = 0 ponieważ 2 0 = 1<br />

log 2 2 = 1 ponieważ 2 1 = 2<br />

log 2 4 = 2 ponieważ 2 2 = 4<br />

log 2 8 = 3 ponieważ 2 3 = 8<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Podstawowe własności logarytmów:<br />

W1. log a (x · z) = log a x + log a z<br />

W2. log a ( 1 x ) = − log a x<br />

W3. log a ( x z ) = log a x − log a z<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Podstawowe własności logarytmów:<br />

W1. log a (x · z) = log a x + log a z<br />

W2. log a ( 1 x ) = − log a x<br />

W3. log a ( x z ) = log a x − log a z<br />

Definicja<br />

Ilość informacji. Komunikat, którego prawdopodobieństwo<br />

1<br />

wystąpienia wynosi P zawiera k = log a P = − log a P jednostek<br />

ilości informacji.<br />

Dla a = 2 jednostką informacji jest bit (8 bitów= 1 bajt). Dla<br />

a = e jednostką nat. Dla a = 10 jednostką jest hartley.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Podstawowe własności logarytmów:<br />

W1. log a (x · z) = log a x + log a z<br />

W2. log a ( 1 x ) = − log a x<br />

W3. log a ( x z ) = log a x − log a z<br />

Definicja<br />

Ilość informacji. Komunikat, którego prawdopodobieństwo<br />

1<br />

wystąpienia wynosi P zawiera k = log a P = − log a P jednostek<br />

ilości informacji.<br />

Dla a = 2 jednostką informacji jest bit (8 bitów= 1 bajt). Dla<br />

a = e jednostką nat. Dla a = 10 jednostką jest hartley.<br />

W definicji tej ilość informacji generowana przez źródło zależy od<br />

prawdopodobieństwa każdego ze zdarzeń. Im większe<br />

prawdopodobieństwo zdarzenia, tym mniejsza ilość informacji jaką<br />

niesie.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

źródło liczba możliwych zdarzeń Bity informacji<br />

kruk Poe’go 1 zdarzenie (pewne) log 2 1 = 0<br />

1<br />

1 moneta 2 jednakowo prawdopodobne log 2 1 = log 2 2 = 1<br />

2<br />

2 monety 4 jednakowo prawdopodobne log 2<br />

1<br />

1<br />

4<br />

3 monety 8 jednakowo prawdopodobnych log 2<br />

1<br />

1<br />

8<br />

= log 2 4 = 2<br />

= log 2 8 = 3<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

źródło liczba możliwych zdarzeń Bity informacji<br />

kruk Poe’go 1 zdarzenie (pewne) log 2 1 = 0<br />

1<br />

1 moneta 2 jednakowo prawdopodobne log 2 1 = log 2 2 = 1<br />

2<br />

2 monety 4 jednakowo prawdopodobne log 2<br />

1<br />

1<br />

4<br />

3 monety 8 jednakowo prawdopodobnych log 2<br />

1<br />

1<br />

8<br />

W przypadku źródła generującego jednakowo prawdopodobne<br />

symbole (gdy wszystkie możliwe komunikaty są jednakowo<br />

prawdopodobne)<br />

k = log a<br />

1<br />

P = − log a P = log a N,<br />

gdzie N- liczba symboli generowanych przez źródło (liczba<br />

możliwych zdarzeń).<br />

= log 2 4 = 2<br />

= log 2 8 = 3<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

źródło liczba możliwych zdarzeń Bity informacji<br />

kruk Poe’go 1 zdarzenie (pewne) log 2 1 = 0<br />

1<br />

1 moneta 2 jednakowo prawdopodobne log 2 1 = log 2 2 = 1<br />

2<br />

2 monety 4 jednakowo prawdopodobne log 2<br />

1<br />

1<br />

4<br />

3 monety 8 jednakowo prawdopodobnych log 2<br />

1<br />

1<br />

8<br />

W przypadku źródła generującego jednakowo prawdopodobne<br />

symbole (gdy wszystkie możliwe komunikaty są jednakowo<br />

prawdopodobne)<br />

k = log a<br />

1<br />

P = − log a P = log a N,<br />

gdzie N- liczba symboli generowanych przez źródło (liczba<br />

możliwych zdarzeń).<br />

Wzór k = log 2 N nazywa się wzorem Hartleya.<br />

= log 2 4 = 2<br />

= log 2 8 = 3<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Entropia. Jeśli źródło nadaje n różnych komunikatów z<br />

prawdopodobieństwami P 1 , P 2 , ..., P n , to średnia ważona ilość<br />

informacji w komunikatach tego źródła wyraża się wzorem<br />

H = −P 1 log 2 P 1 − P 2 log 2 P 2 − ... − P n log 2 P n = −<br />

n∑<br />

P i log 2 P i<br />

i nosi nazwę entropii informacyjnej źródła informacji. Jednostką<br />

entropii jest bit.<br />

i=1<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Entropia. Jeśli źródło nadaje n różnych komunikatów z<br />

prawdopodobieństwami P 1 , P 2 , ..., P n , to średnia ważona ilość<br />

informacji w komunikatach tego źródła wyraża się wzorem<br />

H = −P 1 log 2 P 1 − P 2 log 2 P 2 − ... − P n log 2 P n = −<br />

n∑<br />

P i log 2 P i<br />

i nosi nazwę entropii informacyjnej źródła informacji. Jednostką<br />

entropii jest bit.<br />

Własności entropii:<br />

1 jest nieujemna<br />

2 jest maksymalna, gdy prawdopodobieństwa zdarzeń są takie<br />

same<br />

3 własność superpozycji - gdy dwa systemy są niezależne to<br />

entropia sumy systemów równa się sumie entropii.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong><br />

i=1


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Entropia H zdefiniowana wzorem<br />

H = −<br />

jest to miara trzech wielkości:<br />

n∑<br />

P i log 2 P i<br />

i=1<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Entropia H zdefiniowana wzorem<br />

H = −<br />

jest to miara trzech wielkości:<br />

n∑<br />

P i log 2 P i<br />

i=1<br />

a) średniej ilości nie zinterpretowanej (czystej) informacji<br />

przypadającej na symbol produkowany przez źródło,<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Entropia H zdefiniowana wzorem<br />

H = −<br />

jest to miara trzech wielkości:<br />

n∑<br />

P i log 2 P i<br />

i=1<br />

a) średniej ilości nie zinterpretowanej (czystej) informacji<br />

przypadającej na symbol produkowany przez źródło,<br />

b) odpowiadającej jej średniej ilości deficytu danych (tego co<br />

Shannon nazywał niepewnością) jaki ma odbiorca przed<br />

sprawdzeniem sygnału od informującego oraz<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Entropia H zdefiniowana wzorem<br />

H = −<br />

jest to miara trzech wielkości:<br />

n∑<br />

P i log 2 P i<br />

i=1<br />

a) średniej ilości nie zinterpretowanej (czystej) informacji<br />

przypadającej na symbol produkowany przez źródło,<br />

b) odpowiadającej jej średniej ilości deficytu danych (tego co<br />

Shannon nazywał niepewnością) jaki ma odbiorca przed<br />

sprawdzeniem sygnału od informującego oraz<br />

c) odpowiadające jej możliwości informacyjne samego źródła tzn.<br />

jego informacyjną entropię.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

symbol - zdarzenie - komunikat<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

symbol - zdarzenie - komunikat<br />

Definicja<br />

Kodowanie to przyporządkowanie komunikatom odpowiednich<br />

ciągów zero-jedynkowych.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

symbol - zdarzenie - komunikat<br />

Definicja<br />

Kodowanie to przyporządkowanie komunikatom odpowiednich<br />

ciągów zero-jedynkowych.<br />

Przykład 1. Rzut dwiema monetami A i B.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

symbol - zdarzenie - komunikat<br />

Definicja<br />

Kodowanie to przyporządkowanie komunikatom odpowiednich<br />

ciągów zero-jedynkowych.<br />

Przykład 1. Rzut dwiema monetami A i B.Możliwe wyniki to: ,<br />

, , , gdzie O oznacza, że wypadł orzeł; R, że<br />

wypadła reszka.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

symbol - zdarzenie - komunikat<br />

Definicja<br />

Kodowanie to przyporządkowanie komunikatom odpowiednich<br />

ciągów zero-jedynkowych.<br />

Przykład 1. Rzut dwiema monetami A i B.Możliwe wyniki to: ,<br />

, , , gdzie O oznacza, że wypadł orzeł; R, że<br />

wypadła reszka.<br />

Każde ze zdarzeń (możliwych wyników) pojawia się z<br />

prawdopodobieństwem 1 2 · 1<br />

2 = 1 4 .<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

symbol - zdarzenie - komunikat<br />

Definicja<br />

Kodowanie to przyporządkowanie komunikatom odpowiednich<br />

ciągów zero-jedynkowych.<br />

Przykład 1. Rzut dwiema monetami A i B.Możliwe wyniki to: ,<br />

, , , gdzie O oznacza, że wypadł orzeł; R, że<br />

wypadła reszka.<br />

Każde ze zdarzeń (możliwych wyników) pojawia się z<br />

prawdopodobieństwem 1 2 · 1<br />

2 = 1 4 .<br />

Najprostszy kod:<br />

=00<br />

=01<br />

=10<br />

=11<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

symbol - zdarzenie - komunikat<br />

Definicja<br />

Kodowanie to przyporządkowanie komunikatom odpowiednich<br />

ciągów zero-jedynkowych.<br />

Przykład 1. Rzut dwiema monetami A i B.Możliwe wyniki to: ,<br />

, , , gdzie O oznacza, że wypadł orzeł; R, że<br />

wypadła reszka.<br />

Każde ze zdarzeń (możliwych wyników) pojawia się z<br />

prawdopodobieństwem 1 2 · 1<br />

2 = 1 4 .<br />

Najprostszy kod:<br />

=00<br />

=01<br />

=10<br />

=11<br />

W kodzie tym każda wiadomość przekazuje 2 bity informacji<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Przykład 2. Rozważmy źródło, które wysyła 8 symboli A, B, C, D,<br />

E, F, G, H z różnymi prawdopodobieństwami:<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Przykład 2. Rozważmy źródło, które wysyła 8 symboli A, B, C, D,<br />

E, F, G, H z różnymi prawdopodobieństwami:<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. Sposób najprostszy (analogiczny do zastosowanego w<br />

poprzednim przykładzie).<br />

=000<br />

=001<br />

=010<br />

=011<br />

=100<br />

=101<br />

=110<br />

=111<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Kod 1. (kod <strong>Shannona</strong>-Fano)<br />

Kod dla poszczególnych symboli konstruujemy następująco:<br />

1 Porządkujemy symbole w kolejności ich malejących<br />

prawdopodobieństw<br />

2 Lista ta jest następnie dzielona na dwie grupy w ten sposób,<br />

aby suma prawdopodobieństw zdarzeń w obu grupach była<br />

możliwie bliska (najlepiej równa)<br />

3 Każdemu symbolowi z grupy pierwszej przydziela się 0 jako<br />

pierwszą cyfrę słowa kodowego, natomiast każdemu symbolowi<br />

z grupy drugiej 1.<br />

4 Każda z tych grup jest następnie dzielona według tego samego<br />

kryterium i kolejno dołączane są "zera" i "jedynki" do słów<br />

kodowych.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

C 0,4<br />

B 0,18<br />

A 0,1<br />

F 0,1<br />

G 0,07<br />

E 0,06<br />

D 0,05<br />

H 0,04<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

C 0,4 0<br />

B 0,18 0<br />

A 0,1 1<br />

F 0,1 1<br />

G 0,07 1<br />

E 0,06 1<br />

D 0,05 1<br />

H 0,04 1<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

C 0,4 0 0<br />

B 0,18 0 1<br />

A 0,1 1 0<br />

F 0,1 1 0<br />

G 0,07 1 1<br />

E 0,06 1 1<br />

D 0,05 1 1<br />

H 0,04 1 1<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

C 0,4 0 0<br />

B 0,18 0 1<br />

A 0,1 1 0 0<br />

F 0,1 1 0 1<br />

G 0,07 1 1 0<br />

E 0,06 1 1 0<br />

D 0,05 1 1 1<br />

H 0,04 1 1 1<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

C 0,4 0 0<br />

B 0,18 0 1<br />

A 0,1 1 0 0<br />

F 0,1 1 0 1<br />

G 0,07 1 1 0 0<br />

E 0,06 1 1 0 1<br />

D 0,05 1 1 1 0<br />

H 0,04 1 1 1 1<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Otrzymane kody:<br />

C 0,4 0 0 =00<br />

B 0,18 0 1 =01<br />

A 0,1 1 0 0 =100<br />

F 0,1 1 0 1 =101<br />

G 0,07 1 1 0 0 =1100<br />

E 0,06 1 1 0 1 =1101<br />

D 0,05 1 1 1 0 =1110<br />

H 0,04 1 1 1 1 =1111<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Średnia długość słowa kodowego. Niech źródło wysyła N<br />

symboli s i każdy z prawdopodobieństwem P i oraz niech l i oznacza<br />

długość binarnego słowa kodowego (liczbę bitów) odpowiadającego<br />

symbolowi s i . Średnia długość słowa kodowego generowanego przez<br />

koder źródłowy definiuje się jako średnią liczbę bitów przypadającą<br />

na jeden symbol źródłowy, czyli ∑ n<br />

i=1 P il i .<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Średnia długość słowa kodowego. Niech źródło wysyła N<br />

symboli s i każdy z prawdopodobieństwem P i oraz niech l i oznacza<br />

długość binarnego słowa kodowego (liczbę bitów) odpowiadającego<br />

symbolowi s i . Średnia długość słowa kodowego generowanego przez<br />

koder źródłowy definiuje się jako średnią liczbę bitów przypadającą<br />

na jeden symbol źródłowy, czyli ∑ n<br />

i=1 P il i .<br />

W przykładzie 2 dla kodu pierwszego średnia długość słowa<br />

kodowego wynosi:<br />

L = 0, 4·3+0, 18·3+2·0, 1·3+0, 07·3+0, 06·3+0, 05·3+0, 04·3 = 3<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Średnia długość słowa kodowego. Niech źródło wysyła N<br />

symboli s i każdy z prawdopodobieństwem P i oraz niech l i oznacza<br />

długość binarnego słowa kodowego (liczbę bitów) odpowiadającego<br />

symbolowi s i . Średnia długość słowa kodowego generowanego przez<br />

koder źródłowy definiuje się jako średnią liczbę bitów przypadającą<br />

na jeden symbol źródłowy, czyli ∑ n<br />

i=1 P il i .<br />

W przykładzie 2 dla kodu pierwszego średnia długość słowa<br />

kodowego wynosi:<br />

L = 0, 4·3+0, 18·3+2·0, 1·3+0, 07·3+0, 06·3+0, 05·3+0, 04·3 = 3<br />

Średnia długość słowa kodowego dla kodu <strong>Shannona</strong>-Fano wynosi:<br />

L = 0, 4·2+0, 18·2+2·0, 1·3+0, 07·4+0, 06·4+0, 05·4+0, 04·4 = 2, 64<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Twierdzenie (<strong>Shannona</strong>)<br />

1 Przy każdym sposobie kodowania zachodzi nierówność H ≤ L.<br />

2 Dla każdego źródła można znaleźć takie kodowanie, dla<br />

którego różnica L − H będzie dowolnie mała. (Odpowiednim<br />

doborem sposobu kodowania można uzyskać dowolnie małą<br />

redundancję.)<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Twierdzenie (<strong>Shannona</strong>)<br />

1 Przy każdym sposobie kodowania zachodzi nierówność H ≤ L.<br />

2 Dla każdego źródła można znaleźć takie kodowanie, dla<br />

którego różnica L − H będzie dowolnie mała. (Odpowiednim<br />

doborem sposobu kodowania można uzyskać dowolnie małą<br />

redundancję.)<br />

Entropia H jest dolnym ograniczeniem (minimum) na średnią<br />

długość słowa kodowego jaką można osiągnąć przy optymalnym<br />

kodowaniu.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Efektywność kodowania źródłowego η definiuje się jako<br />

stosunek:<br />

η = H L<br />

Efektywność kodowania jest tym większa im więcej informacji<br />

kodowanych jest za pomocą krótszego kodu.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Różnicę R = L − H nazywamy redundancją a R = 1 − η = 1 − H L<br />

nazywamy względną redundancją kodu (podaje się je zwykle w<br />

procentach).<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Różnicę R = L − H nazywamy redundancją a R = 1 − η = 1 − H L<br />

nazywamy względną redundancją kodu (podaje się je zwykle w<br />

procentach).<br />

Przykład. Kontrola parzystości.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Różnicę R = L − H nazywamy redundancją a R = 1 − η = 1 − H L<br />

nazywamy względną redundancją kodu (podaje się je zwykle w<br />

procentach).<br />

Przykład. Kontrola parzystości.<br />

Źródło nadaje komunikaty liczbowe, przy czym poszczególne cyfry<br />

dziesiętne występują z jednakowym prawdopodobieństwem. Jako słowa<br />

kodowe dla poszczególnych cyfr wybierzemy ciągi o jednakowej długości.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Różnicę R = L − H nazywamy redundancją a R = 1 − η = 1 − H L<br />

nazywamy względną redundancją kodu (podaje się je zwykle w<br />

procentach).<br />

Przykład. Kontrola parzystości.<br />

Źródło nadaje komunikaty liczbowe, przy czym poszczególne cyfry<br />

dziesiętne występują z jednakowym prawdopodobieństwem. Jako słowa<br />

kodowe dla poszczególnych cyfr wybierzemy ciągi o jednakowej długości.<br />

Przyjmijmy tzw. kod Aikena:<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Różnicę R = L − H nazywamy redundancją a R = 1 − η = 1 − H L<br />

nazywamy względną redundancją kodu (podaje się je zwykle w<br />

procentach).<br />

Przykład. Kontrola parzystości.<br />

Źródło nadaje komunikaty liczbowe, przy czym poszczególne cyfry<br />

dziesiętne występują z jednakowym prawdopodobieństwem. Jako słowa<br />

kodowe dla poszczególnych cyfr wybierzemy ciągi o jednakowej długości.<br />

Przyjmijmy tzw. kod Aikena:<br />

=0000 =0101<br />

=0001 =0110<br />

=0010 =0111<br />

=0011 =1000<br />

=0100 =1001<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definition<br />

Różnicę R = L − H nazywamy redundancją a R = 1 − η = 1 − H L<br />

nazywamy względną redundancją kodu (podaje się je zwykle w<br />

procentach).<br />

Przykład. Kontrola parzystości.<br />

Źródło nadaje komunikaty liczbowe, przy czym poszczególne cyfry<br />

dziesiętne występują z jednakowym prawdopodobieństwem. Jako słowa<br />

kodowe dla poszczególnych cyfr wybierzemy ciągi o jednakowej długości.<br />

Przyjmijmy tzw. kod Aikena:<br />

=0000 =1011<br />

=0001 =1100<br />

=0010 =1101<br />

=0011 =1110<br />

=0100 =1111<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definition<br />

Różnicę R = L − H nazywamy redundancją a R = 1 − η = 1 − H L<br />

nazywamy względną redundancją kodu (podaje się je zwykle w<br />

procentach).<br />

Przykład. Kontrola parzystości.<br />

Źródło nadaje komunikaty liczbowe, przy czym poszczególne cyfry<br />

dziesiętne występują z jednakowym prawdopodobieństwem. Jako słowa<br />

kodowe dla poszczególnych cyfr wybierzemy ciągi o jednakowej długości.<br />

Przyjmijmy tzw. kod Aikena:<br />

=0000 =1011<br />

=0001 =1100<br />

=0011 =1101<br />

=0011 =1110<br />

=0100 =1111<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Definicja<br />

Różnicę R = L − H nazywamy redundancją a R = 1 − η = 1 − H L<br />

nazywamy względną redundancją kodu (podaje się je zwykle w<br />

procentach).<br />

Przykład. Kontrola parzystości.<br />

Źródło nadaje komunikaty liczbowe, przy czym poszczególne cyfry<br />

dziesiętne występują z jednakowym prawdopodobieństwem. Jako słowa<br />

kodowe dla poszczególnych cyfr wybierzemy ciągi o jednakowej długości.<br />

Przyjmijmy tzw. kod Aikena:<br />

=0000 =1011<br />

=0001 =1100<br />

=0011 =1101<br />

=0011 =1110<br />

=0100 =1111<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Dodajemy do kodu każdej cyfry jedną pozycję, na której<br />

dopisujemy:<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Dodajemy do kodu każdej cyfry jedną pozycję, na której<br />

dopisujemy:<br />

1, jeśli liczba jedynek na pierwszych czterech pozycjach danego<br />

słowa jest parzysta,<br />

0 w przeciwnym przypadku.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Dodajemy do kodu każdej cyfry jedną pozycję, na której<br />

dopisujemy:<br />

1, jeśli liczba jedynek na pierwszych czterech pozycjach danego<br />

słowa jest parzysta,<br />

0 w przeciwnym przypadku.<br />

=0000 1<br />

=0001 0<br />

=0010 0<br />

=0011 1<br />

=0100 0<br />

=1011 0<br />

=1100 1<br />

=1101 0<br />

=1110 0<br />

=1111 1<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Dodajemy do kodu każdej cyfry jedną pozycję, na której<br />

dopisujemy:<br />

1, jeśli liczba jedynek na pierwszych czterech pozycjach danego<br />

słowa jest parzysta,<br />

0 w przeciwnym przypadku.<br />

=0000 1<br />

=0001 0<br />

=0010 0<br />

=0011 1<br />

=0100 0<br />

=1011 0<br />

=1100 1<br />

=1101 0<br />

=1110 0<br />

=1111 1<br />

W tym kodzie żadne jednostkowe przekłamanie<br />

nie prowadzi do nieporozumień. Zmiana na<br />

jednej z czterech pierwszych pozycji dopiero w<br />

połączeniu ze zmianą na pozycji piątej (dodanej)<br />

może przeprowadzić słowo kodowe w inne słowo<br />

kodowe.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Dodajemy do kodu każdej cyfry jedną pozycję, na której<br />

dopisujemy:<br />

1, jeśli liczba jedynek na pierwszych czterech pozycjach danego<br />

słowa jest parzysta,<br />

0 w przeciwnym przypadku.<br />

=0000 1<br />

=0001 0<br />

=0010 0<br />

=0011 1<br />

=0100 0<br />

=1011 0<br />

=1100 1<br />

=1101 0<br />

=1110 0<br />

=1111 1<br />

W tym kodzie żadne jednostkowe przekłamanie<br />

nie prowadzi do nieporozumień. Zmiana na<br />

jednej z czterech pierwszych pozycji dopiero w<br />

połączeniu ze zmianą na pozycji piątej (dodanej)<br />

może przeprowadzić słowo kodowe w inne słowo<br />

kodowe.<br />

Zwiększenie redundancji poprawiło w tym przypadku<br />

niezawodność kodowania.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Dodajemy do kodu każdej cyfry jedną pozycję, na której<br />

dopisujemy:<br />

1, jeśli liczba jedynek na pierwszych czterech pozycjach danego<br />

słowa jest parzysta,<br />

0 w przeciwnym przypadku.<br />

=0000 1<br />

=0001 0<br />

=0010 0<br />

=0011 1<br />

=0100 0<br />

=1011 0<br />

=1100 1<br />

=1101 0<br />

=1110 0<br />

=1111 1<br />

W tym kodzie żadne jednostkowe przekłamanie<br />

nie prowadzi do nieporozumień. Zmiana na<br />

jednej z czterech pierwszych pozycji dopiero w<br />

połączeniu ze zmianą na pozycji piątej (dodanej)<br />

może przeprowadzić słowo kodowe w inne słowo<br />

kodowe.<br />

Zwiększenie redundancji poprawiło w tym przypadku<br />

niezawodność kodowania.<br />

Usuwanie nieprzydatnej redundancji to kompresja<br />

danych.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

średnia długość słowa kodowego L = 3 bity/symbol<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

średnia długość słowa kodowego L = 3 bity/symbol<br />

entropia źródła H = ∑ n<br />

i=1 P i log 2 P i =<br />

−2 · 0, 1 · log 2 0, 1 − 0, 18 · log 2 0, 18 − 0, 4 · log 2 0, 4 − 0, 05 − 0, 05 ·<br />

log 2 0, 05 − 0, 06 · log 2 0, 06 − 0, 07 · log 2 0, 07 − 0, 04 · log 2 0, 04 = 2, 55<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

średnia długość słowa kodowego L = 3 bity/symbol<br />

entropia źródła H = ∑ n<br />

i=1 P i log 2 P i =<br />

−2 · 0, 1 · log 2 0, 1 − 0, 18 · log 2 0, 18 − 0, 4 · log 2 0, 4 − 0, 05 − 0, 05 ·<br />

log 2 0, 05 − 0, 06 · log 2 0, 06 − 0, 07 · log 2 0, 07 − 0, 04 · log 2 0, 04 = 2, 55<br />

Efektywność kodowania wynosi η = 2,55<br />

3<br />

· 100% = 85%<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

średnia długość słowa kodowego L = 3 bity/symbol<br />

entropia źródła H = ∑ n<br />

i=1 P i log 2 P i =<br />

−2 · 0, 1 · log 2 0, 1 − 0, 18 · log 2 0, 18 − 0, 4 · log 2 0, 4 − 0, 05 − 0, 05 ·<br />

log 2 0, 05 − 0, 06 · log 2 0, 06 − 0, 07 · log 2 0, 07 − 0, 04 · log 2 0, 04 = 2, 55<br />

Efektywność kodowania wynosi η = 2,55<br />

3<br />

· 100% = 85%<br />

Zatem redundancja wynosi 15%.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

średnia długość słowa kodowego L = 3 bity/symbol<br />

entropia źródła H = ∑ n<br />

i=1 P i log 2 P i =<br />

−2 · 0, 1 · log 2 0, 1 − 0, 18 · log 2 0, 18 − 0, 4 · log 2 0, 4 − 0, 05 − 0, 05 ·<br />

log 2 0, 05 − 0, 06 · log 2 0, 06 − 0, 07 · log 2 0, 07 − 0, 04 · log 2 0, 04 = 2, 55<br />

Efektywność kodowania wynosi η = 2,55<br />

3<br />

· 100% = 85%<br />

Zatem redundancja wynosi 15%.<br />

Kod. 2.(<strong>Shannona</strong>-Fano)<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

średnia długość słowa kodowego L = 3 bity/symbol<br />

entropia źródła H = ∑ n<br />

i=1 P i log 2 P i =<br />

−2 · 0, 1 · log 2 0, 1 − 0, 18 · log 2 0, 18 − 0, 4 · log 2 0, 4 − 0, 05 − 0, 05 ·<br />

log 2 0, 05 − 0, 06 · log 2 0, 06 − 0, 07 · log 2 0, 07 − 0, 04 · log 2 0, 04 = 2, 55<br />

Efektywność kodowania wynosi η = 2,55<br />

3<br />

· 100% = 85%<br />

Zatem redundancja wynosi 15%.<br />

Kod. 2.(<strong>Shannona</strong>-Fano)<br />

Średnia długość słowa kodowego wynosi 2.64 bita/symbol<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

średnia długość słowa kodowego L = 3 bity/symbol<br />

entropia źródła H = ∑ n<br />

i=1 P i log 2 P i =<br />

−2 · 0, 1 · log 2 0, 1 − 0, 18 · log 2 0, 18 − 0, 4 · log 2 0, 4 − 0, 05 − 0, 05 ·<br />

log 2 0, 05 − 0, 06 · log 2 0, 06 − 0, 07 · log 2 0, 07 − 0, 04 · log 2 0, 04 = 2, 55<br />

Efektywność kodowania wynosi η = 2,55<br />

3<br />

· 100% = 85%<br />

Zatem redundancja wynosi 15%.<br />

Kod. 2.(<strong>Shannona</strong>-Fano)<br />

Średnia długość słowa kodowego wynosi 2.64 bita/symbol<br />

Efektywność kodowania wynosi zatem η = 2,55<br />

2.64 · 100% = 96, 6% .<br />

Zatem redundancja wynosi 3, 7%.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Porównanie efektywności kodowania.<br />

A B C D E F G H<br />

0,1 0,18 0,4 0,05 0,06 0,1 0,07 0,04<br />

Kod 1. (równa długość słów kodowych)<br />

średnia długość słowa kodowego L = 3 bity/symbol<br />

entropia źródła H = ∑ n<br />

i=1 P i log 2 P i =<br />

−2 · 0, 1 · log 2 0, 1 − 0, 18 · log 2 0, 18 − 0, 4 · log 2 0, 4 − 0, 05 − 0, 05 ·<br />

log 2 0, 05 − 0, 06 · log 2 0, 06 − 0, 07 · log 2 0, 07 − 0, 04 · log 2 0, 04 = 2, 55<br />

Efektywność kodowania wynosi η = 2,55<br />

3<br />

· 100% = 85%<br />

Zatem redundancja wynosi 15%.<br />

Kod. 2.(<strong>Shannona</strong>-Fano)<br />

Średnia długość słowa kodowego wynosi 2.64 bita/symbol<br />

Efektywność kodowania wynosi zatem η = 2,55<br />

2.64 · 100% = 96, 6% .<br />

Zatem redundancja wynosi 3, 7%.<br />

Kod <strong>Shannona</strong>-Fano jest bardziej efektywny niż kod 1.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Fundamentalne twierdzenia <strong>Shannona</strong>:<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Fundamentalne twierdzenia <strong>Shannona</strong>:<br />

Twierdzenie<br />

Niech źródło ma entropię H (bitów na symbol) oraz niech kanał<br />

komunikacyjny ma przepustowość C (bitów na sekundę). Wtedy możliwe<br />

jest zakodowanie informacji wysyłanej ze źródła przez ten kanał w taki<br />

sposób, że średnia prędkość transmisji wynosi C/H − ε symboli na<br />

sekundę, gdzie ε jest dowolnie małe. Niemożliwa jest transmisja z<br />

prędkością większą niż C/H.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Fundamentalne twierdzenia <strong>Shannona</strong>:<br />

Twierdzenie<br />

Niech źródło ma entropię H (bitów na symbol) oraz niech kanał<br />

komunikacyjny ma przepustowość C (bitów na sekundę). Wtedy możliwe<br />

jest zakodowanie informacji wysyłanej ze źródła przez ten kanał w taki<br />

sposób, że średnia prędkość transmisji wynosi C/H − ε symboli na<br />

sekundę, gdzie ε jest dowolnie małe. Niemożliwa jest transmisja z<br />

prędkością większą niż C/H.<br />

Twierdzenie<br />

Dany jest dyskretny kanał o przepustowości C oraz dyskretne źródło o<br />

entropii H. Jeśli H ≤ C to istnieje system kodowania taki, że sygnał<br />

źródła może być transmitowany przez kanał z dowolnie małą częstością<br />

błędów. Jeśli H>C, to możliwe jest zakodowanie sygnału ze źródła w taki<br />

sposób, że dwuznaczność jest mniejsza niż H − C + ε, gdzie ε jest<br />

dowolnie małe. Nie istnieje metoda kodowania, która daje mniejszą<br />

dwuznaczność niż H-C.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Cechy matematycznej teorii <strong>komunikacji</strong> <strong>Shannona</strong>:<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Cechy matematycznej teorii <strong>komunikacji</strong> <strong>Shannona</strong>:<br />

W teorii tej informacja jest tylko wybraniem jednego symbolu<br />

ze zbioru możliwych symboli.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Cechy matematycznej teorii <strong>komunikacji</strong> <strong>Shannona</strong>:<br />

W teorii tej informacja jest tylko wybraniem jednego symbolu<br />

ze zbioru możliwych symboli.<br />

Nie jest to <strong>teoria</strong> informacji w zwykłym sensie. Informacja ma<br />

w niej wyłącznie znaczenie techniczne. Teoria ta całkowicie<br />

ignoruje np. kontekst komunikatów.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Cechy matematycznej teorii <strong>komunikacji</strong> <strong>Shannona</strong>:<br />

W teorii tej informacja jest tylko wybraniem jednego symbolu<br />

ze zbioru możliwych symboli.<br />

Nie jest to <strong>teoria</strong> informacji w zwykłym sensie. Informacja ma<br />

w niej wyłącznie znaczenie techniczne. Teoria ta całkowicie<br />

ignoruje np. kontekst komunikatów.<br />

Największą ilość informacji generuje tekst, w którym<br />

prawdopodobieństwo wystąpienia każdej litery jest takie samo<br />

tzn. kompletnie losowy ciąg (paradoks małp).<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Cechy matematycznej teorii <strong>komunikacji</strong> <strong>Shannona</strong>:<br />

W teorii tej informacja jest tylko wybraniem jednego symbolu<br />

ze zbioru możliwych symboli.<br />

Nie jest to <strong>teoria</strong> informacji w zwykłym sensie. Informacja ma<br />

w niej wyłącznie znaczenie techniczne. Teoria ta całkowicie<br />

ignoruje np. kontekst komunikatów.<br />

Największą ilość informacji generuje tekst, w którym<br />

prawdopodobieństwo wystąpienia każdej litery jest takie samo<br />

tzn. kompletnie losowy ciąg (paradoks małp).<br />

Matematyczna <strong>teoria</strong> <strong>komunikacji</strong> jest teorią informacji z<br />

pominięciem jej znaczenia. Zajmuje się ona bowiem badaniem<br />

informacji na poziomie syntaktycznym.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>


Wstęp Model <strong>komunikacji</strong> Ilość informacji Entropia Kodowanie Redundancja Twierdzenia <strong>Shannona</strong> Podsumowanie<br />

Cechy matematycznej teorii <strong>komunikacji</strong> <strong>Shannona</strong>:<br />

W teorii tej informacja jest tylko wybraniem jednego symbolu<br />

ze zbioru możliwych symboli.<br />

Nie jest to <strong>teoria</strong> informacji w zwykłym sensie. Informacja ma<br />

w niej wyłącznie znaczenie techniczne. Teoria ta całkowicie<br />

ignoruje np. kontekst komunikatów.<br />

Największą ilość informacji generuje tekst, w którym<br />

prawdopodobieństwo wystąpienia każdej litery jest takie samo<br />

tzn. kompletnie losowy ciąg (paradoks małp).<br />

Matematyczna <strong>teoria</strong> <strong>komunikacji</strong> jest teorią informacji z<br />

pominięciem jej znaczenia. Zajmuje się ona bowiem badaniem<br />

informacji na poziomie syntaktycznym.<br />

Matematyczna <strong>teoria</strong> <strong>komunikacji</strong> traktuje informację jak<br />

zjawisko fizyczne, przedmiotem jej zainteresowania jest<br />

sposób kodowania i przesyłania informacji a nie jej zawartość<br />

semantyczna.<br />

Izabela Bondecka-Krzykowska Wydział Matematyki i Informatyki UAM ul. Umultowska 87 61–614 Poznań izab@amu.edu.<br />

Informacja w informatyce cz. 1 <strong>teoria</strong> <strong>komunikacji</strong> C. <strong>Shannona</strong>

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!