10.04.2015 Views

НАУЧНЫЕ УНИВЕРСАЛИИ - На главную - Санкт-Петербургский ...

НАУЧНЫЕ УНИВЕРСАЛИИ - На главную - Санкт-Петербургский ...

НАУЧНЫЕ УНИВЕРСАЛИИ - На главную - Санкт-Петербургский ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

ответ. Шеннон искал путь измерения количества информации,<br />

генерированной сообщением и количество информации, переданное<br />

потребителю (среднее количество, передаваемое через канал). Со<br />

времени его работ стало привычно думать об измерении информации в<br />

терминах уменьшения неопределенности. Информацию<br />

идентифицируют с уменьшением неопределенности или с<br />

уничтожением возможностей, представляющих существование<br />

события или положение дел. Количество информации отождествляется<br />

с тем, как много возможностей элиминируется. Если событие<br />

однозначно и не может быть иначе, то в нем содержится минимальная<br />

информация и, наоборот.<br />

Рассмотрим вариант определения информации как<br />

противоположности энтропии – то есть негэнтропии. Под энтропией<br />

принято понимать беспорядок, дезорганизацию, хаотизацию системы,<br />

т.е. состояния с высокой степенью вероятности поведения. Согласно<br />

определению Л.Больцмана, энтропия является функцией состояния<br />

термодинамической системы. Энтропия Больцмана должна быть<br />

положительной. Он связал понятие энтропии с термодинамической<br />

вероятностью состояния макросистемы. Что будет, если мы с<br />

помощью перегородки сдвинем все молекулы в сосуде с газом в<br />

верхнюю часть сосуда, а затем уберем перегородку. Любой школьник<br />

скажет, что в этом случае молекулы газа с высокой вероятностью<br />

распространятся по всему сосуду, то есть займут весь<br />

предоставленный им объем бесчисленным количеством способов. В<br />

данном случае хаотизация в поведении молекул газа достигнет высшей<br />

точки, следовательно, энтропия достигнет своей предельной<br />

величины.<br />

Впервые понятия энтропии и информации связал Шеннон. В<br />

1948 г. он предложил формулу для вычисления количества<br />

информации для событий с различными вероятностями. Если I -<br />

количество информации, К - количество возможных событий, р i -<br />

вероятности отдельных событий, то количество информации для<br />

событий с различными вероятностями можно определить по формуле:<br />

I = - Sum р i log 2 р i , где i принимает значения от 1 до К. С его подачи<br />

энтропия стала использоваться как мера полезной информации в<br />

процессах передачи сигналов по проводам. Под информацией Шеннон<br />

понимал сигналы, полезные для получателя. Прочие сигналы, с точки<br />

зрения Шеннона, являлись шумом, помехами. Как и функционалисты,<br />

Шеннон и его последователи считали, что если сигнал на выходе<br />

канала связи является точной копией сигнала на входе, то это означает<br />

минимум энтропии. Таким образом, отсутствие шума (энтропии)<br />

261

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!