Читайте также:
|
|
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения данного сигнала. Эту меру неопределенности в теории информации называют энтропией.
Энтропия (греч. en - в, внутрь + trope - превращение, буквально смысловой перевод: то, что внутри, неопределенно) - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы.
Если в результате получения сообщения достигается полная ясность в каком-то вопросе, то говорят, что была получена полная или исчерпывающая информация и необходимости в дополнительной информации нет. И наоборот, после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация)
Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимает эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения.
Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.
Уменьшая неопределенность, мы получаем информацию, в этом весь смысл научного познания.
Приведенные рассуждения показывают, что между понятиями информационная неопределенность и возможность выбора существует тесная связь. Так любая неопределенность предполагает возможность выбора, а любая информация уменьшающая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.
Дата добавления: 2015-07-11; просмотров: 99 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Формы сигналов. | | | Единицы измерения информации. |