Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Количество информации. Энтропия.

Понятие информации. | Разделы информатики | Развитие информации в исторической эволюции. | Теория информации. | Свойства информации. | Формы адекватности информации | Дополнительные свойства информации | Прагматические свойства информации. | Меры количества информации | Алфавитный подход к измерению информации |


Читайте также:
  1. А) Глубину ассортимента характеризуют показатели, определяемые как произведение количества предлагаемых групп (видов) товаров на количество разновидностей в каждой группе;
  2. Более подробное наименование и количество работ указано в смете, которая является неотъемлемой частью настоящего раздела.
  3. Вероятное количество сопряжений с зазором равно
  4. Во всех маккинских сурах, начинающихся с этих букв, мы найдем, что количество этих букв выше всех остальных маккинских сур, а маданийские — маданийских.
  5. ВОПРОС 36. Эксперимент как метод сбора социологической информации.
  6. Вопрос 9. Информирование и консультирование, отношение к информации.
  7. Выставочная площадь, используемая для размещения экспонатов на выставках, играет важную роль, ее расположение и оформление непосредственно влияет на количество посетителей.

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения данного сигнала. Эту меру неопределенности в теории информации называют энтропией.

Энтропия (греч. en - в, внутрь + trope - превращение, буквально смысловой перевод: то, что внутри, неопределенно) - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы.

Если в результате получения сообщения достигается полная ясность в каком-то вопросе, то говорят, что была получена полная или исчерпывающая информация и необходимости в дополнительной информации нет. И наоборот, после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация)

Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимает эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения.

Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.

Уменьшая неопределенность, мы получаем информацию, в этом весь смысл научного познания.

Приведенные рассуждения показывают, что между понятиями информационная неопределенность и возможность выбора существует тесная связь. Так любая неопределенность предполагает возможность выбора, а любая информация уменьшающая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.


Дата добавления: 2015-07-11; просмотров: 99 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Формы сигналов.| Единицы измерения информации.

mybiblioteka.su - 2015-2024 год. (0.005 сек.)