Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Свойства условной энтропии

Читайте также:
  1. I. О слове «положительное»: его различные значения определяют свойства истинного философского мышления
  2. I. Общие свойства
  3. II. Определение для каждого процесса изменения внутренней энергии, температуры, энтальпии, энтропии, а также работы процесса и количества теплоты, участвующей в процессе.
  4. Q.3. Магнитные свойства кристаллов.
  5. Адаптогенные свойства алоэ вера
  6. Адгезионные свойства фильтрационных корок буровых растворов.
  7. Базисные свойства

Свойство 1. Если ансамбли сообщений X и Y взаимонезависимы, то условная энтропия X относительно Y равна безусловной энтропии X (или наоборот):

Имеется общее выражение для полной условной энтропии

Если сообщения xi и yj взаимонезависимы, то условные вероятности отдельных сообщений равны безусловным

тогда

Свойство 2. Если ансамбли сообщений X и Y настолько жестко статистически связаны, что появление одного из них непременно подразумевает появление другого, то их условные энтропии равны нулю:

Воспользуемся свойствами вероятностей, согласно которым при полной статистической зависимости p(yj|xi) = 1 слагаемые p(yj|xi)log p(yj|xi) равны нулю. Если нулю равны отдельные слагаемые, то и сумма равна нулю, откуда

Задача 6. Известны энтропии двух зависимых ИИ: H(X) = 5 бит/элемент, H(Y) = 10 бит/элемент.

Определить, в каких пределах будет изменяться условная энтропия H(Y|X) при изменении H(X|Y) в максимально возможных пределах.

Решение
Воспользуемся графическим изображением связи между энтропиями. На рисунке видно, что максимального значения H(Y|X) достигнет при отсутствии взаимосвязи и будет равна H(Y), то есть 10 бит/элемент. По мере увеличения взаимосвязи H(Y|X) будет уменьшаться до значения H(Y) - H(X) = 10 - 5 = 5 бит/элемент. При этом H(X|Y) = 0.

Задача 7. Даны две взаимодействующие системы X и Y. Известны вероятности состояний элементов системы Y: p(y1) = 0,2; p(y2) = 0,3; p(y3) = 0,4; p(y4) = 0,1 и условные вероятности, описывающие взаимную зависимость систем,

Определить полную условную энтропию двух взаимодействующих систем.

Решение
Полная условная энтропия


Дата добавления: 2015-07-11; просмотров: 137 | Нарушение авторских прав


Читайте в этой же книге: Цикл переработки информации | Обобщенная структура системы передачи информации | Понятие линии и канала связи | Постановка задачи | Понятие энтропии как меры неопределенности, неполноты знаний | Свойства безусловной энтропии | Дискретные источники информации и их основные характеристики | Дискретные каналы связи и их основные характеристики | Бинарные (двоичные) каналы связи | Вычисление количества информации при передаче сообщений от дискретного источника информации по дискретному каналу связи |
<== предыдущая страница | следующая страница ==>
Условная энтропия| Совместная энтропия или энтропия объединения

mybiblioteka.su - 2015-2024 год. (0.007 сек.)