Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Свойства дифференциальной энтропии

Читайте также:
  1. STATGRAPHICS Plus for Windows -общие и уникальные свойства
  2. Бесконечно малые и бесконечно большие функций. Свойства.
  3. Божественные свойства Господа Иисуса Христа.
  4. Введение. Понятия информация, информационные процессы. Свойства информации. Понятие информатика. Понятие информационные технологии.
  5. Вычисление совместной энтропии
  6. Вычисление энтропии систем
  7. Глава 1. Обо всех именах превосходного свойства базовой опоры

1.Дифференциальная энтропия в отличие от энтропии дискретного источника является относительной мерой неопределенности. Её значение зависит от масштаба случайной величины , например в раз, оставив неизменным масштаб равномерной распределенной в единичном интервале случайной величины , принятой за эталон. Если , то .

Тогда

 

.

Если одновременно изменить масштаб величины , то относительная неопределенность также изменится, так как значение эталона будет уже иным.

2.Дифференциальная энтропия не зависит от конкретных значений случайной величины и, в частности, не изменения всех её значений на постоянное. Действительно, масштаб при этом не меняется и справедливо равенство

.

3.Какие же непрерывные распределения обладают максимальной дифференциальной энтропией?

а. Если единственным ограничением для случайной величины является область её возможных значений , то максимальной дифференциальной энтропией обладает равномерное распределение вероятностей в этой области.

При доказательстве решается задача определения плотности распределения , обеспечивающей максимальное значение функционала

при ограничении

.

Используя, например, метод неопределенных множителей Лагранжа, получим

, .

Нетрудно убедиться в том, что найденная функция обеспечивает максимум функционала , причём

.

б. Если ограничения на область значений непрерывной случайной величины отсутствуют, но известно, что дисперсия её ограничена, то максимальной дифференциальной энтропией обладает нормальное распределение величины .

При доказательстве решается задача определения функции , которая обеспечивает максимальное значение функционала

при ограничениях

и

,

где среднеквадратическое отклонение от математического ожидания ( заданное ограничение).

Искомую плотность распределения находят, например, методом неопределенных множителей Лагранжа.

Она называется гауссовской:

.

Вычислив функционал (40.6) для этого распределения, получим значение максимальной дифференциальной энтропии

Поскольку в информационных системах сигнал, который описывается случайной величиной , часто представляет собой электрическое напряжение (или ток), дисперсия пропорциональна средней мощности сигнала. Тогда в соответствии с (40.7) можно утверждать, что при заданной мощности наибольшей средней неопределенностью выбора будет обладать источник, который генерирует сигналы, амплитуды которых распределены по нормальному закону.

4. Соотношения для дифференциальной энтропии объединения статистически зависимых непрерывных источников аналогичны соответствующим формулам для дискретных источников:

,

где

.

Справедливость соотношения (40.9) легко проверить подстановкой (39.2), заданного для и выражения (39.4) – для .

Так как

и ,

то

,

причём равенство имеет место только в случае отсутствия статистической связи между и .


Дата добавления: 2015-12-01; просмотров: 66 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.008 сек.)