| Читайте также: 
 | 
1. Очень существенно, что условная энтропия Нα( β ) заключается между нулем и энтропией Н (β ) (безусловной):
 .
.
Это свойство хорошо согласуется со смыслом энтропии как меры неопределенности. Очевидно, что предварительное выполнение опыта α может лишь уменьшить степень неопределенности β, а в случае независимости опытов α и β степень неопределенности не изменится. Однако опыт α не может увеличить неопределенность опыта β.
2. Второе свойство  =0
 =0
Если опыт  действительно имеет вероятности исходов = Р (А1), Р (А2), …, Р (Ак) и сумма этих вероятностей = 1, то
 действительно имеет вероятности исходов = Р (А1), Р (А2), …, Р (Ак) и сумма этих вероятностей = 1, то  = 0, если все величины Н А1 (
 = 0, если все величины Н А1 ( ) = Н А2 (
) = Н А2 ( ) = … = Н Ак (
) = … = Н Ак ( ) = 0
) = 0
Суммарная энтропия такого опыта Н( ) = Н(
) = Н(  )
 )
Если мы имеем также вероятности исходов опыта   (Р(
 (Р(  )), то в этом случае величины энтропии опыта
 )), то в этом случае величины энтропии опыта  при условии опыта
 при условии опыта   в сумме будут стремиться к энтропии Н(
 в сумме будут стремиться к энтропии Н( ), т.е. в этом случае мы приходим к формуле суммирования энтропий независимых опытов.
), т.е. в этом случае мы приходим к формуле суммирования энтропий независимых опытов.
3. Третье свойство:
учитывая, что опыты   и
 и  ничем не отличаются друг от друга в своей постановке Н(
 ничем не отличаются друг от друга в своей постановке Н( )=Н(
)=Н( ) следовательно: Н(
) следовательно: Н(  )+Н
 )+Н  (
  ( )=Н(
)=Н( )+Н
)+Н  (
 (  )
 )
_______________
Дата добавления: 2015-10-21; просмотров: 80 | Нарушение авторских прав
| <== предыдущая страница | | | следующая страница ==> | 
| Энтропия сложных событий | | | Информация в сложном опыте |