Читайте также:
|
|
1. Очень существенно, что условная энтропия Нα( β ) заключается между нулем и энтропией Н (β ) (безусловной):
.
Это свойство хорошо согласуется со смыслом энтропии как меры неопределенности. Очевидно, что предварительное выполнение опыта α может лишь уменьшить степень неопределенности β, а в случае независимости опытов α и β степень неопределенности не изменится. Однако опыт α не может увеличить неопределенность опыта β.
2. Второе свойство =0
Если опыт действительно имеет вероятности исходов = Р (А1), Р (А2), …, Р (Ак) и сумма этих вероятностей = 1, то = 0, если все величины Н А1 () = Н А2 () = … = Н Ак () = 0
Суммарная энтропия такого опыта Н() = Н( )
Если мы имеем также вероятности исходов опыта (Р( )), то в этом случае величины энтропии опыта при условии опыта в сумме будут стремиться к энтропии Н(), т.е. в этом случае мы приходим к формуле суммирования энтропий независимых опытов.
3. Третье свойство:
учитывая, что опыты и ничем не отличаются друг от друга в своей постановке Н()=Н() следовательно: Н( )+Н ()=Н()+Н ( )
_______________
Дата добавления: 2015-10-21; просмотров: 80 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Энтропия сложных событий | | | Информация в сложном опыте |