Читайте также:
|
|
1. Энтропия не может принимать отрицательных значений:
.
Это несложно доказать, т.к. 0 £р(А)£ 1, а в этом интервале функция
log p(A) всегда отрицательна.
2. Энтропия H(α) равна 0 только в том случае, когда одна из вероятностей р(А1), р(А2),… р(Аk) равна единице, а все остальное равно 0.
Это становится очевидным, так как р(А1) + р(А2) + … + р(Аk) = 1, и согласно физическому смыслу, нулевое значение энтропии возможно только в том случае, когда опыт не содержит никакой неопределенности.
3. Среди всех опытов, имеющих k исходов, наиболее неопределенным является опыт с таблицей вероятности (см.таблицу),
Исходы опыта | А1 | А2 | … | Аk |
Вероятности | 1/k | 1/k | … | 1/k |
который принято обозначать за опыт α0. В этом случае предсказать исход опыта труднее всего. Этому отвечает то обстоятельство, что опыт α0 имеет наибольшую энтропию. Данное свойство довольно часто используется, а его доказательство очень громоздкое, поэтому ограничивается утверждением: если α – произвольный опыт, имеющий k исхода (А1, А2, А3,,…, Аk,), то
_______________
Дата добавления: 2015-10-21; просмотров: 52 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Формула Шеннона | | | Энтропия сложных событий |