Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Дискретные каналы связи и их основные характеристики

Читайте также:
  1. A) Необходимые соглашения об эффективной связи между различными звеньями сети, реализованные в виде библиотек процедур, соответствующих уровню обработки сообщения
  2. A)&альфа-каналы
  3. I. Основные подсистемы автоматизированной информационной системы управления персоналом.
  4. I. Основные положения
  5. I. Основные функции и функциональные задачи управления фирмой.
  6. I. Основные химические законы.
  7. II Философская концепция Э.Фромма: основные позиции, критика и переосмысление источников, открытия.

Дискретный канал связи СПИ можно описать с помощью условной энтропии. Примем, что ансамбли ИИ и ПИ имеют вид, соответственно, где к1= к2= к:

Тогда понятие частной условной энтропии H(Y|xi) выражает неопределенность того, что, в результате отправки xi, может быть получено любое сообщение из ансамбля Y. Понятие частной условной энтропии H(X|yj) выражает неопределенность того, что в результате получения yj могло быть отправлено любое сообщение из ансамбля X. Отмеченное представим в виде графической модели рис.4.

При передаче посылается сообщение xi. Если в канале связи присутствуют помехи, то с различной степенью вероятности может быть принято любое из сообщений yj. И наоборот, при приеме сообщение yj может появиться в результате отправки любого из сообщений xi. Если в канале связи помехи отсутствуют, то всегда посланному сообщению xi соответствует принятое сообщение yj, x1 - y1,…, xК - yК. При этом энтропия ПИ равна энтропии ИИ. Если в канале связи присутствуют помехи, то они уничтожают или искажают часть передаваемых сообщений. Статистическое описание каналов связи удобно производить при помощи канальных матриц.

Если канал связи описывается со стороны ИИ (то есть известно посланное сообщение), то вероятность того, что при передаче сообщения xi будет принято сообщение yj обозначается как условная вероятность p(yj|xi), а канальная матрица имеет вид (44).

Расположенные по диагонали вероятности определяют вероятности правильного приема, остальные - ложного. Если помехи отсутствуют, то диагональные вероятности равны единице, а внедиагональные - нулю. Вероятности каждой строки матрицы описывают события, состоящие в прохождении конкретного сообщения со стороны ИИ и составляющие полную группу событий с присущим ей свойством - равенством единице всех вероятностей, то есть

По вероятностям каждой строки (44) вычисляютя частные условные энтропии

Полная условная энтропия, которая характеризует канал связи со стороны ИИ, при известных вероятностях появления сообщений на выходе ИИ равна

В выражении (47) учитываются вероятности появления каждого сообщения на выходе ИИ (на входе канала связи). Это соответствует среднему значению множества частных условных энтропий. Если ансамбль сообщений ИИ равновероятный, то есть:

то выражение (47) примет вид

Деление на к отражает суть энтропии как неопределенности на один элемент.

Если канал связи описывается со стороны ПИ (то есть известно принятое сообщение), то вероятность того, что при приеме сообщения yj было передано сообщение xi обозначается как условная вероятность p(xi|yj), а канальная матрица примет вид (50).

Как и в матрице (44) расположенные по диагонали вероятности соответствуют правильному приему, остальные - ложному, а если помехи отсутствуют, то диагональные вероятности равны единице, а внедиагональные - нулю. Вероятности каждого столбца матрицы описывают события, состоящие в приеме конкретного сообщения на стороне ПИ и составляющие полную группу событий с присущим ей свойством - равенством единице всех вероятностей, то есть

Частные и полная условные энтропии для рассматриваемого случая будут иметь вид, соответственно:

и при равновероятном ансамбле сообщений ПИ

Следует иметь в виду, что все канальные матрицы квадратные, то есть выборочные пространства ИИ и ПИ одинаковые.

Задача 9. При передаче 100 элементов, соответствующих числу 7, статистика принятых элементов распределилась следующим образом: число 7 было принято 90 раз; число 5 - 4 раза; число 9 - 3 раза; число 10 - 2 раза; число 4 - 1 раз.

Определить, чему равна неопределенность того, что при передаче числа 7 будет принято число 7?

Решение Обозначим ансамбль сообщений ИИ через X{xi} и ансамбль ПИ через Y{yj}. Судя по условию, требуется вычислить частную условную энтропию H(Y|xi), а для этого требуется определить условные вероятности p(yj|xi), то есть:
p(y7|x7) = 0,9; p(y5|x7) = 0,04; p(y9|x7) = 0,03; p(y10|x7) = 0,02; p(y4|x7) = 0,01, тогда частная условная энтропия будет равна

Пусть сообщения ансамбля X передаются с выхода ИИ на вход канала связи, подверженного влиянию помех. Принимаемые на входе ПИ сообщения являются лишь отражением истинных сообщений. Поэтому принимаемые сообщения можно рассматривать как некоторый ансамбль Y. До начала процесса передачи средняя неопределенность появления любого одного сообщения ансамбля X характеризуется энтропией первичного алфавита

HДО ПЕРЕДАЧИ = H(X). (55)

После передачи о посланном сообщении ансамбля X судят по принятому сообщению ансамбля Y. Например, принято сообщение y1. При отсутствии помех в канале связи с уверенностью можно утверждать, что было послано соответствующее ему сообщение x1. Но наличие помех не позволяет делать такой однозначный вывод. Можно все еще предполагать, что, было послано x1, но и одновременно допускать возможность посылки любого другого сообщения, то есть после получения y1 остается некоторая доля неопределенности (неуверенности) относительно истинности принятого сообщения. Полученная при этом информация меньше той, которая была бы получена при отсутствии помех, на величину этой остаточной неопределенности (неуверенности). Остаточная неопределенность характеризует потерю информации в результате воздействия помех на переданное ИИ сообщение. Эта потеря информации определяется средней условной энтропией ансамбля X

HПОСЛЕ ПЕРЕДАЧИ = H(X|Y). (56)

С другой стороны, если известно переданное сообщение x1, то можно предполагать, что на приемной стороне будет получено соответствующее ему сообщение y1, и одновременно допускать возможность приема любого другого сообщения из ансамбля Y, то есть после отправки x1 остается доля неопределенности в получения на приемной стороне истинного сообщения. Эта остаточная неопределенность характеризует потерю информации в канале связи с помехами, которая определяется средней условной энтропией ансамбля Y

HПОСЛЕ ПЕРЕДАЧИ = H(Y|X). (57)


Дата добавления: 2015-07-11; просмотров: 309 | Нарушение авторских прав


Читайте в этой же книге: Цикл переработки информации | Обобщенная структура системы передачи информации | Понятие линии и канала связи | Постановка задачи | Понятие энтропии как меры неопределенности, неполноты знаний | Свойства безусловной энтропии | Условная энтропия | Свойства условной энтропии | Совместная энтропия или энтропия объединения | Вычисление количества информации при передаче сообщений от дискретного источника информации по дискретному каналу связи |
<== предыдущая страница | следующая страница ==>
Дискретные источники информации и их основные характеристики| Бинарные (двоичные) каналы связи

mybiblioteka.su - 2015-2024 год. (0.009 сек.)