Читайте также:
|
|
Бинарным называется такой дискретный канал связи, в котором передаваемые сигналы имеют два качественных признака, условно обозначаемые как 1 и 0. Если первичный алфавит X{xi} ИИ имеет более двух элементов, то для преобразования в двоичные сигналы их кодируют с помощью шифратора (см. рис.2). Процедура кодирования заключается в замене одного элемента первичного алфавита, принадлежащего ИИ, ограниченной последовательностью элементов вторичного алфавита Z{zk}, принадлежащего шифратору, где k = = 1,2,…, к3 В случае бинарного канала связи количество элементов во вторичном алфавите равно двум, то есть к3 = 2, или Z{0,1}. Информационная модель бинарного канала связи с помехами представлена на рис.5. Соответствующие канальные матрицы будут иметь вид:
Различают симметричные и несимметричные бинарные каналы. У симметричных бинарных каналов вероятности ложного приема равны, то есть
вероятности правильного приема
а потери информации учитываются при помощи условной энтропии вида
При p(1|0) <> p(0|1) каналы назавается несимметричными бинарными.
На практике часто решают задачи при заданном проценте искажений в канале связи. В случае бинарных каналов задается процентное соотношение перехода единицы в ноль и наоборот.
Ранее было отмечено, что количество передаваемой информации целиком зависит от характеристик ИИ и, в первую очередь, от свойств используемого первичного алфавита - его энтропии. Формируемые на выходе ИИ сообщения преобразуются в сигналы и передаются по СПИ получателю. Очевидно, что любые преобразования сигналов, реализованные в СПИ, не должны существенно влиять на количество передаваемой информации. Это относится и к кодированию элементов первичного алфавита X с помощью элементов вторичного алфавита Z, когда каждое кодовое слово, заменяющее один элемент первичного алфавита, представляет собой ограниченную последовательность элементов вторичного алфавита и появляется на выходе шифратора с той же средней неопределенностью, что и кодируемый элемент на выходе ИИ. Если энтропия первичного алфавита H(X), а кодовое слово содержит n элементов, то средняя неопределенности появления одного элемента вторичного алфавита на выходе шифратора равна H(X) / n. Однако можно говорить об изменении объема передаваемых данных: при отсутствии кодирования один элемент первичного алфавита передается одним сигналом, при наличии кодирования одному элементу первичного алфавита ставится в соответствие несколько сигналов. Во втором случае объем передаваемых данных в n раз больше, чем в первом.
Задача 10. По телетайпу передается текст с помощью русского алфавита. В качестве априорных данных о СПИ известна матрица совместных вероятностей p(xi,yj).
Дать заключение, можно ли определить информационные потери в канале связи СПИ и каков алгоритм вычислений.
Решение
Как известно, матрица совместных вероятностей обладает информационной полнотой. По совместным вероятностям с помощью (29) вычисляются вероятности p(xi) и p(yj) появления сообщений на выходе ИИ и на входе ПИ, соответственно. Затем с помощью формул (28) p(xi,yj) = p(xi)p(yj|xi) = p(yj)p(xi|yj) вычисляются условные вероятности:
- со стороны ИИ p(yj|xi) = p(xi,yj) / p(xi);
- со стороны ПИ p(xi|yj) = p(xi,yj) / p(yj),
которые характеризуют информационные потери в канале связи. Для их вычисления используются формулы условной энтропии (57) и (56), соответственно.
Дата добавления: 2015-07-11; просмотров: 430 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Дискретные каналы связи и их основные характеристики | | | Вычисление количества информации при передаче сообщений от дискретного источника информации по дискретному каналу связи |