Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Бинарные (двоичные) каналы связи

Читайте также:
  1. A) Необходимые соглашения об эффективной связи между различными звеньями сети, реализованные в виде библиотек процедур, соответствующих уровню обработки сообщения
  2. A)&альфа-каналы
  3. Quot;Каналы" | Пространство LAB
  4. А, В, С, Е, К, М — участники инновационного процесса, О — ограничение пропускной способности канала, линии АВ, ВС, СЕ, ЕК, КМ, МВ— коммуникационные каналы
  5. А. Вспомогательные элементы для связи функций между собой
  6. Антенны связи

Бинарным называется такой дискретный канал связи, в котором передаваемые сигналы имеют два качественных признака, условно обозначаемые как 1 и 0. Если первичный алфавит X{xi} ИИ имеет более двух элементов, то для преобразования в двоичные сигналы их кодируют с помощью шифратора (см. рис.2). Процедура кодирования заключается в замене одного элемента первичного алфавита, принадлежащего ИИ, ограниченной последовательностью элементов вторичного алфавита Z{zk}, принадлежащего шифратору, где k = = 1,2,…, к3 В случае бинарного канала связи количество элементов во вторичном алфавите равно двум, то есть к3 = 2, или Z{0,1}. Информационная модель бинарного канала связи с помехами представлена на рис.5. Соответствующие канальные матрицы будут иметь вид:

Различают симметричные и несимметричные бинарные каналы. У симметричных бинарных каналов вероятности ложного приема равны, то есть

вероятности правильного приема

а потери информации учитываются при помощи условной энтропии вида

При p(1|0) <> p(0|1) каналы назавается несимметричными бинарными.

На практике часто решают задачи при заданном проценте искажений в канале связи. В случае бинарных каналов задается процентное соотношение перехода единицы в ноль и наоборот.

Ранее было отмечено, что количество передаваемой информации целиком зависит от характеристик ИИ и, в первую очередь, от свойств используемого первичного алфавита - его энтропии. Формируемые на выходе ИИ сообщения преобразуются в сигналы и передаются по СПИ получателю. Очевидно, что любые преобразования сигналов, реализованные в СПИ, не должны существенно влиять на количество передаваемой информации. Это относится и к кодированию элементов первичного алфавита X с помощью элементов вторичного алфавита Z, когда каждое кодовое слово, заменяющее один элемент первичного алфавита, представляет собой ограниченную последовательность элементов вторичного алфавита и появляется на выходе шифратора с той же средней неопределенностью, что и кодируемый элемент на выходе ИИ. Если энтропия первичного алфавита H(X), а кодовое слово содержит n элементов, то средняя неопределенности появления одного элемента вторичного алфавита на выходе шифратора равна H(X) / n. Однако можно говорить об изменении объема передаваемых данных: при отсутствии кодирования один элемент первичного алфавита передается одним сигналом, при наличии кодирования одному элементу первичного алфавита ставится в соответствие несколько сигналов. Во втором случае объем передаваемых данных в n раз больше, чем в первом.

Задача 10. По телетайпу передается текст с помощью русского алфавита. В качестве априорных данных о СПИ известна матрица совместных вероятностей p(xi,yj).

Дать заключение, можно ли определить информационные потери в канале связи СПИ и каков алгоритм вычислений.

Решение
Как известно, матрица совместных вероятностей обладает информационной полнотой. По совместным вероятностям с помощью (29) вычисляются вероятности p(xi) и p(yj) появления сообщений на выходе ИИ и на входе ПИ, соответственно. Затем с помощью формул (28) p(xi,yj) = p(xi)p(yj|xi) = p(yj)p(xi|yj) вычисляются условные вероятности:
- со стороны ИИ p(yj|xi) = p(xi,yj) / p(xi);
- со стороны ПИ p(xi|yj) = p(xi,yj) / p(yj),
которые характеризуют информационные потери в канале связи. Для их вычисления используются формулы условной энтропии (57) и (56), соответственно.


Дата добавления: 2015-07-11; просмотров: 430 | Нарушение авторских прав


Читайте в этой же книге: Цикл переработки информации | Обобщенная структура системы передачи информации | Понятие линии и канала связи | Постановка задачи | Понятие энтропии как меры неопределенности, неполноты знаний | Свойства безусловной энтропии | Условная энтропия | Свойства условной энтропии | Совместная энтропия или энтропия объединения | Дискретные источники информации и их основные характеристики |
<== предыдущая страница | следующая страница ==>
Дискретные каналы связи и их основные характеристики| Вычисление количества информации при передаче сообщений от дискретного источника информации по дискретному каналу связи

mybiblioteka.su - 2015-2024 год. (0.006 сек.)