Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Пропускная способность канала

Читайте также:
  1. Анализ канала связи
  2. Ассоциативность бренда -способность товарного знака вызывать в сознании потребителя представление о маркируемом товаре, о его свойствах или о его географическом происхождении.
  3. Безопасность и жизнеспособность операционных систем. Надстройки операционных систем. Расширение возможностей пользователя.
  4. БИОРИТМЫ И РАБОТОСПОСОБНОСТЬ
  5. Благодать - это способность жить в свободе от нечестия и мирских желаний. Это сила, дающая возможность жить в святости перед Богом.
  6. В ЭЛЕКТРОННОЙ ФОРМЕ ПО ТЕЛЕКОММУНИКАЦИОННЫМ КАНАЛАМ СВЯЗИ
  7. Валютный курс, сложившийся на соотношении внутренних и внешних цен по отдельным группам товаров с высокой экспортно-импортной способностью, - это___ валютный курс

Чтобы иметь возможность измерять способность каналов передавать ин­формацию, пользуются понятием пропускной способности канала. Пропуск­ная способность C канала определяется максимальным количеством инфор­мации, которая может быть передана по каналу в единицу времени (бит/с).

Рассмотрим симметричный канал без памяти, в котором каждый передан­ный кодовый символ может быть принят ошибочно с вероятностью p и пра­вильно с вероятностью (1 - p), причем в случае ошибки вместо переданного символа . на приемной стороне воспроизводится символ . Для симмет­ричного канала без памяти вероятность ошибочного приема символа не зави­сит от того, какие символы переданы до него и как они были приняты. На рис. 11,2, а показаны вероятности перехода для двоичного симметричного канала.

Вычислим пропускную способность симметричного канала без памяти, для которого переходные вероятности заданы соотношением

(11.10)

Пропускная способность определяется общим выражением

(11.11)

где максимизация производится по всем многомерным распределениям Р(Х).

С учетом соотношения (11.10) условная энтропия вычисляется по формуле

(11.12)

где угловые скобки означают операцию статистического усреднения. Выраже­ние (11,12) показывает, что энтропия Н(X*\Х) не зависит в данном случае от распределения вероятности величин X а определяется только переходными ве­роятностями канала. Это свойство справедливо для всех моделей канала с аддитивным шумом.

От распределения вероятностей Р(Х) зависит только член Н(Х*), поэтому необходимо максимизировать его. В соответствии с выражением (11.1) мак­симальное значение Н(Х*) равно logm и реализуется при независимых и рав­новероятных символах. Таким образом, пропускная способность симметрич­ного канала без памяти определяется формулой

Для двоичного канала (m=2) имеет место минимум пропускной спо­собности С = 0 при p = 0,5, что соот­ветствует обрыву канала. При p =1 и p = 0 пропускная способность двоич­ного канала одинакова, что объясняет­ся инверсией передаваемых символов при p = 1 по сравнению со случаем бесшумного канала (p = 0). Рис11.2

Пропускная способность канала определяет его потенциальную характе­ристику, которая раскрывается в основной теореме кодирования К. Шеннона, Применительно к источнику дискретных сообщений эта теорема формулирует­ся следующим образом. Если производительность источника сообще­ний H’(X) меньше пропускной способности канала С:

то существует способ кодирования (преобразования сообщения в сигнал на входе канала) и декодирования (преобразования сигнала в сообщение на выходе), при котором вероятность ошибочного декодирова­ния и ненадежность Н(Х\Х*) могут быть сколь угодно малы. Если же Н’(X)>>С, то таких способов не существует.

Теорема К. Шеннона устанавливает предельное значение скорости безошибочной передачи информации. Для восстановления переданного сообщения по принятому сигналу необходимо, чтобы сигнал содержал об этом сообщении информацию, равную энтропии сообщения. Поэтому для правильной передачи сообщения требуется, чтобы скорость ее была не меньше производительности источника.

В идеальном, по К.Шеннону, канале связи источник информации всегда согласован с каналом, т. е. производительность источника равна пропускной способности канала. Для источника, располагаю­щего алфавитом из m символов и вырабатывающего сообщения, со­стоящие из n символов одинаковой длительности Т, производитель­ность

Н'(Х) = (logm)/r.

Тогда для идеального канала

где Т — время, затрачиваемое на передачу одной двоичной единицы информа­ции.

Информация, переданная за несколько отсчетов, максимальна, если от­счеты сигнала независимы, что достигается при равномерном спектре сигнала в полосе . Тогда, сложив величины, определяемые выражением (11.15), для 2 независимых отсчетов, получим пропускную способность С за секунду:

Из полученного выражения видно, что при неограниченной мощности сигнала пропускная способность канала неограниченно большая и равна нулю, если отношение сигнал/шум равно нулю.

Соотношение (11.16) называют формулой Шеннона.

Формула (11.16) определяет пропускную способность канала для шумовых сигналов, представляющих реализации гауссовского случайного процесса со средней мощностью Рc и равномерным спектром в полосе . Такой канал называют идеальным гауссовским каналом с ограниченной средней мощ­ностью.

Для идеального гауссовского канаты с ограниченной пиковой мощностью сигнала пропускная способность несколько ниже, чем по формуле (11.16), и может быть представлена выражением

где — коэффициент, учитывающий ухудшение информационных свойств применяемого класса сигналов по сравнению с гауссовскими . Как показывают расчеты, для синусоидальных сигналов , для прямо­угольных (для гауссовских сигналов =1).


Дата добавления: 2015-12-08; просмотров: 114 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.007 сек.)