Читайте также:
|
|
Чтобы иметь возможность измерять способность каналов передавать информацию, пользуются понятием пропускной способности канала. Пропускная способность C канала определяется максимальным количеством информации, которая может быть передана по каналу в единицу времени (бит/с).
Рассмотрим симметричный канал без памяти, в котором каждый переданный кодовый символ может быть принят ошибочно с вероятностью p и правильно с вероятностью (1 - p), причем в случае ошибки вместо переданного символа . на приемной стороне воспроизводится символ . Для симметричного канала без памяти вероятность ошибочного приема символа не зависит от того, какие символы переданы до него и как они были приняты. На рис. 11,2, а показаны вероятности перехода для двоичного симметричного канала.
Вычислим пропускную способность симметричного канала без памяти, для которого переходные вероятности заданы соотношением
(11.10)
Пропускная способность определяется общим выражением
(11.11)
где максимизация производится по всем многомерным распределениям Р(Х).
С учетом соотношения (11.10) условная энтропия вычисляется по формуле
(11.12)
где угловые скобки означают операцию статистического усреднения. Выражение (11,12) показывает, что энтропия Н(X*\Х) не зависит в данном случае от распределения вероятности величин X а определяется только переходными вероятностями канала. Это свойство справедливо для всех моделей канала с аддитивным шумом.
От распределения вероятностей Р(Х) зависит только член Н(Х*), поэтому необходимо максимизировать его. В соответствии с выражением (11.1) максимальное значение Н(Х*) равно logm и реализуется при независимых и равновероятных символах. Таким образом, пропускная способность симметричного канала без памяти определяется формулой
Для двоичного канала (m=2) имеет место минимум пропускной способности С = 0 при p = 0,5, что соответствует обрыву канала. При p =1 и p = 0 пропускная способность двоичного канала одинакова, что объясняется инверсией передаваемых символов при p = 1 по сравнению со случаем бесшумного канала (p = 0). Рис11.2
Пропускная способность канала определяет его потенциальную характеристику, которая раскрывается в основной теореме кодирования К. Шеннона, Применительно к источнику дискретных сообщений эта теорема формулируется следующим образом. Если производительность источника сообщений H’(X) меньше пропускной способности канала С:
то существует способ кодирования (преобразования сообщения в сигнал на входе канала) и декодирования (преобразования сигнала в сообщение на выходе), при котором вероятность ошибочного декодирования и ненадежность Н(Х\Х*) могут быть сколь угодно малы. Если же Н’(X)>>С, то таких способов не существует.
Теорема К. Шеннона устанавливает предельное значение скорости безошибочной передачи информации. Для восстановления переданного сообщения по принятому сигналу необходимо, чтобы сигнал содержал об этом сообщении информацию, равную энтропии сообщения. Поэтому для правильной передачи сообщения требуется, чтобы скорость ее была не меньше производительности источника.
В идеальном, по К.Шеннону, канале связи источник информации всегда согласован с каналом, т. е. производительность источника равна пропускной способности канала. Для источника, располагающего алфавитом из m символов и вырабатывающего сообщения, состоящие из n символов одинаковой длительности Т, производительность
Н'(Х) = (logm)/r.
Тогда для идеального канала
где Т — время, затрачиваемое на передачу одной двоичной единицы информации.
Информация, переданная за несколько отсчетов, максимальна, если отсчеты сигнала независимы, что достигается при равномерном спектре сигнала в полосе . Тогда, сложив величины, определяемые выражением (11.15), для 2 независимых отсчетов, получим пропускную способность С за секунду:
Из полученного выражения видно, что при неограниченной мощности сигнала пропускная способность канала неограниченно большая и равна нулю, если отношение сигнал/шум равно нулю.
Соотношение (11.16) называют формулой Шеннона.
Формула (11.16) определяет пропускную способность канала для шумовых сигналов, представляющих реализации гауссовского случайного процесса со средней мощностью Рc и равномерным спектром в полосе . Такой канал называют идеальным гауссовским каналом с ограниченной средней мощностью.
Для идеального гауссовского канаты с ограниченной пиковой мощностью сигнала пропускная способность несколько ниже, чем по формуле (11.16), и может быть представлена выражением
где — коэффициент, учитывающий ухудшение информационных свойств применяемого класса сигналов по сравнению с гауссовскими . Как показывают расчеты, для синусоидальных сигналов , для прямоугольных (для гауссовских сигналов =1).
Дата добавления: 2015-12-08; просмотров: 114 | Нарушение авторских прав