Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Теорема Шеннона.

Читайте также:
  1. II закон термодинамики. Теорема Карно-Клаузиуса
  2. Доказательство. Теорема.
  3. Интегральная теорема Лапласа
  4. Котельников теоремасы бойынша санақ шығарудың жиілігін таңдау
  5. ЛЕКЦИЯ 12. ТЕОРЕМА О ПЛОТНОСТИ СУММЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН
  6. ЛЕКЦИЯ 18. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА
  7. ЛЕКЦИЯ 6. ИНТЕГРАЛЬНАЯ ТЕОРЕМА МУАВРА–ЛАПЛАСА, ТЕОРЕМА БЕРНУЛЛИ

 

В большинстве случаев знаки сообщений преобразуются в последовательности двоичных символов. В рассмотренных устройствах это преобразование выполнялось без учета статистических характеристик поступающих сообщений.

Учитывая статистические свойства источника сообщения, можно минимизировать среднее число символов, требующихся для выражения одного знака сообщения, что при отсутствии шума позволяет уменьшить время передачи или объем запоминающего устройства.

Эффективное кодирование сообщений для передачи их по дискретному каналу без помех базируется на теореме Шеннона, которую можно сформулировать так:

1.При любой производительности источника сообщений, меньшей пропускной способности канала, т. е. при условии

 

, (9.1.1)

 

где — сколь угодно малая, положительная величина, существует способ кодирования, позволяющий передавать по каналу все сообщения, вырабатываемые источ­ником, - пропускная способность дискретного канала связи.

2.Не существует способа кодирования, обеспечивающего передачу сообщений без их неограниченного накопления, если .

Поскольку строгое математическое доказательство относительно сложно, убедимся в справедливости теоремы, основываясь на эвристических соображениях.

В основе доказательства лежит идея возможности повышения скорости передачи информации по каналу, если при кодировании последовательности символов ставить в соответствие не отдельным знакам, а их последовательностям такой длины, при которой справедлива теорема об их асимптотической равновероятности. При этом, естественно, в первую очередь подлежат кодированию типичные последовательности.

Если количество знаков в кодируемой последовательности равно , а энтропия источника — , то число типичных последовательностей

 

. (9.1.2)

 

Так как , где длительность кодируе­мой последовательности; — длительность одного знака, то

 

. (9.1.3)

 

Каждой типичной последовательности нужно поставить в соответствие кодовую комбинацию той же продолжительности из символов с объемом алфавита .При скорости манипуляции число символов в кодовой комбинации составит , что позволяет образовать различных кодовых комбинаций, причем

 

. (9.1.4)

 

Сравнение (9.1.3) и (9.1.4) показывает, что . Следовательно, если , то кодовых комбинаций, про­пускаемых каналом, достаточно для того, чтобы закодировать все типичные последовательности знаков, причем останется еще некоторый излишек.

Нетипичным последовательностям в принципе могут быть поставлены в соответствие кодовые комбинации со значительно большим числом символов. Для различения эти комбинации в начале и конце сопровождаются кодовыми комбинациями, взятыми из излишка, не использованного для кодирования типичных последовательностей. Однако всем нетипичным последовательностям можно ставить в соответствие и одну и ту же кодовую комбинацию из указанного излишка, предопределяя их недостоверную передачу.

Поскольку при вероятность появления нетипичной последовательности стремится к нулю, в первом случае это никак не отразится на эффективности передачи, а во втором — на уровне надежности отождествления принятых комбинаций с действительно переданными.

Отметим, что, ограничиваясь кодированием типичных последовательностей, вероятности которых равны, мы обеспечиваем равновероятное и независимое поступление символов на вход канала, что соответствует полному устранению избыточности в передаваемом сообщении.

Справедливость второй части теоремы, указывающей на невозможность осуществления передачи при , следует из определения пропускной способности канала как максимально достижимой скорости передачи информации, взятой по всему множеству источников заданного класса. Поэтому если пропускная способность канала меньше производительности источника, то неизбежно на­копление сообщений на передающей стороне.

Рассматриваемая теорема Шеннона часто приводится и в другой формулировке: сообщения источника с энтропией всегда можно закодировать последовательностями символов с объемом алфавита так, что среднее число символов на знак сообщения будет сколь угодно близко к величине , но не менее ее.

Данное утверждение обосновывается также указа­нием на возможную процедуру кодирования, при которой обеспечивается равновероятное и независимое поступление символов на вход канала, а, следовательно, и максимальное количество переносимой каждым из них информации, равное . Как мы установили ранее, в общем случае это возможно, если кодировать сообщения длинными блоками. Указанная граница достигается асимптотически при безграничном увеличении длины кодируемых блоков.

В частности, при двоичном кодировании среднее число символов на знак сообщения может быть уменьшено до значения, равного энтропии источника, выраженной в дв. ед. .


Дата добавления: 2015-07-08; просмотров: 168 | Нарушение авторских прав


Читайте в этой же книге: Определение скорости передачи информации и пропускной способности дискретного канала с помехами. | Задание. | Общая характеристика помех в системах передачи информации. | Корректирующая способность кода. | Помехоустойчивость простого кода при передаче под воздействием помех. | Циклический код. | Задание. | Функциональная схема преобразователя | Временная диаграмма работы преобразователя. | Код Шеннона-Фано. |
<== предыдущая страница | следующая страница ==>
Квантование.| Методы эффективного кодирования некорреляционной последовательности знаков.

mybiblioteka.su - 2015-2024 год. (0.01 сек.)