Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Построение кода Шеннона - Фано

Виды и классификация каналов связи | Характеристики дискретных каналов связи | Примеры. | Характеристики непрерывных каналов связи | Примеры. |


Читайте также:
  1. Автопостроение базы каналов для обмена данными с внешними контроллерами
  2. Автопостроение базы каналов для обмена данными с другими узлами проекта
  3. адание 5. Построение диаграмм и графиков.
  4. Аксиоматическое построение теорий влияния ситуации и среды на мотивацию поведения потребителя.
  5. асчет и построение естественных механических и электромеханических характеристик асинхронного двигателя.
  6. асчет и построение механических характеристик двигателя, работающего в режиме торможения противовключением.
  7. асчет и построение механической характеристики АД по паспортным данным Мн, ωн, ω0, μп, μмах.
Буквы Двоичные знаки Кодовые комбина-ции Число знаков ni Среднее число знаков < n >= =∑ pi ni
xi pi 1-й 2-й 3-й 4-й
х 1 1/4     - -      
х 2 1/4     - -    
х 3 1/4     - -    
х 4 1/8             2,375
х 5 1/16              
х 6 1/16            

 

В рассмотренном примере < n > = 2,375, что равно энтропии источника, т.е. построенный код не имеет избыточности и, следовательно, позволяет полностью согласовать статистические характеристики источника со свойствами канала. Это оказалось возможным благодаря тому, что вероятности передачи различных букв удовлетворяют условию pi = 0,5 ni.

При невыполнении этого условия разбиение на строго равновероятные группы и подгруппы невозможно и среднее число разрядов < n > оказывается больше энтропии Н (Х). Так, например, при составлении кода Шеннона - Фано для русского алфавита число < n > = 4,45 при энтропии языка Н = 4,39 (без учета статистических связей между буквами). Особенно заметным может быть снижение эффективности кодирования при небольшом числе букв и значительном отличии их вероятностей. В таких случаях увеличение эффективности достигается путем кодирования не отдельных букв, а укрупненных блоков, которые представляют собой набор всех возможных комбинаций из 2, 3 и более букв.

Пусть, например, кодируются две буквы х 1 и х 2, имеющие вероятности р 1 = 0,9 и р 2 = 0,1 и соответствующую энтропию Н = 0,479.

При кодировании по одной букве (х 1 → 0, х 2 → 1) < n > = n = 1, что более чем в 2 раза превышает энтропию. Укрупнение кодируемых блоков позволяет существенно уменьшить величину < n >. Так, при кодировании по две буквы < n > = 0,645, а при кодировании по три буквы < n > = 0,566 (табл. 6-16), что уже близко к минимально возможному значению < n > (< n >мин = Н = 0,479).

 

Таблица 6-16


Дата добавления: 2015-08-02; просмотров: 80 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Код к примеру 1| Кодирование укрупненных блоков

mybiblioteka.su - 2015-2024 год. (0.006 сек.)