Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Основы теории принятая статистических решений 1051 35 страница

Основы теории принятая статистических решений 1051 24 страница | Основы теории принятая статистических решений 1051 25 страница | Основы теории принятая статистических решений 1051 26 страница | Основы теории принятая статистических решений 1051 27 страница | Основы теории принятая статистических решений 1051 28 страница | Основы теории принятая статистических решений 1051 29 страница | Основы теории принятая статистических решений 1051 30 страница | Основы теории принятая статистических решений 1051 31 страница | Основы теории принятая статистических решений 1051 32 страница | Основы теории принятая статистических решений 1051 33 страница |


Читайте также:
  1. 1 страница
  2. 1 страница
  3. 1 страница
  4. 1 страница
  5. 1 страница
  6. 1 страница
  7. 1 страница

7.2.1.1. Реакция кодера на импульсное возмущение

Мы можем описать кодер через его импульсную характеристику, т.е. в виде отклика кодера на единичный проходящий бит. Рассмотрим содержимое регистра (рис. 7.3) при прохождении через него двоичной- единицы.


 

Время Кодер Выход

1 1

1 О

О О

 

 

 

 

1 1

 

 

о О

Выходная последовательность: 11 10 00 10 11

Рис. 7.4. Сверточное кодирование последо­вательности сообщения со степенью коди­рования 1/2 кодером с К= 3.

 


Кодовое слово ветви Содержимое регистра u; и2

100 1 1 010 1 о

001 1 1 Входная последовательность 10 0 Выходная последовательность 11 10 11

Последовательность на выходе при единице на входе называется откликом кодера на импульсное возмущение, или его импульсной характеристикой. Для входной последо­вательности m = 1 0 1 данные на выходе могут быть найдены путем суперпозиции или линейного сложения смещенных во времени входных “импульсов”.

Вход, т Выход


можно записать полиномиальный генератор gi(X) для верхних связей и g2(Х) — для нижних.

g,(X) = l+X + X[2] g2(X) = l+X2

Здесь слагаемое самого нижнего порядка в полиноме соответствует входному разряду регистра. Выходная последовательность находится следующим образом:

U(X) = m(X)g,(X) чередуется с m(X)g2(X).

Прежде всего, выразим вектор сообщения m = 1 0 1 в виде полинома, т.е. m(X) = 1 + X2. Для очистки регистра мы снова будем предполагать использование нулей, следующих за битами сообщения. Тогда выходящий полином U(X), или выходящая последова­тельность U кодера (рис. 7.3) для входного сообщения m может быть найдена сле­дующим образом:

m(X)g,(X) = (1+Х2)(1+Х + Х2)=1+Х + Х[3] + Х4

m(X)g2(X)_ = (1+Х2)(1+Х2)=1+Х4

m(X)g,(X) = 1 + X + ОХ2 + X3 + X4

m(X)g2(X) =1 + ОХ + ОХ2 + ОХ3 + X4

U(X) = (1,1)+ (1,0)Х + (0,0)Х2 + (1,0)Х3+ (U)X4

и = 11 10 00 10 11

В этом примере мы начали обсуждение с того, что сверточный кодер можно тракто­вать как набор регистров сдвига циклического кода. Мы представили кодер в виде поли­номиальных генераторов, с помощью которых описываются циклические коды. Однако мы пришли к той же последовательности на выходе, что и на рис. 7.4, и к той же, что и в предыдущем разделе, полученной при описании реакции на импульсное возмуще­ние. (Чтобы иметь лучшее представление о структуре сверточного кода в контексте линейной последовательной схемы, обратитесь к работе [7].)

7.2.2. Представление состояния и диаграмма состояний

Сверточный кодер принадлежит классу устройств, известных как конечный авто­мат (finite-state machine). Это общее название дано системам, обладающим памя­тью о прошедших сигналах. Прилагательное конечный показывает, что существует ограниченное число состояний, которое может возникнуть в системе. Что имеется в виду под состоянием (state) в системах с конечным его числом? В более общем смысле состояние включает наименьшее количество информации, на основе ко­торой вместе с текущими входными данными можно определить данные на выхо­де системы. Состояние дает некоторое представление о прошлых событиях (сигналах) и об ограниченном наборе возможных выходных данных в будущем. Будущие состояния ограничиваются прошлыми состояниями. Для сверточного кода со степенью кодирования 1/л состояние представлено содержимым К - 1 крайних правых разрядов (рис. 7.4). Знание состояния плюс знание следующих данных на входе является необходимым и достаточным условием для определения данных на выходе. Итак, пусть состояние кодера в момент времени t, определяет­ся как X, = т, - 1, ли, — 2,..., т, - К + 1. г-я ветвь кодовых слов U, полностью опре­деляется состоянием X, и введенными в настоящее время битами т,\ таким обра­зом, состояние X, описывает предысторию кодера для определения данных на его выходе. Состояния кодера считаются Марковскими в том смысле, что вероятность Р(Х, + l^,,..., Х0) нахождения в состоянии X, + 1, определяемая всеми предыду­щими состояниями, зависит только от самого последнего состояния Х„ т.е. она равна Р(Х, + 1|Х,).

Одним из способов представления простых кодирующих устройств является диаграмма состояния (state diagram); такое представление кодера, изображенного на рис. 7.3, показано на рис. 7.5. Состояния, показанные в рамках диаграммы, представляют собой возможное содержимое К - 1 крайних правых разрядов реги­стра, а пути между состояниями — кодовые слова ветвей на выходе, являющиеся результатом переходов между такими состояниями. Состояния регистра выбраны следующими: а =00, 6 = 10, с = 01 и с? =11; диаграмма, показанная на рис. 7.5, иллюстрирует все возможные смены состояний для кодера, показанного на рис. 7.3. Существует всего два исходящих из каждого состояния перехода, соот­ветствующие двум возможным входным битам. Далее для каждого пути между со­стояниями записано кодовое слово на выходе, связанное с переходами между со­стояниями. При изображении путей, сплошной линией принято обозначать путь, связанный с нулевым входным битом, а пунктирной линией — путь, связанный с единичным входным битом. Отметим, что за один переход невозможно перейти из данного состояния в любое произвольное. Так как за единицу времени перемеща­ется только один бит, существует только два возможных перехода между состоя­ниями, в которые регистр может переходить за время прохождения каждого бита. Например, если состояние кодера — 00, при следующем смещении возможно воз­никновение только состояний 00 или 10.

  / \ I Д Входной бит 1 ч_ / 7о

 

Рис 7.5. Диаграмма состояний кодера (степень кодирования 1/2, К= 3)

Пример 7.1. Сверточное кодирование

Для кодера, показанного на рис. 7.3, найдите изменение состояний и результирующую по­следовательность кодовых слов U для последовательности сообщений ш=1 101 1,за кото­рой следует К — 1 = 2 нуля для очистки регистра. Предполагается, что в исходном состоянии регистр содержит одни нули

Кодовое слово ветви в момент времени t,

Входные Содержимое Состояние в Состояние в Я] биты, /и,- регистра момент момент

времени U времени ti +1

— ООО 00 00

1 100 00 10 1

1 110 10 11 0

0 0 11 11 0 1 0

1 10 1 0 1 10 0

1 110 10 11 О

О 0 11 11 0 1 о

О 001 01 00 1

'.♦1

Последовательность на выходе U = ll 01 01 00 01 01 11

Пример 7.2. Сверточное кодирование

В примере 7.1 исходное содержимое регистра — все нули. Это эквивалентно тому, что дан­ной последовательности на входе предшествовали два нулевых бита (кодирование является функцией настоящих информационных бит и К — 1 предыдущих бит). Повторите задание примера 7.1, предполагая, что данной последовательности предшествовали два единичных бита, и убедитесь, что теперь последовательность кодовых слов U для входной последова­тельности m = 1 1 0 1 1 отличается от последовательности, найденной в примере 7.1.

Решение

Запись “х” обозначает “неизвестно”.

Кодовое слово ветви в момент времени ti
Входные биты, т, Содержимое регистра Состояние в момент времени ti Состояние в момент времени ti+i «1 «2
1 1 X 1 X 1 1  
  1 1 1 1 1 1 1    
  1 1 1 1 1 1 1    
  0 1 1 1 1 0 1    
  1 0 1 0 1 1 0    
  1 1 0 1 0 1 1    
  0 1 1 1 1 0 1 0 г,  
    0 1      
Последовательность на выходе U = 10 10 01 00 01 01 11

 


Сравнивая эти результаты с результатами из примера 7.1, можно видеть, что каждое кодовое слово выходной последовательности U является функцией не только входного бита, но и предыдущих К - 1 бит.

7.2.3. Древовидные диаграммы

Несмотря на то что диаграммы состояний полностью описывают кодер, по сути, их нельзя использовать для легкого отслеживания переходов кодера в зависимости от времени, поскольку диаграмма не представляет динамики изменений. Древовидная диаграмма (tree diagram) прибавляет к диаграмме состояния временное измерение. Дре­вовидная диаграмма сверточного кодера, показанного на рис. 7.3, изображена на рис. 7.6. В каждый последующий момент прохождения входного бита процедура ко­дирования может быть описана с помощью перемещения по диаграмме слева напра­во, причем каждая ветвь дерева описывает кодовое слово на выходе. Правило ветвле­ния для нахождения последовательности кодовых слов следующее: если входным би­том является нуль, то он связывается со словом, которое находится путем перемещения в следующую (по направлению вверх) правую ветвь; если входной бит — это единица, то кодовое слово находится путем перемещения в следующую (по направлению вниз) правую ветвь. Предполагается, что первоначально кодер содержал одни нули. Диаграмма показывает, что если первым входным битом был нуль, то ко­довым словом ветви на выходе будет 00, а если первым входным битом была единица, то кодовым словом на выходе будет 11. Аналогично, если первым входным битом бы­ла единица, а вторым — нуль, на выходе вторым словом ветви будет 10. Если первым входным битом была единица и вторым входным битом была единица, вторым кодо­вым словом на выходе будет 01. Следуя этой процедуре, видим, что входная последо­вательность 110 11 представляется жирной линией, нарисованной на древовидной диаграмме (рис. 7.6). Этот путь соответствует выходной последовательности кодовых слов 110101000 1.

Добавленное измерение времени в древовидной диаграмме (по сравнению с диа­граммой состояния) допускает динамическое описание кодера как функции конкрет­ной входной последовательности. Однако заметили ли вы, что при попытке описания с помощью древовидной диаграммы последовательности произвольной длины возни­кает проблема? Число ответвлений растет как 2Ь, где L — это количество кодовых слов ветвей в последовательности. При большом L вы бы очень быстро исписали бумагу и исчерпали терпение.

7.2.4. Решетчатая диаграмма

Исследование древовидной диаграммы на рис. 7.6 показывает, что в этом приме­ре после третьего ветвления в момент времени г4 структура повторяется (в общем случае древовидная структура повторяется после К ответвлений, где К — длина ко­дового ограничения). Пометим каждый узел в дереве (рис. 7.6), ставя в соответствие четыре возможных состояния в регистре сдвига: а = 00, b = 10, с = 01 и d = 11. Пер­вое ветвление древовидной структуры в момент времени?, дает пару узлов, поме­ченных как а и Ь. При каждом последующем ветвлении количество узлов удваивает­ся. Второе ветвление в момент времени t2 дает в результате четыре узла, помечен­ных как а, Ь, с и d. После третьего ветвления всего имеется восемь узлов: два — а, два — Ь, два — с и два — d.


  Рис. 7.6. Древовидное представление кодера (степень кодирования 1/2, К= 3)

 

Можно видеть, что все ветви выходят из двух узлов одного и того же состояния, образуя идентичные ветви последовательностей кодовых слов. В этот момент дерево делится на идентичные верхнюю и нижнюю части. Смысл этого становится яснее после рассмотре­ния кодера, изображенного на рис. 7.3. Когда четвертый входной бит входит в кодер слева, первый входной бит справа выбрасывается и больше не влияет на кодовые слова на выходе. Следовательно, входные последовательности ЮОху... и ОООху..., где крайний левый бит является самым ранним, после (К = 3)-го ветвления генерируют одинаковые кодовые слова ветвей. Это означает, что любые состояния, имеющие одина­ковую метку в один и тот же момент t„ можно соединить, поскольку все последующие


пути будут неразличимы. Если мы проделаем это для древовидной структуры, показан­ной на рис. 7.6, получим иную диаграмму, называемую решетчатой. Решетчатая диа­грамма, которая использует повторяющуюся структуру, дает более удобное описание ко­дера, по сравнению с древовидной диаграммой. Решетчатая диаграмма для сверточного кодера, изображенного на рис. 7.3, показана на рис. 7.7

Состояние

  Условные обозначения -------- Входной бит О -------- Входной бит 1 Рис. 7.7. Решетчатая диаграмма кодера (степень кодирования 1/2, К = 3)

 

При изображении решетчатой диаграммы мы воспользовались теми же условными обозначениями, что и для диаграммы состояния: сплошная линия обозначает выходные данные, генерируемые входным нулевым битом, а пунктирная — выходные данные, ге­нерируемые входным единичным битом. Узлы решетки представляют состояния кодера; первый ряд узлов соответствует состоянию а = 00, второй и последующие — состояниям b = 10, с = 01 и d - 11. В каждый момент времени для представления 2К~1 возможных со­стояний кодера решетка требует 2К~1 узлов. В нашем примере после достижения глуби­ны решетки, равной трем (в момент времени г4), замечаем, что решетка имеет фиксиро­ванную периодическую структуру. В общем случае фиксированная структура реализует­ся после достижения глубины К. Следовательно, с этого момента в каждое состояние можно войти из любого из двух предыдущих состояний. Также из каждого состояния можно перейти в одно из двух состояний. Из двух исходящих ветвей одна соответствует нулевому входному биту, а другая — единичному входному биту. На рис. 7.7 кодовые слова на выходе соответствуют переходам между состояниями, показанными как метки на ветвях решетки.

Один столбец временного интервала сформировавшейся решетчатой структуры ко­дирования полностью определяет код. Несколько столбцов показаны исключительно для визуализации последовательности кодовых символов как функции времени. Со­стояние сверточного кодера представлено содержанием крайних правых К - 1 разря­дов в регистре кодера. Некоторые авторы описывают состояние с помощью крайних левых К -1 разрядов. Какое описание правильно? Они оба верны. Каждый переход имеет начальное и конечное состояние. Крайние правые К - 1 разрядов описывают начальное состояние для текущих входных данных, которые находятся в крайнем ле­вом разряде (степень кодирования предполагается равной 1/и). Крайние левые К - 1

разрядов являются конечным состоянием для такого перехода. Последовательность кодовых символов характеризуется N ветвями (что представляет N бит данных), зани­мающими N интервалов времени. Она связана с конкретным состоянием в каждый из N +1 интервалов времени (от начала до конца). Таким образом, мы запускаем биты в моменты времени tu t2,..., tN и интересуемся метрикой состояния в моменты времени tu t2,..., tN+ [. Здесь использовано следующее условие: текущий бит располагается в крайнем левом разряде, а крайние правые К - 1 разрядов стартуют из состояния со всеми нулями. Этот момент времени обозначим как начальное время, t\. Время завер­шения последнего перехода обозначим как время прекращения работы, tN+\.

7.3. Формулировка задачи сверточного кодирования

7.3.1. Декодирование по методу максимального правдоподобия

Если все входные последовательности сообщений равновероятны, минимальная веро­ятность ошибки получается при использовании декодера, который сравнивает услов­ные вероятности и выбирает максимальную. Условные вероятности также называют функциями правдоподобия P(Z|U<m>), где Z — это принятая последовательность, a U<m> — одна из возможных переданных последовательностей. Декодер выбирает если

P(Z|U""'>) = max P(Z|U<m))

по всем U<m>.

Принцип максимального правдоподобия, определяемый уравнением (7.1), является фундаментальным достижением теории принятия решений (см. приложение Б); это формализация способа принятия решений, основанного на “здравом смысле”, когда имеются статистические данные о вероятностях. При рассмотрении двоичной демоду­ляции в главах 3 и 4, предполагалась передача только двух равновероятных сигналов si(r) и s2(t). Следовательно, принятие двоичного решения на основе принципа макси­мального правдоподобия, касающееся данного полученного сигнала, означает, что в качестве переданного сигнала выбирается si(t), если

Р(ф])>Р(ф2)-

В противном случае считается, что передан был сигнал s2(t). Параметр z представляет со­бой величину z(T), значение принятого сигнала до детектирования в конце каждого пе­риода передачи символа t-Т. Однако при использовании принципа максимального правдоподобия в задаче сверточного декодирования, в сверточном коде обнаруживается наличие памяти (полученная последовательность является суперпозицией текущих и предыдущих двоичных разрядов). Таким образом, применение принципа максимального правдоподобия при декодировании бит данных, закодированных сверточным кодом, осуществляется в контексте выбора наиболее вероятной последовательности, как показа­но в уравнении (7.1). Обычно имеется множество возможных переданных последова­тельностей кодовых слов. Что касается двоичного кода, то последовательность из L ко­довых слов является членом набора из 21 возможных последовательностей. Следователь­но, в контексте максимального правдоподобия можно сказать, что в качестве переданной последовательности декодер выбирает l/'"0, если правдоподобие P(Z|U<'",)) больше правдоподобия всех остальных возможно переданных последовательностей. Та­кой оптимальный декодер, минимизирующий вероятность ошибки (когда все передан­ные последовательности равновероятны), известен как декодер, работающий по принципу максимального правдоподобия (maximum likelihood detector). Функция правдоподобия за­дается или вычисляется, исходя из спецификации канала.

Предположим, что мы имеем дело с аддитивным белым гауссовым шумом с нуле­вым средним, следовательно, каналом без памяти, т.е. шум влияет на каждый символ кода независимо от остальных символов. При степени кодирования сверточного кода, равной 1/л, правдоподобие можно выразить следующим образом:

P(Z|U(m)) = fl P(Z,\u}m)) = ПП P{zp\“T> • (?-2)

!=1 1=1J=1

Здесь Zj — это i-я ветвь принятой последовательности Z, и[т} — это ветвь отдельной после­довательности КОДОВЫХ СЛОВ I/"', Zji — ЭТО у'-Й КОДОВЫЙ СИМВОЛ Zj, ujm) — это у'-й кодовый символ Ufm), а каждая ветвь состоит из п кодовых символов. Задача декодирования заклю­чается в выборе пути сквозь решетку, показанную на рис. 7.7 (каждый возможный путь определяет последовательность кодовых слов), таким образом, чтобы произведение

оо п

пп P(Zji\u<f) было максимальным. (7.3)

i=i у=1

Как правило, при вычислениях удобнее пользоваться логарифмом функции прав­доподобия, поскольку это позволяет произведение заменить суммированием. Мы мо­жем воспользоваться таким преобразованием, поскольку логарифм является монотон­но возрастающей функцией и, следовательно, не внесет изменений в выбор оконча­тельного кодового слова. Логарифмическую функцию правдоподобия можно определить следующим образом:

Yu ("О = 1g P(Z|U(m)) = lg P(Z, \Ufm)) = XZ1® Kzj,\uf'). (7.4)

i=i;=ij=i

Теперь задача декодирования заключается в выборе пути вдоль дерева на рис. 7.6 или решетки на рис. 7.7 таким образом, чтобы yv(m) было максимальным. При де­кодировании сверточных кодов можно использовать как древовидную, так и решет­чатую структуру. При древовидном представлении кода игнорируется то, что пути снова объединяются. Для двоичного кода количество возможных последовательно­стей, состоящих из L кодовых слов, равно 2L. Поэтому декодирование полученных последовательностей, основанное на принципе максимального правдоподобия с ис­пользованием древовидной диаграммы, требует метода “грубой силы” или исчерпы­вающего сопоставления 2L накопленных логарифмических метрик правдоподобия, описывающих все варианты возможных последовательностей кодовых слов. Поэто­му рассматривать декодирование на основе принципа максимального правдоподо­бия с помощью древовидной структуры практически невозможно. В предыдущем разделе было показано, что при решетчатом представлении кода декодер можно по­строить так, чтобы можно было отказываться от путей, которые не могут быть кан­дидатами на роль максимально правдоподобной последовательности. Путь декоди­рования выбирается из некоего сокращенного набора выживших путей. Такой деко­


дер тем не менее является оптимальным; в том смысле, что путь декодирования та­кой же, как и путь, полученный с помощью декодера критерия максимального правдоподобия, действующего “грубой силой”, однако предварительный отказ от неудачных путей снижает сложность декодирования.

В качестве великолепного пособия для изучения структуры сверточных кодов, де­кодирования на основе критерия максимального правдоподобия и реализации кода можно порекомендовать работу [8]. Существует несколько алгоритмов, которые дают приблизительные решения задачи декодирования на основе критерия максимального правдоподобия, включая последовательный [9, 10] и пороговый [11]. Каждый из этих алгоритмов является подходящим для узкоспециальных задач; однако все они близки к оптимальному. Алгоритм декодирования Витерби, напротив, осуществляет декодиро­вание на основе критерия максимального правдоподобия шире, следовательно, явля­ется оптимальным. Это не означает, что алгоритм Витерби в любой реализации явля­ется наилучшим; при его использовании существуют жесткие условия, налагаемые на аппаратное обеспечение. Алгоритм Витерби обсуждается в разделах 7.3.3. и 7.3.4.

7.3.2. Модели каналов: мягкое или жесткое принятие решений

Перед тем как начать разговор об алгоритме, который задает схему принятия макси­мально правдоподобного решения, давайте сначала опишем канал. Последователь­ность кодовых слов U<m), определяемую словами ветви, каждое из которых состоит из п кодовых символов, можно рассматривать как бесконечный поток, в отличие от блочного кода, где исходные данные и их кодовые слова делятся на блоки строго оп­ределенного размера. Последовательность кодовых слов, показанная на рис. 7.1, выда­ется сверточным кодером и подается на модулятор, где кодовые символы преобразу­ются в сигналы. Модуляция может быть низкочастотной (например, модуляция им­пульсными сигналами) или полосовой (например, модуляция PSK или FSK). Вообще, за такт в сигнал s,(t) преобразуется I символов, где I — целое, причем i = 1, 2,..., а М = 2 [4] . Если 1 = 1, модулятор прообразует каждый кодовый символ в двоичный сигнал. Пред­полагается, что канал, по которому передается сигнал, искажает сигнал гауссовым шумом. После того как искаженный сигнал принят, он сначала обрабатывается демо­дулятором, а затем подается на декодер.

Рассмотрим ситуацию, когда двоичный сигнал передается за отрезок времени (О, Т), причем двоичная единица представляется сигналом sx(t), а двоичный нуль — сигналом s2(t). Принятый сигнал имеет вид r(i) = s,(t) + n(t), где n(t) представляет собой вклад гауссового шума с нулевым средним. В главе 3 мы описывали детектирование r(t) в два основных этапа. На первом этапе принятый сигнал переводится в число z(T) = а, + п0, где а, — это компонент сигнала z(T), а п0 — компонент шума. Компонент шума п0 — это случайная переменная, значения которой имеют гауссово распределение с нулевым средним. Следовательно, z(T) также будет случайной гауссовой величиной со средним ах или а2, в зависимости от того, какая величина была отправлена — двоич­ная единица или двоичный нуль. На втором этапе процесса детектирования принима­ется решение о том, какой сигнал был передан. Это решение принимается на основе сравнения z(T) с порогом. Условные вероятности z(T), р(ф0 и p(z\s2), показанные на рис. 7.8, обозначены как правдоподобие и s2. Демодулятор, представленный на рис. 7.1, преобразует упорядоченный по времени набор случайных переменных {z(T)} в кодовую последовательность Z и подает ее на декодер. Выход демодулятора можно


настроить по-разному. Можно реализовать его в виде жесткой схемы принятия реше­ний относительно того, представляет ли z(T) единицу или нуль. В этом случае выход демодулятора квантуется на два уровня, нулевой и единичный, и соединяется с деко­дером (это абсолютно та же схема пороговых решений, о которой шла речь в главах 3 и 4). Поскольку декодер работает в режиме жесткой схемы принятия решений, при­нятых демодулятором, такое декодирование называется жестким.

Правдоподобие S2 Правдоподобие si P(zls2) Pfzls,)   ООО 001 010 011 100 101 110 111 8-уровневая схема мягких решений

 

терпретации мягкой схемы принятия решения. Знак метрики характеризует решение (например, выбирается sb если величина положительна, и s2, если отрицательна), а величина метрики описывает степень достоверности этого решения. Преимуществом метрики, показанной на рис. 7.8, является только то, что в ней не используются от­рицательные числа.

Для гауссова канала восьмиуровневое квантование, по сравнению с двухуровне­вым, приводит в результате к улучшению на 2 дБ требуемого отношения сигнал/шум. Это означает, что восьмиуровневое квантование с мягкой схемой принятия решений может дать ту же вероятность появления ошибочного бита,, что и декодирование с же­сткой схемой принятия решений, однако требует на 2 дБ меньшего значения E,JN0 при прочих равных характеристиках. Аналоговое квантование (или квантование с беско­нечным числом уровней) дает в результате улучшение на 2,2 дБ, по сравнению с двух­уровневым; следовательно, при восьмиуровневом квантовании, по сравнению с кван­тованием с бесконечным числом уровней, теряется приблизительно 0,2 дБ. По этой причине квантование более чем на восемь уровней может дать только небольшое улучшение производительности [12]. Какова цена, которую следует заплатить за такое улучшение параметров декодирования с мягкой схемой принятия решений? В случае декодирования с жесткой схемой принятия решений, для описания каждого кодового символа используется один бит, в то время как при восьмиуровневой мягкой схеме принятия решения для описания каждого символа применяется 3 бит; следовательно, в течение процесса декодирования нужно успеть обработать в три раза больше дан­ных. Поэтому за мягкое декодирование приходится платить увеличением требуемых объемов памяти (и, возможно, возникнут проблемы со скоростью обработки).

В настоящее время существуют блочные и сверточные алгоритмы декодирования, функционирующие на основе жесткой или мягкой схемы принятия решений. Однако при блочном декодировании мягкая схема принятия решений, как правило, не ис­пользуется, поскольку ее значительно сложнее реализовать, чем схему жесткого при­нятия решений. Чаще всего мягкая схема принятия решений применяется в алгорит­ме сверточного декодирования Витерби, поскольку при декодировании Витерби мягкое принятие решений лишь незначительно усложняет вычисления.

7.3.2.1. Двоичный симметричный канал

Двоичный симметричный канал (binary symmetric channel — BSC) — это дискрет­ный канал без памяти (см. раздел 6.3.1), имеющий на входе и выходе двоичный алфа­вит и симметричные вероятности перехода. Как показано на рис. 7.9, его можно опи­сать с помощью условных вероятностей.

Д0|1) = -Р(1|0)=/>

Р(1|1) = Д0|0) = 1-р (7.5)

Вероятность того, что выходной символ будет отличаться от входного, равна р, а вероят­ность того, что выходной символ будет идентичен входному, равна (1 - р). Канал BSC яв­ляется примером канала с жесткой схемой принятия решений', это, в свою очередь, означа­ет, что даже если демодулятор получил сигнал с непрерывным значением, BSC позволяет принять только какое-то одно определенное решение, так что каждый символ z,, на выходе демодулятора, как показано на рис. 7.1, содержит одно из двух двоичных значений. Ин­дексы величины zM указывают на j-й кодовый символ /-го кодового слова Z,. Далее демоду­лятор передает последовательность Z= {Zj} на декодер.


Дата добавления: 2015-10-28; просмотров: 85 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Основы теории принятая статистических решений 1051 34 страница| Основы теории принятая статистических решений 1051 36 страница

mybiblioteka.su - 2015-2024 год. (0.02 сек.)