Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Основы теории принятая статистических решений 1051 43 страница

Основы теории принятая статистических решений 1051 32 страница | Основы теории принятая статистических решений 1051 33 страница | Основы теории принятая статистических решений 1051 34 страница | Основы теории принятая статистических решений 1051 35 страница | Основы теории принятая статистических решений 1051 36 страница | Основы теории принятая статистических решений 1051 37 страница | Основы теории принятая статистических решений 1051 38 страница | Основы теории принятая статистических решений 1051 39 страница | Основы теории принятая статистических решений 1051 40 страница | Основы теории принятая статистических решений 1051 41 страница |


Читайте также:
  1. 1 страница
  2. 1 страница
  3. 1 страница
  4. 1 страница
  5. 1 страница
  6. 1 страница
  7. 1 страница

ld,},lp9} = 100 1 1 1 1 1. (8.79)

Если информационные биты выражаются через значения биполярного электриче­ского напряжения +1 и -1, соответствующие логическим двоичным уровням 1 и 0, то переданная последовательность будет следующей:


{di}, {pij} = +1, -1, -1, +1, +1, +1, +1, +1.

Допустим теперь, что помехи преобразуют эту последовательность информации и контрольных данных в принятую последовательность

{л:,}, {Xij} = 0,75,0,05, 0,10, 0,15, 1,25, 1,0, 3,0, 0,5, (8.80)

где компоненты {*/}, {х#} указывают переданную информацию и контрольные данные {dj}, {рц\. Таким образом, следуя позиционному описанию, принятую последователь­ность можно записать следующим образом:

{Xi}, {.Гу } Х„ Х2, Х3, Х4, Х,2, *34, *13, Х24.

Из уравнения (8.78) предполагаемые канальные измерения дают следующие зна­чения LLR:

{Lc(xi)}, { Lc(x,j)} = 1,5, 0,1, 0,20, 0,3, 2,5, 2,0, 6,0, 1,0. (8.81)

Эти величины показаны на рис. 8.23, б как входные измерения декодера. Следует за­метить, что (при равной априорной вероятности переданных данных) если принима­ются жесткие решения на основе значений {**} или {Lc(xk)}, описанных ранее, то та­кой процесс должен в результате давать две ошибки, поскольку и d2, и </3 могут быть неправильно трактованы как двоичная 1.

8.4.3.2. Внешние функции правдоподобия

В случае композиционного кода, изображенного на рис. 8.23, при выражении мяг­кого выхода для принятого сигнала, соответствующего данным du используется урав­нение (8.71), так что

Цd,) = Lc{xx) + L(dx) + {[ Lcг) + Щг)] ffl Lc(xlz)}, (8.82)

где члены {[L,(x2) + L(d2)\ ЕВ Lc(xn)} представляют внешнее LLR, распределенное кодом (т.е. прием соответствующих данных d2 и их априорной вероятности совместно с приемом соответствующей четности р12). В общем случае мягким выходом l\d-^ для принятого сигнала, соответствующего данным d„ будет

Ш,) = Lc(х,) + L(dt) + {[Lc(xj) + Udj)]S Lc(Xij)}, (8.83)

где Lc(xd, Lc(Xj) и Ьс(х„) — канальное измерение LLR приема соответствующих dh dj и Pij. Lid,), L(dj) — LLR для априорных вероятностей dt и dj, {[Lc(Xj) + L(dj)\ ЕБ Lc(xjj)} — внешнее распределение LLR для кода. Уравнения (8.82) и (8.83) становятся понятнее при рассмотрении рис. 8.23, б. В данной ситуации, если считать, что происходит рав­новероятная передача сигнала, мягкий выход L(dx) представляется измерением LLR детектора £./*,)= 1,5 для приема, соответствующего данным du плюс внешнее LLR [Lf(jc2) + Щ2) ffl Lc(xn) = 2,5], получаемое в результате того, что данные d2 и четность р{2 также дают сведения о данных du как это показывают уравнения (8.75) и (8.76).


8.4.3.3. Вычисление внешних функций правдоподобия

Для случая, показанного на рис. 8.23, горизонтальная часть расчетов для получения Leh Сd) и вертикальная часть расчетов для получения Lev(d) выглядят следующим образом:

A;a(^i) = \.Lc(x2)+ L(d2)\ ® ^Лх\г) > (g

Lev(^i) = [Lc3) + L(d$)] ЕВ Lc(x13), ^.g g^

Leh(d2) = [Lc(xj) + L(dy)] EB Lc(xl2), ^g g^ ^

Lev(d2) = [Lc(x4)+ L(d4)] ffl Lc (x2A), (g g5 g)

Leh(d3) = [Lc(xA) + L(d,)\ EB Lc(x3i), gg

Lev (d3) = [ Lc (xj) + L(d{)] Ш Lc (x13), (8.86,6)

Leh(di) = [Lc(x3) + L(d3)] EB Lc(x34), ^g ^

Lev(d4)=[Lc(x2) + Ш2))Ш Lc(*24). g7 ^

Значения LLR, показанные на рис. 8.23, входят в выражение для Leh(d) в уравне­ниях (8.84)-(8.87). Подразумевая передачу сигналов равновероятной, а начальную ус­тановку значения L(d) равной нулю, получаем следующее:

Leh Wi) = [0,1 + 0] ЕВ 2,5 = -ОД — новое L(d{), ^

Leh(d2) = [1,5 + 0] ЕВ 2,5 = -1,5 — новое L(d,), ^ gg^

Leh(d3) = [0,3 + 0] ffl 2,0 = -0,3 — новое L(d,), ^ д(^

Leh(d4) = [0,2 + 0] EB 2,0 = -0,2 —новое L{d\), (8 91)

где сложения логарифма функции правдоподобия производятся, исходя из приближе­ния, показанного в уравнении (8.73). Далее, продолжая первое вертикальное вычисле­ние, используются выражения для Lev(d) из уравнений (8.84)-(8.87). Теперь значение

L(d) можно обновить, исходя из нового значения L(d), полученного из первого верти­кального вычисления, показанного в уравнениях (8.88)—(8.91):

Lev(dy) = [0,2-0,3] ЕВ 6,0 = 0,1 — новое Ud\), ^ 92)

Lev (d2) = [0,3 - 0,2] ЕЗ 1,0 = -0,1 — новое L(d2), ^ дз^

Lev (d3) = [1,5 - ОД] ЕВ 6,0 = -1,4 — новое Щъ), ^ д4^

4v(^4) = [ОД-1.5] ЕВ 1,0 = 1,0 — новое Ш4). ^ д5^

Результаты первой полной итерации двух этапов декодирования (горизонтального и вертикального) будут следующими:


 

Lev(d) после первого горизонтального декодирования

0,1 -0,1
-1,4 1,0

 

Lev(d) после первого вертикального декодирования

Каждый этап декодирования улучшает исходные LLR, которые основываются только на канальных измерениях. Это видно из расчетов выходного LLR декодера с помощью уравнения (8.74). Исходное LLR и внешние горизонтальные LLR вместе дают следующее улучшение (внешний вертикальный член еще не рассматривался).

Улучшение LLR из-за Leh(d)

1,4 -1,4
-0,1 0,1

 

Исходное LLR совместно с горизонтальным и вертикальным внешним LLR дает следующее улучшение.

Улучшение LLR из-за Leh (d) + Lev (d)

1,5 -1,5
-1,5 1,1

 

В данном случае можно видеть, что сведений, полученных лишь из горизонталь­ного декодирования, достаточно для получения правильного жесткого решения вне декодера, но с низкой степенью доверия к битам данных d3 и dA. После включения внешних вертикальных LLR в декодер новые значения LLR появляются на более вы­соком уровне надежности и доверия. Пусть будет произведена еще одна вертикальная и одна горизонтальная итерация декодирования, чтобы определить наличие или от­сутствие существенных изменений в результатах. Снова на помощь приходят отноше­ния из уравнений (8.84)—(8.87), и далее следует горизонтальное вычисление для полу­чения Leh(d) с новым L(d) из первого вертикального расчета, показанного в уравне­ниях (8.92)-(8.95), так что получаем следующее:

Leh(d{) = [ОД-0,1] Ш 2,5 = 0 — новое Щ{) (8.96)

Leh{d2) = [1,5 - 0,1] ЕВ 2,5 = -1,6 — новое Щг) (8.97)

Leh 0*з) = [°>3 ~ 1.03 Н 2,0 = -1,3 — новое Щъ) (8.98)


Leh (dd = t°>2 -!>41 ffl 2,0 =1,2 — новое Щл) ^ gg^

Затем необходимо выполнить второе вертикальное вычисление для получения Lev(d) с новым L(d), полученным из второго горизонтального расчета, показанного в уравнениях (8.96)—(8.99), что приводит к следующему:

Lev(rfi)=[0,2-1,3]EB6,0 = U новоеL(d{), ^qqj

Lev(d2) = [0,3 +1,2] ЕВ 1,0 = -1,0 — новое L(d2), 101^

Lev (d3) = [1,5 + 0] ЕВ 6,0 = -1,5 — новое Щъ), ^ 1Q2)

Lev (d4) = [0,1 -1,6] ffl 1,0 = 1,0 — новое Щ4). (8 Ш3)

Вторая итерация вертикального и горизонтального декодирования, дающая упомя­нутые выше величины, отражается на мягких выходных LLR, которые снова рассчи­тываются из уравнения (8.74), переписанного следующим образом:

L(d) = Lc(x) + Leh(d) + Lev(d). jq^

Горизонтальные и вертикальные LLR из уравнений (8.96)-(8.103) и итоговое LLR декодера показаны ниже. В данном примере вторые итерации, горизонтальная и вер­тикальная, что в целом дает всего четыре итерации, показывают скромный прирост, по сравнению с одной вертикальной и горизонтальной итерацией. Результаты пока­зывают, что доверительные значения сохраняются для каждого из четырех данных.

Исходные измерения Lc{x)


 

 

L^id) после второго горизонтального декодирования

1,1 -1,0
-1,5 1,0

 

Leh(d) после второго вертикального декодирования

Мягкий выход равен L(d) = Lc(x) + Leh (d) + Lev(d), который после всех четырех ите­раций дает следующие значения L(d):

2,6 -2,5
-2,6 2,5

 


 

В результате видно, что получены правильные решения по каждому биту дан­ных и уровень доверия к этим решениям высок. Итеративное декодирование тур­бокодов напоминает процесс решения кроссвордов. Первый проход по кроссвор­ду, вероятно, содержит несколько ошибок. Некоторые слова нуждаются в подгон­ке, но когда буквы в нужных строках и столбцах не подходят, нужно вернуться и исправить слова, вписанные после первого прохода.

8.4.4. Кодирование с помощью рекурсивного систематического кода

Ранее были описаны основные идеи сочетаний, итераций и мягкого декодирова­ния на примере простого композиционного кода. Затем эти идеи применялись при реализации турбокодов, которые образуются в результате параллельных соче­таний сверточных кодов [17, 20].

Далее наступает очередь обзора простых двоичных сверточных кодеров со степе­нью кодирования 1/2, длиной кодового ограничения К и памятью порядка К- 1. На вход кодера в момент к, подается бит db и соответствующим кодовым словом будет битовая пара (uh vk), где

AT — 1

м* = ^ gi, dk _, по модулю 2, gu = 0,1 (8.105)

i = 0

и

AT — 1

V4 = X &2i dk - i по модулю 2, g2i = 0,1. (8.106)

1 = 0

Gi = {gi,} и G2 = {gu} — генераторы кода, a dk представлен как двоичная цифра. Этот кодер можно представить как линейную систему с дискретной конечной им­пульсной характеристикой (finite impulse response — FIR), порождающую хорошо знакомый несистематический сверточный (nonsystematic convolutional — NSC) код, разновидность которого показана на рис. 8.24. Соответствующую решетчатую структуру можно увидеть на рис. 7.7. В данном случае длина кодового ограниче­ния равна К = 3 и используются два генератора кода — Gi = {111} и G2 = {101}. Хорошо известно, что при больших значениях EJNq достоверность передачи с ко­дом NSC выше, чем у систематического кода с той же памятью. При малых зна­чениях Еь/No существует обходной путь [17]. В качестве составляющих компонен­тов для турбокода был предложен класс сверточных кодов с бесконечной им­пульсной характеристикой [17]. Такие же компоненты используются в рекурсивных систематических сверточных (recursive systematic convolutional — RSC) кодах, поскольку в них предварительно кодированные биты данных посто­янно должны подаваться обратно на вход кодера. При высоких степенях кодиро­вания коды RSC дают значительно более высокие результаты, чем самые лучшие коды NSC, при любых значениях EJNq. Двоичный код RSC со степенью кодиро­вания 1/2 получается из кода NSC с помощью контура обратной связи и установ­ки одного из двух выходов («* или vt) равным dk. На рис. 8.25, а показан пример такого RSC-кода с К = 3, где а* получается из рекурсивной процедуры


ак = dk + 2] S', ak -, по модулю 2, (8.107)

1 = 0

a g' равно gu, если ut = dk, и g2i — если vt = dk. На рис. 8.25, б изображена решетчатая структура RSC-кода, представленного на рис. 8.25, а.

  Рис. 8.24. Несистематический сверточный код (nonsystematic convolutional — NSC)

 

  Рис. 8.25а. Рекурсивный систематический сверточный код (recursive systematic convo­lutional — RSC)

 

Кодовое слово ветви и v   Рис. 8.256. Решетчатая структура RSC- кода, представленного на рис. 8.25, а

 

Считается, что входной бит dv с одинаковой вероятностью может принимать как значение 1, так и 0. Кроме того, {ak} показывает те же статистические вероятности, что и{dk} [17]. Просвет одинаков у RSC-кода (рис. 8.25, а) и NSC-кода (рис. 8.24). Точно так же совпадает их решетчатая структура по отношению к переходам между состояниями и соответствующим входным битам. Впрочем, у RSC- и NSC-кодов две


выходные последовательности {ик} и {vt} не соответствуют той же входной последова­тельности {dk}. Можно сказать, что при тех же генераторах кода распределение весо­вых коэффициентов кодовых слов RSC-кодера не изменяется, по сравнению с рас­пределением весовых коэффициентов кодовых слов NSC-кодера. Единственное раз­личие состоит в отображении между входной и выходной последовательностями данных.

Пример 8.5. Рекурсивные кодеры и их решетчатые диаграммы

а) Используя RSC-кодер (рис. 8.25, а), проверьте справедливость участка решетчатой струк­туры (диаграммы), изображенного на рис. 8.25, б.

б) Для кодера, указанного в п. а, начиная с последовательности данных {dk} = 1 1 10, по­этапно покажите процедуру кодирования до нахождения выходного кодового слова.

Решение

а) Для кодеров NSC содержимое регистра и переходы между состояниями отслеживаются непосредственно. Но если кодер является рекурсивным, следует быть очень аккуратным. В табл. 8.5 содержится 8 строк, соответствующих 8 возможным переходам в данной сис­теме, образованной из 4-х состояний. Первые четыре строки представляют переходы, когда входной информационный бит dk является двоичным нулем, а последние четы­ре — переходы, в которых dk является единицей. В данном случае процедуру кодирова­ния с помощью табл. 8.5 и рис. 8.25 можно поэтапно описать следующим образом.

1. В момент введения произвольного входного бита, к, состояние перед переходом (начальное) определяется содержимым двух крайних разрядов регистра, а именно — ак-1 и ак-2.

2. В любой строке таблицы (переход на решетке) поиск содержимого разряда ак выпол­няется сложением (по модулю 2) битов dk, ак. \ и ак.2 в этой строке.

3. Выходная кодовая последовательность битов, ukvk, для каждого возможного началь­ного состояния (т.е. а = 00, Ь = 10, с = 01 и d = 11) находится путем прибавления (по модулю 2) ака ак-г к dk = ик.

Таблица 8.5. Проверка участка решетки с рис. 8.25, б
Входной бит Текущий бит Начальное состояние Кодовые биты Конечное состояние
dk = ик ак Ок-1 Лк-2 и* И ак Як-1
               
               
               
              -1
               
            о -  
            0 ' '  
               

 

Нетрудно убедиться, что элементы табл. 8.5 соответствуют участку решетки, изображен­ному на рис. 8.25, б. При использовании для реализации составных кодов регистров сдвига у турбокодеров проявляется интересное свойство, которое заключается в том, что два перехода, входящие в состояние, не соответствуют одному и тому же входному би­товому значению (т.е. в данное состояние не входят две сплошные или две пунктирные линии). Это свойство проявляется, если полиномиальное описание обратной связи реги-


стра сдвига имеет все порядки или одна из линий обратной связи выходит из разряда более высокого порядка, в данном случае ак. г-

б) Существует два способа реализации кодирования входной информационной последова­тельности {cf*} = 1 1 10. Первый состоит в применении решетчатой диаграммы, а дру­гой — в использовании цепи кодера. Воспользовавшись участком решетки, изображен­ным на рис. 8.25, б, мы выбираем переход по пунктирной линии (представляющий дво­ичную единицу) из состояния а = 00 (естественный выбор начального состояния) в следующее состояние b - 10 (которое подходит в качестве стартового для следующего входного бита). Следует заметить, что биты показаны на этом переходе как выходная ко­довая последовательность 11. Эта процедура повторяется для каждого входного бита. Другой способ предполагает построение таблицы, такой как табл. 8.6, на основе цепи кодера, изображенной на рис. 8.25, а. Здесь время к показано от начала до конца всей процедуры (5 моментов времени и 4 временных интервала). Табл. 8.6 записывается в следующем порядке.

1. В произвольный момент времени бит данных dk начинает преобразовываться в ак пу­тем суммирования его (по модулю 2) с битами ак-\ и ак-г в той же строке.

2. Например, в момент времени к = 2 бит данных dk = 1 преобразуется в ак = 0 путем суммирования его с битами ак-1 и ак-г в той же строке к = 2.

3. Итоговый выход ukvk= 10, определяемый логической схемой кодера, является кодовой би­товой последовательностью, связанной со временем к = 2 (в действительности — интерва­лом между к = 2 и к = 3).

4. В момент к = 2 содержимое крайних правых разрядов ак-\ак-г (10) представляет со­бой состояние системы в начале этого перехода.

5. Конечное состояние этого перехода представляется содержимым двух крайних левых регистров акак~ \ в той же строке (01). Поскольку сдвиг битов происходит слева на­право, это конечное состояние перехода в момент к = 3 будет представлено как стар­товое в следующей строке.

6. Каждая строка описывается аналогично. Таким образом, в последнем столбце табл. 8.6 можно будет увидеть кодированную последовательность 1110110 0.

Таблица 8.6. Кодирование битовой последовательности с помощью кодера, изображенного на рис. 8.25, а

Время Входной бит Первый разряд Состояние в момент к Кодовые биты
к dk = ик ак Ок-1 Ок-2 щ И
             
             
             
             
             

 

8.4.4.1. Конкатенация кодов RSC

Рассмотрим параллельную конкатенацию двух RSC-кодеров, подобных изобра­женному на рис. 8.25. Хороший турбокод строится из составных кодов с небольшой длиной кодового ограничения (К = 3-5). В качестве примера такого турбокодера мож­но взять кодер, показанный на рис. 8.26, где переключатель vk делает степень кодиро­вания всего кода равной 1/2. Без переключателя степень кодирования кода будет рав-

на 1/3. Ограничений на количество соединяемых кодеров нет. Составные коды долж­ны иметь одинаковую длину кодового ограничения и степень кодирования. Целью разработки турбокода является наилучший подбор составных кодов путем минимиза­ции просвета кода [21]. При больших значениях Et/N0 это эквивалентно максимиза­ции минимального весового коэффициента кодовых слов. Хотя при низких значениях Ei/N0 (область, представляющая наибольший интерес) оптимизация распределения ве­совых коэффициентов кодовых слов является более важной, чем их максимизация или минимизация [20].

  Рис. 8.26. Схема параллельного соединения двух RSC-кодеров

 

Турбокодер, изображенный на рис. 8.26, выдает кодовые слова из каждого из двух своих составных кодеров. Распределение весовых коэффициентов кодовых слов без такого параллельного соединения зависит от того, сколько кодовых слов из одного со­ставного кодера комбинируется с кодовыми словами из другого составного кодера.

Интуитивно понятно, что следует избегать спаривания кодовых слов с малым ве­совым коэффициентом из одного кодера с кодовыми словами с малым весовым ко­эффициентом из другого кодера. Большого количества таких спариваний можно из­бежать, сконфигурировав надлежащим образом устройство чередования. Устройство, которое обрабатывает данные случайным образом, более эффективно, чем рассмот­ренное ранее блочное устройство чередования [22].

Если составной кодер не рекурсивный, входная последовательность с единичным1 весовым коэффициентом (0 0... 0 0 1 0 0... 0 0) всегда будет генерировать кодовое слово с малым весовым коэффициентом на входе второго кодера, при любой конст­рукции устройства чередования. Иначе говоря, устройство чередования не сможет по­влиять на выходное распределение весовых коэффициентов кодовых слов, если со­ставные коды не рекурсивные. Впрочем, если составные коды рекурсивные, входная последовательность с единичным весовым коэффициентом генерирует бесконечную импульсную характеристику (выход с бесконечным весовым коэффициентом). Следо­вательно, при рекурсивных кодах входная последовательность с единичным весовым

коэффициентом не дает кодового слова с минимальным весовым коэффициентом вне кодера. Кодированный выходной весовой коэффициент сохраняется конечным только при погашении решётки, процессе, принуждающем кодированную последователь­ность к переходу в конечное состояние таким образом, что кодер возвращается к ну­левому состоянию. Фактически сверточный код преобразуется в блочный.

Для кодера, изображенного на рис. 8.26, кодовое слово с минимальным весовым коэффициентом для каждого составного кодера порождается входной последователь­ностью с весовым коэффициентом 3 (0 0... О 0 1 1 1 0 0 0... О 0) и тремя последова­тельными единицами. Другая последовательность, порождающая кодовые слова с ма­лым весом, представлена последовательностью с весом 2 (0 0... 0 0 1 0 0 1 0 0... 0 0). Однако после перестановок, внесенных устройством чередования, любая из этих опасных структур имеет слабую вероятность появления на входе второго кодера, что делает маловероятной возможность комбинирования одного кодового слова с малым весом с другим кодовым словом с малым весом.

Важным аспектом компоновки турбокодов является их рекурсивность (систематический аспект незначителен). Это бесконечная импульсная характеристика, присущая кодам RSC, которая является защитой от генерации кодовых слов с малым весом, не поддающихся исправлению в устройстве чередования. Можно обсудить то, что производительность турбокодера сильно поддается влиянию со стороны кодовых слов с малым весом, производимых входной последовательностью с весом 2. В защиту этого можно сказать, что входную последовательность с весом 1 можно проигнориро­вать, поскольку она дает кодовые слова с большим весом из-за бесконечной импульс­ной характеристики кодера. Для входной последовательности, имеющей вес 3 и более, правильно сконфигурированное устройство чередования делает вероятность появле­ния кодовых слов с малым весом на выходе относительно низкой [21—25].

8.4.5. Декодер с обратной связью

Использование алгоритма Витерби является оптимальным методом декодирования для минимизации вероятности появления ошибочной последовательности. К сожале­нию, этот алгоритм (с жесткой схемой на выходе) не подходит для генерации апосте­риорной вероятности (a posteriori probability — АРР) или мягкой схемы на выходе для каждого декодированного бита. Подходящий для этой задачи алгоритм был предложен Балом и др. [26]. Алгоритм Бала был модифицирован Берру и др. [17] для использова­ния в кодах RSC. Апостериорную вероятность того, что декодированный бит данных

dk = можно вывести из совместной вероятности I!'™, определяемой как

X'km = P{dk =i, Sk = m\R\ },

где Sk = m — состояние кодера в момент времени к, a — принятая двоичная по-

следовательность за время от к = 1 в течение некоторого времени N.

Таком образом, апостериорная вероятность того, что декодированный информаци­онный бит dk = i представляется как двоичная цифра, получается путем суммирования совокупных вероятностей по всем состояниям.

  т

 

(8.109)


Далее логарифмическое отношение функций правдоподобия (log-likelihood ratio — LLR) переписывается как логарифм отношения апостериорных вероятностей.

 

 

 

 

(8.110)

 

 

т

Декодер осуществляет схему решений, известную как решающее правило максиму­ма апостериорной вероятности (maximum a posteriori — МАР), путем сравнения

L(dk) с нулевым пороговым значением.

dk = 1, если L{dk)> О dk= 0, если L(dk) < 0

Для систематического кода LLR L(dk), связанное с каждым декодированным би­том dk, можно описать как сумму LLR для dk вне демодулятора и других LLR, по­рождаемых декодером (внешние сведения), как показано уравнениями (8.72) и (8.73). Рассмотрим детектирование последовательности данных с помехами, исходящей из кодера, изображенного на рис. 8.26, с помощью декодера, представленного на рис. 8.27. Предполагается, что используется двоичная модуляция и дискретный гаус­сов канал без памяти. Вход декодера формируется набором Rk из двух случайных пе­ременных хк и ук. Для битов dk и vk, которые в момент времени к представляются дво­ичными числами (1, 0), переход к принятым биполярным импульсам (+1, -1) можно записать следующим образом:

xk — (2dk - 1) + ik

и

Ук — (2 У* — 1) + qk-

Здесь ik и qk являются двумя случайными статистически независимыми переменными с одинаковой дисперсией а2, определяющей распределение помех. Избыточная ин­формация ук разуплотняется и пересылается на декодер DEC1 как у, если vt = vlt, и на декодер DEC2 как у, если vk = v2k. Если избыточная информация начальным деко­дером не передается, то вход соответствующего декодера устанавливается на нуль. Следует отметить, что выход декодера DEC1 имеет структуру чередования, аналогич­ную структуре, использованной в передатчике между двумя составными кодерами. Это связано с тем, что информация, обрабатываемая декодером DEC1, является не­измененным выходом кодера С1 (искаженной канальным шумом). И наоборот, ин­формация, обрабатываемая декодером DEC2, является искаженным выходом кодера С2, вход которого составляют как раз те данные, что поступают в С1, но обработаны устройством чередования. Декодер DEC2 пользуется выходом декодера DEC1, обеспе­чивая такое же временное упорядочение этого выхода, как и входа С2 (т.е. две после­довательности в декодере DEC2 должны придерживаться позиционной структуры сигналов в каждой последовательности).


Дата добавления: 2015-10-28; просмотров: 76 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Основы теории принятая статистических решений 1051 42 страница| Основы теории принятая статистических решений 1051 44 страница

mybiblioteka.su - 2015-2024 год. (0.024 сек.)