Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Основы теории принятая статистических решений 1051 44 страница

Основы теории принятая статистических решений 1051 33 страница | Основы теории принятая статистических решений 1051 34 страница | Основы теории принятая статистических решений 1051 35 страница | Основы теории принятая статистических решений 1051 36 страница | Основы теории принятая статистических решений 1051 37 страница | Основы теории принятая статистических решений 1051 38 страница | Основы теории принятая статистических решений 1051 39 страница | Основы теории принятая статистических решений 1051 40 страница | Основы теории принятая статистических решений 1051 41 страница | Основы теории принятая статистических решений 1051 42 страница |


Читайте также:
  1. 1 страница
  2. 1 страница
  3. 1 страница
  4. 1 страница
  5. 1 страница
  6. 1 страница
  7. 1 страница

Уравнение (8.71) можно переписать для мягкого выхода в момент времени к с ну­левой начальной установкой априорного LLR L(dk). Это делается на основе предполо­жения о равной вероятности информационных битов. Следовательно,

(8.114)

где L(dk) — мягкий выход декодера, a Lc(xk) — LLR канального измерения, получае­мый из отношения функций правдоподобия p(xk\dt = /'), связанных с моделью дискрет-  

 

мации. Это внешние сведения, получаемые декодером и не зависящие от входных данных хк декодера. В идеале L,(xk) и Le(dk) искажаются некоррелированным шумом,

а следовательно, Le(dk) может использоваться как новое наблюдение dt другим деко­дером для образования итеративного процесса. Основным принципом передачи ин­формации обратно на другой декодер является то, что декодер никогда не следует за­полнять собственными данными (иначе искажения на входе и выходе будут сильно коррелировать).

Для гауссового канала в уравнении (8.114) при описании канального LLR Lc(xt) ис­пользовался натуральный логарифм, как и в уравнении (8.77). Уравнение (8.77,в) можно переписать следующим образом:

 

 

(8.115)

Оба декодера, DEC1 и DEC2, используют модифицированный алгоритм Бала [26]. Ес­ли данные L\(dk) и ук, подаваемые на вход декодера DEC2 (рис. 8.27), являются статисти­чески независимыми, то LLR L, (dk) на выходе декодера DEC2 можно переписать как

L2(dk) = f[Ll(dk)]+Le2(dk)

при

 

 

(8.117)

£

(где /[■] используется для выражения функциональной зависимости. Внешние сведе-

лия Le2 (dk) вне декодера DEC2 являются функцией последовательности

{L\{dk)\n^k. Поскольку Li(dk) зависит от наблюдения R?, внешние сведения

Lel (dk) коррелируют с наблюдениями хк и у,*. Тем не менее, чем больше значение

|и-&|, тем меньше коррелируют Щ<Ик) и наблюдениях* и ylt. Вследствие чередования

выходов декодеров DEC1 и DEC2, внешние сведения Кг Сdk) слабо коррелируют с наблюдениями хк и уи. Поэтому можно совместно использовать их для декодирования битов dk [17]. На рис. 8.27 показана процедура подачи параметра zk - Lel(dk) на де­кодер DEC1 как эффект разнесения в итеративном процессе. Вообще, Lel(dk) имеет

тот же знак, что и dk. Следовательно, Lel (dk) может увеличить соответствующее LLR

и, значит, повысить надежность каждого декодированного бита данных.

 

Контур обратной связи

Хк

Ук

Демультиплексор

Рис. 8.27. Схема декодера с обратной связью

 

Подробное описание алгоритма вычисления LLR L(dk) апостериорной вероятности

каждого бита данных было представлено несколькими авторами [17, 18, 30]. В работах [27—31] были высказаны предположения относительно снижения конструктивной слож­ности алгоритмов. Приемлемый подход к представлению процесса, дающего значения апостериорной вероятности для каждого информационного бита, состоит в реализации оценки максимально правдоподобной последовательности, или алгоритма Витерби, и вычислении ее по двум направлениям блоков кодовых битов. Если осуществлять такой двунаправленный алгоритм Витерби по схеме раздвижных окон — получатся метрики, связанные с предшествующими и последующими состояниями. В результате получим апостериорную вероятность для каждого бита данных, имеющегося в блоке. Итак, деко­дирование турбокодов можно оценить как в два раза более сложное, чем декодирование одного из составных кодов с помощью алгоритма Витерби.

8.4.5.2. Достоверность передачи при турбокодировании

В [17] приведены результаты моделирования методом Монте-Карло кодера со сте­пенью кодирования 1/2, К = 5, построенного на генераторах Gj = {11111} и, G2 = {10001}, при параллельном соединении и использовании устройства чередова­ния с массивом 256 х 256. Был использован модифицированный алгоритм Бала и‘ блок, длиной 65536 бит. После 18 итераций декодирования вероятность появления1' ошибки в бите Рв была меньше 10-5 при EJN0 = 0,7 дБ. Характер снижения вероятно-’

сти появления ошибки при увеличении числа итераций можно увидеть на рис. 8.28.,

Заметьте, что достигается предел Шеннона -1,6 дБ. Требуемая ширина полосы про­пускания приближается к бесконечности, а емкость (степень кодирования кода) при­ближается к нулю. Поэтому предел Шеннона является интересной границей с теоре­тической точки зрения, но не является практической целью. Для двоичной модуляции несколько авторов использовали в качестве практического предела Шеннона значения Рв = 1(Г5 и EjJN0 = 0,2 дБ для кода со степенью кодирования 1/2. Таким образом, при параллельном соединении сверточных кодов RSC и декодировании с обратной свя­зью, достоверность передачи турбокода при Рв = 10~5 находится в 0,5 дБ от (практического) предела Шеннона. Существует класс кодов, в которых, вместо парал­лельного, используется последовательное соединение чередуемых компонентов. Пред­полагается, что последовательное соединение кодов может дать характеристики [28], превышающие аналоги при параллельном соединении.

  Еь/No (дБ) Рис. 8.28. Вероятность появления битовой ошибки как функция Eb/N0 и количества итераций. (Источник: Вег- гои С., Glavieux A. and Thitimajshima P. “Near Shannon Limit Error-Correcting Coding and Decoding: Turbo Codes". IEEE Proc. of Int’l Conf. on Communications, Geneva, Swit­zerland, May, 1993 (ICC ’93), pp. 1064-1070.)

 

8.4.6. Алгоритм MAP

Процесс декодирования турбокода начинается с формирования апостериорных вероят­ностей (a posteriori probability — АРР) для всех информационных битов, которые затем используются для изменения значений информационных битов в соответствии с принципом максимума апостериорной (maximum a posteriori — МАР) вероятности ин­формационного бита. В ходе приема искаженной последовательности кодированных битов осуществляется схема принятия решений, основанная на значениях апостери­орных вероятностей, и алгоритм МАР для определения наиболее вероятного инфор­


мационного бита, который должен быть передан за время прохождения бита. Здесь имеется отличие от алгоритма Витерби, в котором апостериорная вероятность для ка­ждого бита данных не существует. Вместо этого в алгоритме Витерби находится наи­более вероятная последовательность, которая могла быть передана. Но в реализации обоих алгоритмов, впрочем, имеется сходство (см. раздел 8.4.6.3). Если декодирован­ное Рв мало, существует незначительное различие в производительности между алго­ритмами МАР и Витерби с мягким выходом (soft-output Viterbi algorithm — SOVA). Более того, при высоких значениях Рв и низких значениях E,JN0 алгоритм МАР пре­восходит алгоритм SOVA на 0,5 дБ и более [30, 31]. Это может оказаться очень важ­ным для турбокодов, поскольку первая итерация декодирования может давать доволь­но высокую вероятность ошибки. Алгоритм МАР основывается на той же идее, что и алгоритм Витерби, — обработка блоков кодовых битов в двух направлениях. Как только такое двунаправленное вычисление даст состояние и метрики ветвей блока, можно начинать расчет апостериорной вероятности и МАР для каждого бита данных в блоке. Здесь предлагается алгоритм МАР декодирования для систематических свер­точных кодов; полагается, что используется канал AWGN, как указано Питробоном [30]. Расчет начинается с отношения значений апостериорных вероятностей, извест­ных как отношения функций правдоподобия A(dk), или их логарифмов, L(dk), на­зываемых логарифмическими отношениями функций правдоподобия (log-likelihood ratio — LLR), как было показано в уравнении (8.110).

(8.118,а)

И

(8.118,6)

Здесь X‘f (совокупная вероятность того, что dt = i и Sk = m, при условии, что при­нята кодовая последовательность Rx, получаемая с момента к= 1 в течение некото­рого времени N) определяется уравнением (8.108) и повторно приводится ниже.

X'km = P{dk= i, Sk=m\R?},

где Rx представляет искаженную последовательность кодированных битов, передавае-

мую по каналу, демодулированную и поданную на декодер согласно мягкой схеме рег шений. В действительности, алгоритм МАР требует, чтобы последовательность на выхо-

де демодулятора подавалась на декодер по одному блоку из N бит за такт. Пусть RXt имеет следующий вид: {


R? ={R\-l,Rk,RNk+l}. (8.120)

Чтобы упростить применение теоремы Байеса, уравнение (8.119) переписывается с использованием букв А, В, С и D. Таким образом, уравнение (8.119) примет следую­щий вид:

Х'кт = P{dk =i,Sk =/n|«f ~l,Rk,Rk+l). (8.121)

A 'TC D

Вспомним, что теорема Байеса гласит следующее:

Р(А\В CD) - ПА' B'C'D) Р^А'С'

' ’ Р(В, С, D) Р(В, С, D)

Р{В\А, С, Р)Р(Р\А, С)Р(А, С) '

Р{В, С, D)

Отсюда, в приложении теоремы к уравнению (8.121), получается следующее:

Х'кт = P(R*~l\dk - i, Sk =m,RkN)P(RkN+l\dk =i,Sk =m,Rk)x xP(dk=i,Sk=m,Rk)IP(Rf),

причем Rk = {Rk, Rj?+l}. Уравнение (8.123) можно переписать, выделяя вероятност­ный член, вносящий вклад Х’кт. В следующем разделе три множителя в правой части

уравнения (8.123) будут определены и описаны как прямая метрика состояния, обрат­ная метрика состояния и метрика ветви.

8.4.6.1. Метрики состояний и метрика ветви

Первый множитель в правой части уравнения (8.123) является прямой метрикой со­стояния для момента к и состояния т и обозначается а™. Таким образом, для / = 1,0

Несущественно Несущественно

Р&\-'\ d^=i. sk=m, RГ) = P(Rkl-i(St=m)) = amt (8.124)

Следует отметить, что dk = i и Rk обозначены как несущественные, поскольку

предположение о том, что Sk-m, подразумевает, что на события до момента к не влияют измерения после момента к. Другими словами, будущее не оказывает влияния

,на прошлое; таким образом, P(Rk~l) не зависит от того, что dt = i и последователь­ность равна Rk. В то же время, поскольку кодер обладает памятью, состояние кодера

St = m основывается на прошлом, а значит, этот член является значимым и его следует оставить в выражении. Очевидно, что форма уравнения (8.124) является понятной,

поскольку представляет прямую метрику состояния ак для момента к как вероят­ность того, что прошлая последовательность зависит только от теперешнего состоя­ния, вызванного этой последовательностью и ничем более. В этом сверточном кодере нетрудно узнать уже упоминавшийся в главе 7 Марковский процесс.

Точно так же второй сомножитель в правой части уравнения (8.123) представляет собой обратную метрику состояния р™ для момента времени к и состояния т, опре­деляемую следующим выражением:

def

P{RNk + l\dk =i,Sk = m,Rk) = P(R?+1\Sk=f(i,m)) = ${%т).

Здесь Д/, т) — это следующее состояние, определяемое входом i и состоянием т, а Р{+’Г) ~ обратная метрика состояния в момент к+1 и состояния f(i, т). Ясно, что

уравнение (8.125) удовлетворяется, поскольку обратная метрика состояния |3™+1 в бу­дущий момент времени к + 1 представлена как вероятность будущей последовательно­сти,'которая зависит от состояния (в будущий момент к+ 1), которое, в свою очередь, является функцией входного бита и состояния (в текущий момент к). Это уже знако­мое основное определение конечного автомата (см. раздел 7.2.2).

Третий сомножитель в правой части уравнения (8.123) представляет собой метрику

ветви (в состоянии т, в момент времени к), которая обозначается &кт. Таким обра­зом, можно записать следующее:

def.

P(dk = i, Sk = m,Rk) = 8,km.

Подстановка уравнений <8.124)—(8.126) в уравнение (8.123) дает следующее, более компактное выражение для совокупной вероятности:


 

Используя уравнение (8.127), формулу (8.118) можно представить следующим образом:

ак°к Р* + 1

m_o, mR/(0, т)

£_1ак°к Р* + 1

Еа*5*ир*(^


Исходя из уравнения (8.124), а“ можно представить как сумму всех возможных переходов из момента к - 1.

°*= £ ZP(dk -1=j'Sk-1=т'’~ ‘,5*= т) (8Л29)

т' j = О

Я* ~1 можно переписать как {R* ~ 2Rk _ j} и, согласно теореме Байеса,

“* = Е Е - 2|5* = -1 = л л* _ О X

m' j = О

х Р(4-l=j,Sk_l=m',Rk_l\Sk=m) =

= £ P(R\ ~2,Sk_!= b(j, m))P(dk _, = j, Sk _, = b(J, in), Rk _ i), (8.130,6)

7 = 0

где b(j, m) — это состояние по предыдущей ветви, соответствующей входу j, исходящее об­ратно по времени из состояния т. Уравнение (8.130,6) может заменить уравнение (8.130,а), поскольку сведения о состоянии т и входе j в момент времени к-1 полностью определя­ют путь в состояние Sk-m. Воспользовавшись уравнениями (8.124) и (8.126) для упроще­ния обозначений в уравнении (8.130), можно получить следующее:

< = (8Л31) i = о

Уравнение (8.131) означает, что новая прямая метрика состояния т в момент к получа­ется из суммирования двух взвешенных метрик состояний в момент к-1. Взвешивание включает метрики ветвей, связанные с переходами, соответствующими информационным битам 1 и 0. На рис. 8.29, а показано применение двух разных типов обозначений для па­раметра а. Запись аиспользуется для обозначения прямой метрики состояния в мо­мент времени к- 1, если имеется два возможных предыдущих состояния (зависящих от того, равно ли j единице или нулю). А запись а™ применяется для обозначения прямой метрики состояния в момент к, если имеется два возможных перехода из предыдущего момента, которые оканчиваются в том же состоянии т в момент к.

<“ ft A Tx/nfir>*r>nui


 

 

"j= 1


 


*+ 1

б) Обратная метрика состояния


 


,т _ „b(0,m)<.0, b(0, m), „Ь (1, m) R1,b(1,m) m) s0, m, nfO.m) c1, m

’■k-O-kl] 'bk-^ +ak-1 5*-lv 1 ' “PfcV-i o* +P*+i


 


где b{], m) — прошлое состояние, соответствующее входному у

где Д/, т) — следующее состояние, определяемое входным] и состоянием т


 


Метрика ветви 8*гп=< ехр(х„ i/k + ук vk m]

А/с. #.29. Графическое представление расчета а™ и (3™. (Источник: Piet-

robon S. S. “Implementation and Performance of a Turbo/Map Decoder”. Intl. J. of Satellite Communications, vol. 16, Jan.-Feb., 1998, pp. 23—46.)

8.4.6.3. Расчет обратной метрики состояния

! Возвращаясь к уравнению (8.125), где = P[Rk + l\Sk+ l = f(i,m)], имеем

следующее:

РГ = P{Rk\Sk = m) = P(Rk, R?+,|S* = m).

P™ можно представить как сумму вероятностей всех возможных переходов в момент k+ 1.

: Е Е ~ }’^к + 1 - т'’ Rk > Rk + ll^/t - m)

m' j = 0

Применяя теорему Байеса, получим следующее:

Р* = L L‘I ■=тd* = jS* + • = m'’ Л*> Х

т j - 0

х />(^ =j,sk + l= in', Rk\Sk = m)

В первом члене правой части уравнения (8.134) Sk = m и dk=j полностью определя­ют путь, ведущий в Sk+X =f(j, т); следующее состояние будет иметь входу и состояние т. Таким образом, эти условия позволяют заменить S*+1 =т' на Sk = т во втором члене уравнения (8.134), что дает следующее:

; = °. (8.135)

= isrp»"1

J = 0

Q nLUAO ^лпмпппоимо' иЯГ'Т!-» ^


Уравнение (8.135) показывает, что новая обратная метрика состояния т в момент к, получается путем суммирования двух взвешенных метрик состояния в момент к+ 1. Взвешивание включает метрики ветвей, связанные с переходами, соответствующими информационным битам 1 и 0. На рис. 8.29, б показано применение двух разных ти­пов обозначений для параметра р. Первый тип, запись p£(+Jjm>, используется для обо­значения обратной метрики состояния в момент времени к+ 1, если имеется два воз­можных предыдущих состояния (зависящих от того, равно ли j единице или нулю). Второй тип, Р™, применяется для обозначения обратной метрики состояния в момент

к, если имеется два возможных перехода, поступающих в момент к+ 1, которые выхо­дят из того же состояния т в момент времени к. На рис. 8.29 приведены пояснения к вычислениям прямой и обратной метрик.

Алгоритм декодирования МАР подобен алгоритму декодирования Витерби (см. раз­дел 7.3). В алгоритме Витерби метрика ветви прибавляется к метрике состояния. Затем сравнивается и выбирается минимальное расстояние (максимально правдоподобное) для получения следующей метрики состояния. Этот процесс называется сложение, сравнение и выбор (Add-Compare-Select — ACS). В алгоритме МАР выполняется умножение (в лога­рифмическом представлении — сложение) метрик состояния и метрик ветвей. Затем, вме­сто сравнения, осуществляется их суммирование для вычисления следующей прямой (обратной) метрики состояния, как это видно из рис. 8.29. Различия воспринимаются на уровне интуиции. В алгоритме Витерби осуществляется поиск наиболее вероятной после­довательности (пути); следовательно, выполняется постоянное сравнение и отбор, для того чтобы отыскать наилучший путь. В алгоритме МАР выполняется поиск правдоподобного или логарифмически правдоподобного числа (в мягкой схеме); следовательно, за период времени процесс использует все метрики из всех возможных переходов, чтобы получить полную статистическую картину информационных битов в данном периоде времени.

8.4.6.4. Расчет метрики ветви

Сначала обратимся к уравнению (8.126).

s;- = =i.s,=„,*,)= (8136|

= P(Rk |dk = i,Sk = m)P(Sk =m\dk= i)P(dk = i)

Здесь Rk представляет собой последовательность {xh yt}, xk — это принятые биты дан­ных с шумом, а ук — принятые контрольные биты с шумом. Поскольку помехи влия­ют на информационные биты и биты контроля четности независимо, текущее состоя­ние не зависит от текущего входа и, следовательно, может быть одним из 2“ состоя­ний, где я) — это число элементов памяти в сверточной кодовой системе. Иными словами, длина кодового ограничения этого кода, К, равняется '0+1. Значит,

P{S = m\dk =‘) = ф

И

ът = pixk\dk = i>Sk =т)Р(.Ук\ак =isk =т)-р-> (8.137)


Из уравнения (1.25,г) в главе 1, вероятность Р(Хк = хк) того, что случайная переменная Хк примет значение хк, связана с функцией плотности вероятности рХкк) следую­щим образом:

P(Xkк) = pXk(xk)dxk.

Для упрощения обозначений случайная переменная Хк, принимающая значение хк, часто будет называться “случайной переменной х”, которая будет представлять зна­чения хк и ук в уравнении (8.137). Таким образом, для канала AWGN, в котором шум имеет нулевое среднее и дисперсию с2, при замене вероятностного члена в уравне­нии (8.137) его эквивалентом (функцией плотности вероятности) используется урав­нение (8.138), что дает следующее:


 

Здесь ик и vk представляют переданные биты данных и биты контроля четности (в би­полярной форме), a dxk и dyk являются дифференциалами хк и ук и далее будут вклю­чаться в постоянную Ак. Следует заметить, что параметр ик представляет данные, не зависящие от состояния т, поскольку код имеет память. Для того чтобы привести вы­ражение к более простому виду, нужно исключить все члены в числителе и знамена­теле и использовать сокращения; в результате получим следующее:


 


~Т {Хкик + Ук^кт)


 

 

L(dk) = Udk) + Lcк) + Le(dk). (8.141,в)

Здесь пк =п‘к1п°к является входным отношением априорных вероятностей (априорное правдоподобие), а пек — внешним выходным правдоподобием, каждое в момент вре­мени к. В уравнении (8.141,6) член пк можно считать фактором коррекции (вследствие

кодирования), который меняет входные априорные сведения о битах данных. В турбокоде такие корректировочные члены проходят из одного декодера в другой, чтобы улучшить от­ношение функций правдоподобия для каждого информационного бита и, таким образом, минимизировать вероятность появления ошибок декодирования. Следовательно, процесс


декодирования влечет за собой использование уравнения (8.141,6) для получения за не­сколько итераций Л(dk). Внешнее правдоподобие пк, получаемое из конкретной итера­ции, заменяет априорное правдоподобие %к+х для следующей итерации. Взятие логарифма от A(dk) в уравнении (8.141,6) дает уравнение (8.141,в), которое показывает те же резуль­таты, что и уравнение (8.71). Они заключаются в том, что итоговые данные L(dk) (согласно мягкой схеме принятия решений) образуются тремя членами LLR — априорным LLR, LLR канального измерения и внешним LLR.

Алгоритм МАР можно реализовать через отношение функций правдоподобия

A(dk), как показывает уравнение (8.128,а) или (8.141,в); конструкция станет менее громоздкой за счет устранения операций умножения.

8.4.7. Пример декодирования по алгоритму МАР

На рис. 8.30 изображен пример декодирования по алгоритму МАР. На рис. 8.30, а представлен систематический сверточный кодер с длиной кодового ограничения К = 3 и степенью кодирования 1/2. Входные данные — последовательность d= {1,0,0}, со­ответствующая временам к = 1,2,3. Выходная кодированная битовая последователь­ность образуется путем последовательного взятия одного бита из последовательности и= {1,0,0} вслед за битом контроля четности из последовательности v = {1, 0, 1}. В каждом случае крайний слева бит является самым первым. Таким образом, выходной последовательностью будет 1 10 0 0 1 или ее биполярное представление — +1 +1 -1 -1 -1 +1. На рис. 8.30, б видны результаты искажения последовательностей и и v векто­рами помех п* и nv, так что теперь они обозначаются как х = и + п* и у = v + nv. Как по­казано на рис. 8.30, б, входные данные демодулятора, поступающие на декодер в мо­менты к =1,2, 3, имеют значения 1,5; 0,8; 0,5; 0,2; -0,6; 1,2. Также показаны априорные вероятности того, что принятые биты данных будут равны 1 или 0, что обозначается как л1 и л°. Предполагается, что эти вероятности будут одинаковы для всех к момен­тов времени. В этом примере уже имеется вся необходимая информация для расчета метрик ветвей и метрик состояний и ввода их значений в решетчатую диаграмму декодера, изображенную на рис. 8.30, в. На решетчатой диаграмме каждый пере­ход, возникающий между временами к и к+ 1, соответствует информационному биту dk, который появляется на входе кодера в момент начала перехода к. В мо­мент времени к кодер находится в некотором состоянии т, а в момент к + 1 он переходит в новое состояние (возможно, такое же). Если использовать такую ре­шетчатую диаграмму для отображения последовательности кодовых битов (представляющих N бит данных), последовательность будет описываться N време­нами переходов и N+ 1 состояниями.

8.4.7.1. Расчет метрик ветвей

Начнем с уравнения (8.140) при п‘к = 0,5 (в данном примере информационные би­ты считаются равновероятными для любых времен). Для простоты предполагается, что А*= 1 для всех моментов и о2 = 1. Таким образом, 5Jtm примет следующий вид:

На что похожа основная функция приемника, определяемая уравнением (8.142)? Вы­ражение напоминает корреляционный процесс. В декодере в каждый момент к принима­ется пара данных (хк, относящееся к битам данных, и уь относящееся к контрольным би­там). Метрика ветви рассчитывается путем умножения принятого хк на каждый первооб­разный сигнал ик и принятого ук на каждый первообразный сигнал vk. Для каждого перехода по решетке величина метрики ветви будет функцией того, насколько согласуются пара данных, принятых с помехами, и кодовые значения битов этого перехода по решетке. При к-1 для вычисления восьми метрик ветвей (переходов из состояний т для всех зна­чений данных i) применяется уравнение (8.142). Для простоты, состояния на решетке обо­значены следующим образом: а =00, b = 10, с = 01, d= 11. Заметьте, что кодированные би­товые значения, ик, vk, каждого перехода по решетке указаны над самими переходами, как можно видеть на рис. 8.30, в (только для к- 1), и их можно получить обычным образом, используя структуру кодера (см. раздел 7.2.4.). Для переходов по решетке на рис. 8.30, в оговаривается, что пунктирные и сплошные линии обозначают информационные биты 1 и

0. Расчеты дают такие значения:

5^Га = 0,5ехр[(1,5)(1) + (0,8)(1)] = 5,0

50,т = а = 50.т = Ь = 0j5exp[(lj5)(_1) + (0,8)(-1)] = 0,05

5''ГГf = 5‘ГГ d = 0,5ехр[(1,5)(1) + (0,8)(-1)] = 1,0

5°'ГГ' = 8 °’ГГ d = 0,5ехр[(1,5)(-1) + (0,8)(1)] = 0,25

Затем эти расчеты повторяются, с помощью уравнения (8.142), для восьми метрик ветвей в момент к = 2.

5^2 = 5^2 ==0,5ехр[(0,5)(1) + (0,2)(1)] = 1,0 50. т = а = go, m = Ь = 0>5Схр[(0,5)(-1) + (0>2)(-1)] = 0,25

= ^k = 2d = 0,5ехр[(0,5)(1) + (0,2)(-1)] = 0,67 5°'Г2= f = 5°’Г2= d = 0,5ехр[(0,5)(-1) + (0,2)(1)] = 0,37 Снова расчеты повторяются для значений восьми метрик ветвей уже в момент к = 3.

5^3 =Sj.’™3 * = 0,5ехр[(-0,6)(1) + (1,2)(1)] = 0,91 5°'Г3= “ = 5^Г3= 6 = 0,5ехр[(-0,6)(-1) + (1,2)(-1)] = 0,27 5’’Г3= f = 5['Гз= = 0,5ехр[(-0,6)(1) + (1,2)(-1)] = 0,08 5°’Г3= г = 5°'Г3= 4 = 0,5ехр[(-0,6)(-1) + (1,2)(1)] = 3,0

8.4.7.2. Расчет метрик состояний

Как только при всех к рассчитаны восемь значений Ь'™, можно вычислить прямые

метрики состояний а.™, воспользовавшись рис. 8.29, 8.30, в и уравнением (8.131), ко­торое повторно приводится ниже.


Дата добавления: 2015-10-28; просмотров: 72 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Основы теории принятая статистических решений 1051 43 страница| Основы теории принятая статистических решений 1051 45 страница

mybiblioteka.su - 2015-2024 год. (0.031 сек.)