Читайте также: |
|
Уравнение (8.71) можно переписать для мягкого выхода в момент времени к с нулевой начальной установкой априорного LLR L(dk). Это делается на основе предположения о равной вероятности информационных битов. Следовательно,
(8.114)
где L(dk) — мягкий выход декодера, a Lc(xk) — LLR канального измерения, получаемый из отношения функций правдоподобия p(xk\dt = /'), связанных с моделью дискрет- |
мации. Это внешние сведения, получаемые декодером и не зависящие от входных данных хк декодера. В идеале L,(xk) и Le(dk) искажаются некоррелированным шумом,
а следовательно, Le(dk) может использоваться как новое наблюдение dt другим декодером для образования итеративного процесса. Основным принципом передачи информации обратно на другой декодер является то, что декодер никогда не следует заполнять собственными данными (иначе искажения на входе и выходе будут сильно коррелировать).
Для гауссового канала в уравнении (8.114) при описании канального LLR Lc(xt) использовался натуральный логарифм, как и в уравнении (8.77). Уравнение (8.77,в) можно переписать следующим образом:
(8.115)
Оба декодера, DEC1 и DEC2, используют модифицированный алгоритм Бала [26]. Если данные L\(dk) и ук, подаваемые на вход декодера DEC2 (рис. 8.27), являются статистически независимыми, то LLR L, (dk) на выходе декодера DEC2 можно переписать как
L2(dk) = f[Ll(dk)]+Le2(dk)
при
(8.117)
£
(где /[■] используется для выражения функциональной зависимости. Внешние сведе-
лия Le2 (dk) вне декодера DEC2 являются функцией последовательности
{L\{dk)\n^k. Поскольку Li(dk) зависит от наблюдения R?, внешние сведения
Lel (dk) коррелируют с наблюдениями хк и у,*. Тем не менее, чем больше значение
|и-&|, тем меньше коррелируют Щ<Ик) и наблюдениях* и ylt. Вследствие чередования
выходов декодеров DEC1 и DEC2, внешние сведения Кг Сdk) слабо коррелируют с наблюдениями хк и уи. Поэтому можно совместно использовать их для декодирования битов dk [17]. На рис. 8.27 показана процедура подачи параметра zk - Lel(dk) на декодер DEC1 как эффект разнесения в итеративном процессе. Вообще, Lel(dk) имеет
тот же знак, что и dk. Следовательно, Lel (dk) может увеличить соответствующее LLR
и, значит, повысить надежность каждого декодированного бита данных.
Контур обратной связи |
Хк |
Ук |
Демультиплексор |
Рис. 8.27. Схема декодера с обратной связью |
Подробное описание алгоритма вычисления LLR L(dk) апостериорной вероятности
каждого бита данных было представлено несколькими авторами [17, 18, 30]. В работах [27—31] были высказаны предположения относительно снижения конструктивной сложности алгоритмов. Приемлемый подход к представлению процесса, дающего значения апостериорной вероятности для каждого информационного бита, состоит в реализации оценки максимально правдоподобной последовательности, или алгоритма Витерби, и вычислении ее по двум направлениям блоков кодовых битов. Если осуществлять такой двунаправленный алгоритм Витерби по схеме раздвижных окон — получатся метрики, связанные с предшествующими и последующими состояниями. В результате получим апостериорную вероятность для каждого бита данных, имеющегося в блоке. Итак, декодирование турбокодов можно оценить как в два раза более сложное, чем декодирование одного из составных кодов с помощью алгоритма Витерби.
8.4.5.2. Достоверность передачи при турбокодировании
В [17] приведены результаты моделирования методом Монте-Карло кодера со степенью кодирования 1/2, К = 5, построенного на генераторах Gj = {11111} и, G2 = {10001}, при параллельном соединении и использовании устройства чередования с массивом 256 х 256. Был использован модифицированный алгоритм Бала и‘ блок, длиной 65536 бит. После 18 итераций декодирования вероятность появления1' ошибки в бите Рв была меньше 10-5 при EJN0 = 0,7 дБ. Характер снижения вероятно-’
сти появления ошибки при увеличении числа итераций можно увидеть на рис. 8.28.,
Заметьте, что достигается предел Шеннона -1,6 дБ. Требуемая ширина полосы пропускания приближается к бесконечности, а емкость (степень кодирования кода) приближается к нулю. Поэтому предел Шеннона является интересной границей с теоретической точки зрения, но не является практической целью. Для двоичной модуляции несколько авторов использовали в качестве практического предела Шеннона значения Рв = 1(Г5 и EjJN0 = 0,2 дБ для кода со степенью кодирования 1/2. Таким образом, при параллельном соединении сверточных кодов RSC и декодировании с обратной связью, достоверность передачи турбокода при Рв = 10~5 находится в 0,5 дБ от (практического) предела Шеннона. Существует класс кодов, в которых, вместо параллельного, используется последовательное соединение чередуемых компонентов. Предполагается, что последовательное соединение кодов может дать характеристики [28], превышающие аналоги при параллельном соединении.
Еь/No (дБ) Рис. 8.28. Вероятность появления битовой ошибки как функция Eb/N0 и количества итераций. (Источник: Вег- гои С., Glavieux A. and Thitimajshima P. “Near Shannon Limit Error-Correcting Coding and Decoding: Turbo Codes". IEEE Proc. of Int’l Conf. on Communications, Geneva, Switzerland, May, 1993 (ICC ’93), pp. 1064-1070.) |
8.4.6. Алгоритм MAP
Процесс декодирования турбокода начинается с формирования апостериорных вероятностей (a posteriori probability — АРР) для всех информационных битов, которые затем используются для изменения значений информационных битов в соответствии с принципом максимума апостериорной (maximum a posteriori — МАР) вероятности информационного бита. В ходе приема искаженной последовательности кодированных битов осуществляется схема принятия решений, основанная на значениях апостериорных вероятностей, и алгоритм МАР для определения наиболее вероятного инфор
мационного бита, который должен быть передан за время прохождения бита. Здесь имеется отличие от алгоритма Витерби, в котором апостериорная вероятность для каждого бита данных не существует. Вместо этого в алгоритме Витерби находится наиболее вероятная последовательность, которая могла быть передана. Но в реализации обоих алгоритмов, впрочем, имеется сходство (см. раздел 8.4.6.3). Если декодированное Рв мало, существует незначительное различие в производительности между алгоритмами МАР и Витерби с мягким выходом (soft-output Viterbi algorithm — SOVA). Более того, при высоких значениях Рв и низких значениях E,JN0 алгоритм МАР превосходит алгоритм SOVA на 0,5 дБ и более [30, 31]. Это может оказаться очень важным для турбокодов, поскольку первая итерация декодирования может давать довольно высокую вероятность ошибки. Алгоритм МАР основывается на той же идее, что и алгоритм Витерби, — обработка блоков кодовых битов в двух направлениях. Как только такое двунаправленное вычисление даст состояние и метрики ветвей блока, можно начинать расчет апостериорной вероятности и МАР для каждого бита данных в блоке. Здесь предлагается алгоритм МАР декодирования для систематических сверточных кодов; полагается, что используется канал AWGN, как указано Питробоном [30]. Расчет начинается с отношения значений апостериорных вероятностей, известных как отношения функций правдоподобия A(dk), или их логарифмов, L(dk), называемых логарифмическими отношениями функций правдоподобия (log-likelihood ratio — LLR), как было показано в уравнении (8.110).
(8.118,а)
И
(8.118,6)
Здесь X‘f (совокупная вероятность того, что dt = i и Sk = m, при условии, что принята кодовая последовательность Rx, получаемая с момента к= 1 в течение некоторого времени N) определяется уравнением (8.108) и повторно приводится ниже.
X'km = P{dk= i, Sk=m\R?},
где Rx представляет искаженную последовательность кодированных битов, передавае-
мую по каналу, демодулированную и поданную на декодер согласно мягкой схеме рег шений. В действительности, алгоритм МАР требует, чтобы последовательность на выхо-
де демодулятора подавалась на декодер по одному блоку из N бит за такт. Пусть RXt имеет следующий вид: {
R? ={R\-l,Rk,RNk+l}. (8.120)
Чтобы упростить применение теоремы Байеса, уравнение (8.119) переписывается с использованием букв А, В, С и D. Таким образом, уравнение (8.119) примет следующий вид:
Х'кт = P{dk =i,Sk =/n|«f ~l,Rk,Rk+l). (8.121)
A 'TC D
Вспомним, что теорема Байеса гласит следующее:
Р(А\В CD) - ПА' B'C'D) Р^А'С'
' ’ Р(В, С, D) Р(В, С, D)
Р{В\А, С, Р)Р(Р\А, С)Р(А, С) '
Р{В, С, D)
Отсюда, в приложении теоремы к уравнению (8.121), получается следующее:
Х'кт = P(R*~l\dk - i, Sk =m,RkN)P(RkN+l\dk =i,Sk =m,Rk)x xP(dk=i,Sk=m,Rk)IP(Rf),
причем Rk = {Rk, Rj?+l}. Уравнение (8.123) можно переписать, выделяя вероятностный член, вносящий вклад Х’кт. В следующем разделе три множителя в правой части
уравнения (8.123) будут определены и описаны как прямая метрика состояния, обратная метрика состояния и метрика ветви.
8.4.6.1. Метрики состояний и метрика ветви
Первый множитель в правой части уравнения (8.123) является прямой метрикой состояния для момента к и состояния т и обозначается а™. Таким образом, для / = 1,0
Несущественно Несущественно
Р&\-'\ d^=i. sk=m, RГ) = P(Rkl-i(St=m)) = amt (8.124)
Следует отметить, что dk = i и Rk обозначены как несущественные, поскольку
предположение о том, что Sk-m, подразумевает, что на события до момента к не влияют измерения после момента к. Другими словами, будущее не оказывает влияния
,на прошлое; таким образом, P(Rk~l) не зависит от того, что dt = i и последовательность равна Rk. В то же время, поскольку кодер обладает памятью, состояние кодера
St = m основывается на прошлом, а значит, этот член является значимым и его следует оставить в выражении. Очевидно, что форма уравнения (8.124) является понятной,
поскольку представляет прямую метрику состояния ак для момента к как вероятность того, что прошлая последовательность зависит только от теперешнего состояния, вызванного этой последовательностью и ничем более. В этом сверточном кодере нетрудно узнать уже упоминавшийся в главе 7 Марковский процесс.
Точно так же второй сомножитель в правой части уравнения (8.123) представляет собой обратную метрику состояния р™ для момента времени к и состояния т, определяемую следующим выражением:
def
P{RNk + l\dk =i,Sk = m,Rk) = P(R?+1\Sk=f(i,m)) = ${%т).
Здесь Д/, т) — это следующее состояние, определяемое входом i и состоянием т, а Р{+’Г) ~ обратная метрика состояния в момент к+1 и состояния f(i, т). Ясно, что
уравнение (8.125) удовлетворяется, поскольку обратная метрика состояния |3™+1 в будущий момент времени к + 1 представлена как вероятность будущей последовательности,'которая зависит от состояния (в будущий момент к+ 1), которое, в свою очередь, является функцией входного бита и состояния (в текущий момент к). Это уже знакомое основное определение конечного автомата (см. раздел 7.2.2).
Третий сомножитель в правой части уравнения (8.123) представляет собой метрику
ветви (в состоянии т, в момент времени к), которая обозначается &кт. Таким образом, можно записать следующее:
def.
P(dk = i, Sk = m,Rk) = 8,km.
Подстановка уравнений <8.124)—(8.126) в уравнение (8.123) дает следующее, более компактное выражение для совокупной вероятности:
Используя уравнение (8.127), формулу (8.118) можно представить следующим образом:
ак°к Р* + 1
m_o, mR/(0, т)
£_1ак°к Р* + 1
Еа*5*ир*(^
Исходя из уравнения (8.124), а“ можно представить как сумму всех возможных переходов из момента к - 1.
°*= £ ZP(dk -1=j'Sk-1=т'’~ ‘,5*= т) (8Л29)
т' j = О
Я* ~1 можно переписать как {R* ~ 2Rk _ j} и, согласно теореме Байеса,
“* = Е Е - 2|5* = -1 = л л* _ О X
m' j = О
х Р(4-l=j,Sk_l=m',Rk_l\Sk=m) =
= £ P(R\ ~2,Sk_!= b(j, m))P(dk _, = j, Sk _, = b(J, in), Rk _ i), (8.130,6)
7 = 0
где b(j, m) — это состояние по предыдущей ветви, соответствующей входу j, исходящее обратно по времени из состояния т. Уравнение (8.130,6) может заменить уравнение (8.130,а), поскольку сведения о состоянии т и входе j в момент времени к-1 полностью определяют путь в состояние Sk-m. Воспользовавшись уравнениями (8.124) и (8.126) для упрощения обозначений в уравнении (8.130), можно получить следующее:
< = (8Л31) i = о
Уравнение (8.131) означает, что новая прямая метрика состояния т в момент к получается из суммирования двух взвешенных метрик состояний в момент к-1. Взвешивание включает метрики ветвей, связанные с переходами, соответствующими информационным битам 1 и 0. На рис. 8.29, а показано применение двух разных типов обозначений для параметра а. Запись аиспользуется для обозначения прямой метрики состояния в момент времени к- 1, если имеется два возможных предыдущих состояния (зависящих от того, равно ли j единице или нулю). А запись а™ применяется для обозначения прямой метрики состояния в момент к, если имеется два возможных перехода из предыдущего момента, которые оканчиваются в том же состоянии т в момент к.
<“ ft A Tx/nfir>*r>nui
"j= 1
*+ 1
б) Обратная метрика состояния
,т _ „b(0,m)<.0, b(0, m), „Ь (1, m) R1,b(1,m) m) s0, m, nfO.m) c1, m
’■k-O-kl] 'bk-^ +ak-1 5*-lv 1 ' “PfcV-i o* +P*+i
где b{], m) — прошлое состояние, соответствующее входному у
где Д/, т) — следующее состояние, определяемое входным] и состоянием т
Метрика ветви 8*гп=< ехр(х„ i/k + ук vk m]
А/с. #.29. Графическое представление расчета а™ и (3™. (Источник: Piet-
robon S. S. “Implementation and Performance of a Turbo/Map Decoder”. Intl. J. of Satellite Communications, vol. 16, Jan.-Feb., 1998, pp. 23—46.)
8.4.6.3. Расчет обратной метрики состояния
! Возвращаясь к уравнению (8.125), где = P[Rk + l\Sk+ l = f(i,m)], имеем
следующее:
РГ = P{Rk\Sk = m) = P(Rk, R?+,|S* = m).
P™ можно представить как сумму вероятностей всех возможных переходов в момент k+ 1.
: Е Е ~ }’^к + 1 - т'’ Rk > Rk + ll^/t - m)
m' j = 0
Применяя теорему Байеса, получим следующее:
Р* = L L‘I ■=т’d* = j’ S* + • = m'’ Л*> Х
т j - 0
х />(^ =j,sk + l= in', Rk\Sk = m)
В первом члене правой части уравнения (8.134) Sk = m и dk=j полностью определяют путь, ведущий в Sk+X =f(j, т); следующее состояние будет иметь входу и состояние т. Таким образом, эти условия позволяют заменить S*+1 =т' на Sk = т во втором члене уравнения (8.134), что дает следующее:
; = °. (8.135)
= isrp»"1
J = 0
Q nLUAO ^лпмпппоимо' иЯГ'Т!-» ^
Уравнение (8.135) показывает, что новая обратная метрика состояния т в момент к, получается путем суммирования двух взвешенных метрик состояния в момент к+ 1. Взвешивание включает метрики ветвей, связанные с переходами, соответствующими информационным битам 1 и 0. На рис. 8.29, б показано применение двух разных типов обозначений для параметра р. Первый тип, запись p£(+Jjm>, используется для обозначения обратной метрики состояния в момент времени к+ 1, если имеется два возможных предыдущих состояния (зависящих от того, равно ли j единице или нулю). Второй тип, Р™, применяется для обозначения обратной метрики состояния в момент
к, если имеется два возможных перехода, поступающих в момент к+ 1, которые выходят из того же состояния т в момент времени к. На рис. 8.29 приведены пояснения к вычислениям прямой и обратной метрик.
Алгоритм декодирования МАР подобен алгоритму декодирования Витерби (см. раздел 7.3). В алгоритме Витерби метрика ветви прибавляется к метрике состояния. Затем сравнивается и выбирается минимальное расстояние (максимально правдоподобное) для получения следующей метрики состояния. Этот процесс называется сложение, сравнение и выбор (Add-Compare-Select — ACS). В алгоритме МАР выполняется умножение (в логарифмическом представлении — сложение) метрик состояния и метрик ветвей. Затем, вместо сравнения, осуществляется их суммирование для вычисления следующей прямой (обратной) метрики состояния, как это видно из рис. 8.29. Различия воспринимаются на уровне интуиции. В алгоритме Витерби осуществляется поиск наиболее вероятной последовательности (пути); следовательно, выполняется постоянное сравнение и отбор, для того чтобы отыскать наилучший путь. В алгоритме МАР выполняется поиск правдоподобного или логарифмически правдоподобного числа (в мягкой схеме); следовательно, за период времени процесс использует все метрики из всех возможных переходов, чтобы получить полную статистическую картину информационных битов в данном периоде времени.
8.4.6.4. Расчет метрики ветви
Сначала обратимся к уравнению (8.126).
s;- = =i.s,=„,*,)= (8136|
= P(Rk |dk = i,Sk = m)P(Sk =m\dk= i)P(dk = i)
Здесь Rk представляет собой последовательность {xh yt}, xk — это принятые биты данных с шумом, а ук — принятые контрольные биты с шумом. Поскольку помехи влияют на информационные биты и биты контроля четности независимо, текущее состояние не зависит от текущего входа и, следовательно, может быть одним из 2“ состояний, где я) — это число элементов памяти в сверточной кодовой системе. Иными словами, длина кодового ограничения этого кода, К, равняется '0+1. Значит,
P{S = m\dk =‘) = ф
И
ъ'кт = pixk\dk = i>Sk =т)Р(.Ук\ак =i’sk =т)-р-> (8.137)
Из уравнения (1.25,г) в главе 1, вероятность Р(Хк = хк) того, что случайная переменная Хк примет значение хк, связана с функцией плотности вероятности рХк (хк) следующим образом:
P(Xk =хк) = pXk(xk)dxk.
Для упрощения обозначений случайная переменная Хк, принимающая значение хк, часто будет называться “случайной переменной х”, которая будет представлять значения хк и ук в уравнении (8.137). Таким образом, для канала AWGN, в котором шум имеет нулевое среднее и дисперсию с2, при замене вероятностного члена в уравнении (8.137) его эквивалентом (функцией плотности вероятности) используется уравнение (8.138), что дает следующее:
Здесь ик и vk представляют переданные биты данных и биты контроля четности (в биполярной форме), a dxk и dyk являются дифференциалами хк и ук и далее будут включаться в постоянную Ак. Следует заметить, что параметр ик представляет данные, не зависящие от состояния т, поскольку код имеет память. Для того чтобы привести выражение к более простому виду, нужно исключить все члены в числителе и знаменателе и использовать сокращения; в результате получим следующее:
~Т {Хкик + Ук^кт)
L(dk) = Udk) + Lc(хк) + Le(dk). (8.141,в)
Здесь пк =п‘к1п°к является входным отношением априорных вероятностей (априорное правдоподобие), а пек — внешним выходным правдоподобием, каждое в момент времени к. В уравнении (8.141,6) член пк можно считать фактором коррекции (вследствие
кодирования), который меняет входные априорные сведения о битах данных. В турбокоде такие корректировочные члены проходят из одного декодера в другой, чтобы улучшить отношение функций правдоподобия для каждого информационного бита и, таким образом, минимизировать вероятность появления ошибок декодирования. Следовательно, процесс
декодирования влечет за собой использование уравнения (8.141,6) для получения за несколько итераций Л(dk). Внешнее правдоподобие пк, получаемое из конкретной итерации, заменяет априорное правдоподобие %к+х для следующей итерации. Взятие логарифма от A(dk) в уравнении (8.141,6) дает уравнение (8.141,в), которое показывает те же результаты, что и уравнение (8.71). Они заключаются в том, что итоговые данные L(dk) (согласно мягкой схеме принятия решений) образуются тремя членами LLR — априорным LLR, LLR канального измерения и внешним LLR.
Алгоритм МАР можно реализовать через отношение функций правдоподобия
A(dk), как показывает уравнение (8.128,а) или (8.141,в); конструкция станет менее громоздкой за счет устранения операций умножения.
8.4.7. Пример декодирования по алгоритму МАР
На рис. 8.30 изображен пример декодирования по алгоритму МАР. На рис. 8.30, а представлен систематический сверточный кодер с длиной кодового ограничения К = 3 и степенью кодирования 1/2. Входные данные — последовательность d= {1,0,0}, соответствующая временам к = 1,2,3. Выходная кодированная битовая последовательность образуется путем последовательного взятия одного бита из последовательности и= {1,0,0} вслед за битом контроля четности из последовательности v = {1, 0, 1}. В каждом случае крайний слева бит является самым первым. Таким образом, выходной последовательностью будет 1 10 0 0 1 или ее биполярное представление — +1 +1 -1 -1 -1 +1. На рис. 8.30, б видны результаты искажения последовательностей и и v векторами помех п* и nv, так что теперь они обозначаются как х = и + п* и у = v + nv. Как показано на рис. 8.30, б, входные данные демодулятора, поступающие на декодер в моменты к =1,2, 3, имеют значения 1,5; 0,8; 0,5; 0,2; -0,6; 1,2. Также показаны априорные вероятности того, что принятые биты данных будут равны 1 или 0, что обозначается как л1 и л°. Предполагается, что эти вероятности будут одинаковы для всех к моментов времени. В этом примере уже имеется вся необходимая информация для расчета метрик ветвей и метрик состояний и ввода их значений в решетчатую диаграмму декодера, изображенную на рис. 8.30, в. На решетчатой диаграмме каждый переход, возникающий между временами к и к+ 1, соответствует информационному биту dk, который появляется на входе кодера в момент начала перехода к. В момент времени к кодер находится в некотором состоянии т, а в момент к + 1 он переходит в новое состояние (возможно, такое же). Если использовать такую решетчатую диаграмму для отображения последовательности кодовых битов (представляющих N бит данных), последовательность будет описываться N временами переходов и N+ 1 состояниями.
8.4.7.1. Расчет метрик ветвей
Начнем с уравнения (8.140) при п‘к = 0,5 (в данном примере информационные биты считаются равновероятными для любых времен). Для простоты предполагается, что А*= 1 для всех моментов и о2 = 1. Таким образом, 5Jt’m примет следующий вид:
На что похожа основная функция приемника, определяемая уравнением (8.142)? Выражение напоминает корреляционный процесс. В декодере в каждый момент к принимается пара данных (хк, относящееся к битам данных, и уь относящееся к контрольным битам). Метрика ветви рассчитывается путем умножения принятого хк на каждый первообразный сигнал ик и принятого ук на каждый первообразный сигнал vk. Для каждого перехода по решетке величина метрики ветви будет функцией того, насколько согласуются пара данных, принятых с помехами, и кодовые значения битов этого перехода по решетке. При к-1 для вычисления восьми метрик ветвей (переходов из состояний т для всех значений данных i) применяется уравнение (8.142). Для простоты, состояния на решетке обозначены следующим образом: а =00, b = 10, с = 01, d= 11. Заметьте, что кодированные битовые значения, ик, vk, каждого перехода по решетке указаны над самими переходами, как можно видеть на рис. 8.30, в (только для к- 1), и их можно получить обычным образом, используя структуру кодера (см. раздел 7.2.4.). Для переходов по решетке на рис. 8.30, в оговаривается, что пунктирные и сплошные линии обозначают информационные биты 1 и
0. Расчеты дают такие значения:
5^Га = 0,5ехр[(1,5)(1) + (0,8)(1)] = 5,0
50,т = а = 50.т = Ь = 0j5exp[(lj5)(_1) + (0,8)(-1)] = 0,05
5''ГГf = 5‘ГГ d = 0,5ехр[(1,5)(1) + (0,8)(-1)] = 1,0
5°'ГГ' = 8 °’ГГ d = 0,5ехр[(1,5)(-1) + (0,8)(1)] = 0,25
Затем эти расчеты повторяются, с помощью уравнения (8.142), для восьми метрик ветвей в момент к = 2.
5^2=я = 5^2=й ==0,5ехр[(0,5)(1) + (0,2)(1)] = 1,0 50. т = а = go, m = Ь = 0>5Схр[(0,5)(-1) + (0>2)(-1)] = 0,25
= ^k = 2d = 0,5ехр[(0,5)(1) + (0,2)(-1)] = 0,67 5°'Г2= f = 5°’Г2= d = 0,5ехр[(0,5)(-1) + (0,2)(1)] = 0,37 Снова расчеты повторяются для значений восьми метрик ветвей уже в момент к = 3.
5^3=я =Sj.’™3 * = 0,5ехр[(-0,6)(1) + (1,2)(1)] = 0,91 5°'Г3= “ = 5^Г3= 6 = 0,5ехр[(-0,6)(-1) + (1,2)(-1)] = 0,27 5’’Г3= f = 5['Гз= = 0,5ехр[(-0,6)(1) + (1,2)(-1)] = 0,08 5°’Г3= г = 5°'Г3= 4 = 0,5ехр[(-0,6)(-1) + (1,2)(1)] = 3,0
8.4.7.2. Расчет метрик состояний
Как только при всех к рассчитаны восемь значений Ь'™, можно вычислить прямые
метрики состояний а.™, воспользовавшись рис. 8.29, 8.30, в и уравнением (8.131), которое повторно приводится ниже.
Дата добавления: 2015-10-28; просмотров: 72 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Основы теории принятая статистических решений 1051 43 страница | | | Основы теории принятая статистических решений 1051 45 страница |