Читайте также: |
|
Гпяво Я К'ЯиЯПкМПР к’ППМППЙЯМИР’ часть 3
Допустим, что начальным состоянием кодера будет а = 00. Тогда,
^.т - a r\ т = b „.т = с ^m = d Л
О-ь -- 1 —0 И а*., — ^ t — 1 — ос #. _ j —О
4 = 1 ~ЧА& = 1 “^* = 1
< Г" = (0,05) (1,0) + (0,25)(0) = 0,05 а* l\ = (5,0)(1,0) + (1,0)(0) = 5,0
с;=<:2=о
а) Систематический сверточный кодер (/С = 3, степень кодирования 1/2) |
fc=1 fc = 2 fc = 3 х= {1,5, 0,5, -0,6} у= {0,8, 0,2, 1,2} 7t1=it°= {0,5. 0,5, 0,5} |
б) Принятые канальные (биполярные) биты плюс шум |
*•= 1 |
к = 2 |
к = 3 |
к-Л |
Ь = 10 |
с = 01 |
cf = 11 |
а = 0 Ю р = 1,14 |
^>-|в(о®-3'03 |
Ц<3з)= 19 (3^75) |
в) Решетчатая диаграмма декодера Рис 8.30. Пример декодирования по алгоритму МАР (К=3, степень кодирования 1/2, систематическое) |
как показано с помощью решетчатой диаграммы на рис. 8.30, в. Аналогично можно вычислить обратные метрики состояний (3™, воспользовавшись рис. 8.29, 8.30, в и уравнением (8.135), которое повторно приводится ниже.
Pk ~ 2_jdk P*+l
J = 0
Последовательность данных и код в этом примере умышленно были изменены так, что финальным состоянием решетки в момент времени к = 4 является а = 00. В про
тивном случае нужно использовать остаточные биты для принудительного изменения конечного состояния системы в такое известное состояние. Таким образом, в этом примере, проиллюстрированном на рис. 8.30, исходя из того, что конечное состояние — а = 00, можно рассчитать обратные метрики состояний.
ргл=рг:3 =о
РГГз = (3,0)(1,0) + (0,08)(0) = 3,0
Все значения обратных метрик состояний показаны на решетке (рис. 8.30, в).
8.4.7.3. Расчет логарифмического отношения функций правдоподобия
Теперь у нас есть рассчитанные метрики Р, а и 5 для кодированной битовой последовательности рассматриваемого примера. В процессе турбодекодирования для нахождения решения согласно мягкой схеме, A(dk) или L(dk), для каждого бита данных можно воспользоваться уравнением (8.128) или (8.141). При использовании турбокодов этот процесс повторяется несколько раз, чтобы достичь необходимой надежности решений. В целом все заканчивается применением параметра внешнего правдоподобия из уравнения (8.141,6) для вычисления и повторного расчета в несколько итераций отношения функций правдоподобия A(dk). Внешнее правдоподобие пек последней итерации заменяет в следующей итерации априорное правдоподобие л*+1.
В нашем примере будут использованы метрики, рассчитанные ранее (с одним прохождением через декодер). Для вычисления LLR каждого информационного бита в последовательности {dk} берется уравнение (8.128,6). Затем, с помощью правила принятия решений из уравнения (8.111), итоговые данные, представленные согласно мягкой схеме решений, преобразуются в решения в жесткой схеме. Для к= 1, опуская некоторые нулевые слагаемые, получаем следующее:
С помощью уравнения (8.111) для выражения окончательно решения относительно битов в моменты к= 1,2, 3, последовательность декодируется как {10 0}. Итак, получен абсолютно точный результат, совпадающий с теми данными, которые были введены в декодер.
8.4.7.4. Реализация конечного автомата с помощью регистра сдвига
В этой книге используются регистры сдвига с прямой и обратной связью, представленные по большей части как разряды памяти и соединительные линии. Важно обратить внимание на то, что часто оказывается удобным представлять кодер (конкретнее, рекурсивный кодер) на регистрах сдвига несколько иным образом. Некоторые авторы для обозначения временных задержек (как правило, длиной в 1 бит) используют блоки, помеченные буквами D или Т. Соединения вне блоков, передающие напряжение или логические уровни, представляют память кодера между тактами. Два формата — блоки памяти и блоки задержек — никоим образом не меняют характеристик или функционирования описанного выше процесса. Для некоторых конечных автоматов с множеством рекурсивных соединений при отслеживании сигналов более удобным может оказаться применение формата блоков задержек. В задачах 8.23 и 8.24 используются кодеры, изображенные на рис. 38.2 и 38.3. При использовании формата разрядов памяти текущее состояние системы определяется содержимым крайних правых К -1 разрядов. Аналогично для формата блоков задержек текущее состояние определяется уровнями сигналов в крайних правых К - 1 узлах (соединения вне блоков задержек). Для обоих форматов связь между памятью v и длиной кодового ограничения К одинакова, т.е. v = K-l. Таким образом, на рис. 38.2 три блока задержек означают, что v = 3 и К=4. Аналогично на рис. 38.3 два блока задержек означают, что v = 2, а К = 3.
8.5. Резюме
В этой главе мы рассмотрели коды Рида-Соломона, важный класс недвоичных блочных кодов, специально применяемых для коррекции пакетных ошибок. Коды Рида- Соломона особенно привлекательны, поскольку эффективность кода растет с его длиной. При большой длине блока коды можно сконфигурировать таким образом, что время декодирования будет значительно меньше, чем у других кодов с той же длиной блока. Это связано с тем, что декодер работает с целыми символами, а не битами. Следовательно, для 8-битовых символов арифметические операции будут выполняться на уровне байтов. По сравнению с двоичными кодами той же длины это повышает не только сложность логики, но и производительность.
Далее была описана методика, называемая чередованием, которая без потерь в качестве позволяет использовать большинство блочных и сверточных схем кодирования в каналах с импульсными помехами или периодическим замиранием. В качестве примера была приведена система цифровой аудиозаписи на компакт-дисках, иллюстрирующая, какую важную роль играют кодирование Рида-Соломона и чередование в устранении эффектов импульсных помех.
Мы описали каскадные коды и принципы турбокодирования, основная конфигурация которых — это соединение двух или более составных кодов. Здесь также были рассмотрены фундаментальные статистические меры, такие как апостериорная вероятность и правдоподобие, которые затем использовались для описания достоверности передачи декодера с мягким входом и мягким выходом. Кроме того, было показано,
как повышается достоверность передачи при включении каскадного декодера с мягким выходом в итеративный процесс декодирования. Затем эти идеи бьши использованы при параллельном соединении рекурсивных систематических сверточных (recursive systematic convolutional — RSC) кодов, в результате чего было получено объяснение, почему в турбокодах такие коды более предпочтительны в качестве компонентов. В общих чертах здесь описан декодер с обратной связью и представлены его отличительные особенности. Далее была разработана математика декодера, основанного на принципе максимума апостериорной вероятности (maximum a posteriori — МАР), и приведен численный пример (пересечение решетчатой диаграммы в двух направлениях), в котором в итоге были получены выходные данные, оформленные согласно мягкой схеме принятия решений.
Приложение 8А. Сложение логарифмических отношений функций правдоподобия
Ниже приводятся алгебраические подробности, используемые при выводе уравнения (8.72).
^L(dx) gLCdi)
L(d{)S L(d2) = L(dx ®d2) = In
1 + еца,) еШг)
Начнем с записи отношения правдоподобия апостериорной вероятности того, что информационный бит равен +1, к апостериорной вероятности того, что он равен -1. Поскольку логарифм отношения функций правдоподобия, обозначаемый ЦсГ), берется по основанию е, это можно записать следующим образом:
p(d = +l)=-
l + e
Из уравнения (8A.6) видно, что
Пусть dt к d2 — два статистически независимых бита данных, задаваемых уровнями напряжения +1 и -1, соответствующими логическим уровням 1 и 0.
При таком формате сложение (по модулю 2) dt и d2 дает -1, если dt и d2 имеют одинаковое значение (оба равны +1 или -1, одновременно), и +1, если dt и d2 имеют разные значения. Тогда
P(dx®d2=l) P(dx@d2=-1) P(dx = +l)xP(d2
-1) + [1 — P(dx = +!)][! — P(d2 = —1)]
P(dx = +l)xP(d2 =+!)+[!-P(dx — +1)][1 — P(d2 = +1)]
Воспользовавшись уравнениями (8A.6) и (8A.7) для замены вероятностного члена в уравнении (8А.8), получаем следующее:
[l + et(rf')][l + e[7]'ia2;] |
еШх) +eUd2)
Литература
1. Gallager R. G. Information Theory and Reliable Communication. John Wiley and Sons, New York, 1968.
2. Odenwalder J. P. Error Control Coding Handbook. Linkabit Corporation, San Diego, CA, July, 15, 1976.
3. Derlekamp E. R., Peile R. E. and Pope S. P. The Application of Error Control to Communicftions. IEEE Communication Magazine, vol. 25, n. 4, April, 1987, pp. 44-57.
4. Hagenauer J. and Lutz E. Forward Error Correction Coding for Fading Compensation in Mobile Satellite Channels. IEEE J. on Selected Areas in Comm., vol. SAC-5, n. 2, February, 1987, pp. 215-225.
5. Blahut R. E. Theory and Practice of Error Control Codes. Addison-Wesley Publishing Co., Reading, Massachusetts, 1983.
6. Reed-Solomon Codes and Their Applications, ed. Wicker S. B. and Bhargava V. K. IEEE Press, Pis- cataway, New Jersey, 1983.
7. Ramsey J. L. Realization of Optimum Interleavers. IEEE Trans. Inform. Theory, vol. IT-16, n. 3, May, 1970, pp.338-345.
8. Forney G. D. Burst-Correcting Codes for the Classic Bursty Channel. IEEE Trans: Commun. Technol., vol. COM-19, October, 1971, pp. 772-781.
9. Clark G. C. Jr. and Cain J. B. Error-Corection Coding for Digiral Communications. Plenum Press, New York, 1981.
10. J. H. Yuen, et. al. Modulation and Coding for Satellite and Space Communications. Proc. IEEE, vol. 78., n. 7, July, 1990, pp. 1250-1265.
Приложение 8A. Сложение логаписЬмических отношений йл/нтий гюавпоподобия 533
11. Peek J. В. H. Communications Aspects of the Compact Disc Digital Audio System. IEEE Communication Magazine, vol. 23, n. 2, February, 1985, pp.7—20.
12. Berkhout P. J. and Eggermont L. D. J. Digital Audio Systems. IEEE ASSP Magazine, October, 1985, pp. 45-67.
13. Driessen L. М. H. E. and Vries L. B. Performance Calculations of the Compact Disc Error Correcting Code on Memoryless Channel. Fourth Int’l. Conf. Video and Data Recording, Southampton, England, April 20—23, 1982, IERE Conference Proc #54, pp. 385—395.
14. Hoeve H., Timmermans J. and Vries L. B. Error Correction in the Compact Disc System. Philips Tech. Rev., vol. 40, n. 6, 1982, pp. 166—172.
15. Pohlmann К. C. The Compact Disk Handbook. A-R Editions Inc., Madison, Wisconsin, 1992.
16. Forney G. D. Jr. Concatenated Codes. Cambridge, Massachusetts: М. I. T. Press, 1966.
17. Berrou C., Glavieux A. and Thitimajshima P. Near Shannon Limit Error-Correcting Coding and Decoding: Turbo Codes. IEEE Prceedings of the Int. Conf. on Communications, Geneva, Switzerland, May, 1993 (ICC’93), pp.1064-1070.
18. Berrou C., Glavieux A. Near Optimum Error Correcting Coding and Decoding: Turbo-Codes. IEEE Trans. On Communications, vol. 44, n. 10, October, 1996, pp. 1261-1271.
19. Hagenauer J. Iterative Decoding of Binary Block and Convolutional Codes. IEEE Trans. On Information Theory, vol. 42, n. 2, March, 1996, pp. 429—445.
20. Divsalar D. and Pollara F. On the Design of Turbo Codes. TDA Progress Report 42—123, Jet Propulsion Laboratory, Pasadena, California, November, 15, 1995, pp. 99—121.
21. Divsalar D. and McElience R. J. Effective Free Distance of Turbo Codes. Electronic Letters, vol. 23, n. 5, February, 29, 1996, pp. 445-446.
22. Dolinar S. and Divsalar D. Weight Distributions for Turbo Codes Using Random and Nonrandom Permutations. TDA Progress Report 42—122, Jet Propulsion Laboratory, Pasadena, California, August, 15, 1995, pp. 56-65.
23. Divsalar D. and Pollara F. Turbo Codes for Deep-Space Communications. TDA Progress Report 42— 120, Jet Propulsion Laboratory, Pasadena, California, February, 15, 1995, pp. 29-39.
24. Divsalar D. and Pollara F. Multiple Turbo Codes for Deep-Space Communications. TDA Progress Report 42-121, Jet Propulsion Laboratory, Pasadena, California, May, 15, 1995, pp. 66-77.
25. Divsalar D. and Pollara F. Turbo Codes for PCS Applications. Proc. ICC’95, Seattle, Washington, June, 18-22, 1995.
26. Bahl. L. R., Cocke J., Jelinek F. and Raviv J. Optimal Decoding of Linear Codes for Minimizing Symbol Error Rate. Trans. Inform. Theory, vol. IT-20, March, 1974, pp. 248—287.
27. Benedetto S. et. al. Soft Output Decoding Algorithm in Iterative Decoding of Turbo Codes. TDA Progress Report 42—124, Jet Propulsion Laboratory, Pasadena, California, February, 15, 1996, pp. 63-87.
28. Benedetto S. et al. A Soft-Input Soft-Output Maximum A Posteriori (MAP) Module to Decode Parallel and Serial Concatenated Codes. TDA Progress Report 42—127, Jet Propulsion Laboratory, Pasadena, California, November, 15, 1996, pp. 63-87.
29. Benedetto S. et. al. A Soft-Input Soft-Output APP Module for Iterative Decoding of Concatenated Codes. IEEE Communication Letters, vlo. 1, n. 1, January, 1997, pp. 22-24.
30. Pietrobon S. Implementation and Performance of a Turbo/MAP Decoder. Int’l. J. Satellite Commun., vol. 16, January-February, 1998, pp. 23-46.
31. Robertson P., Villebrun E. and Hoeher P. A Comparison of Optimal and Sub-Optimal MAP Decoding Algorithms Operating in the Log Domain. Proc. of ICC’95, Seattle, Washington, June, 1995, pp. 1009-1013.
Задачи
8.1. Определите, какой из следующих полиномов будет примитивным. Подсказка: самый простой способ состоит в применении LFSR; аналогично способу, показанному на рис. 8.8.
a) l+tf + X3
в) 1 + X2 + X4
г) l+Xi + Xi
д) l+X + X2+X3+Xi
е) 1 + X +
ж) 1+Х2 + Х$
з) 1+Р+Х5
и) l+X' + X5
8.2. а) Какова способность к коррекции ошибок у кода (7, 3)? Сколько битов в символе?
б) Определите количество строк и столбцов нормальной матрицы (см. раздел 6.6), необходимой для представления кода (7, 3), описанного в п. а.
в) Подтвердите, что при использовании размерности нормальной матрицы из п. б получается способность к коррекции ошибок, найденная в п. а.
г) Является ли код (7, 3) совершенным? Если нет, то какую остаточную способность к коррекции ошибок он имеет?
0 12 2т — 2
8.3. а) Определите множество элементов {0,а,а,а,...,а } через образующие элементы
конечного поля GF(2'"), при т = 4.
б) Для конечного поля, определенного в п. а, составьте таблицу сложения, аналогичную табл. 8.2.
в) Постройте таблицу умножения, подобную табл. 8.3.
г) Найдите полиномиальный генератор для кода (31, 27).
д) Кодируйте сообщение {96 нулей, затем 110010001111} (крайний правый бит является первым) систематическим кодом (7, 3). Почему, по вашему мнению, сообщение построено с таким большим количеством нулей в начале?
8.4. С помощью полиномиального генератора для кода (7, 3), кодируйте сообщение 010110111 (крайний правый бит является первым) в систематической форме. Для нахождения полинома контроля четности используйте полиномиальное деление. Представьте итоговое кодовое слово в двоичной и полиномиальной форме.
8.5. а) Применяйте регистр LFSR для кодирования сообщения {6, 5, 1} (крайний правый бит яв
ляется первым) с помощью кода (7, 3) в систематической форме. Представьте итоговое кодовое слою в двоичной форме.
б) Проверьте результат кодирования в п. а путем вычисления полинома кодового слова со значениями корней полиномиального генератора кода (7, 3).
8.6. а) Пусть кодовое слово, найденное в задаче 8.5, искажается в ходе передачи, в результате
чего крайние правые 6 бит были инвертированы. Найдите значения всех синдромов путем вычисления полинома поврежденного кодового слова со значениями корней полиномиального генератора, g(X).
б) Проверьте, что значения синдромов, вычисленные в п. а, можно найти путем вычисления полинома ошибок, е(АТ), со значениями корней генератора g(X).
8.7. а) Воспользуйтесь авторегрессионной моделью из уравнения (8.40) вместе с искаженным ко
довым словом из задачи 8.6 для нахождения месторасположения каждой символьной ошибки.
б) Найдите значение каждой символьной ошибки.
в) Воспользуйтесь сведениями, полученными в пп. а и б, чтобы исправить искаженное кодовое слово.
8.8. Последовательность 1011011000101100 подается на вход блочного устройства чередования размером 4x4. Какой будет выходная последовательность? Та же последовательность передана на сверточное устройство чередования, изображенное на рис. 8.13. Какой будет выходная последовательность в этом случае?
сое
8.9. Для каждого из следующих условий разработайте устройство чередования для системы связи, действующей в канале с импульсными помехами со скоростью передачи 19200 кодовых символов/с.
а) Как правило, пакет шума длится 250 мс. Системным кодом является БЧХ (127, 36) при d,„„ = 31. Прямая задержка не превышает 5 с.
б) Как правило, пакет шума длится 20 мс. Системным кодом является сверточный код (127, 36) с обратной связью при степени кодирования 1/2, способный корректировать в среднем 3 символа в последовательности из 21 символа. Прямая задержка не превышает 160 мс.
8.10. а) Рассчитайте вероятность появления байтовой (символьной) ошибки после декодирования
данных, находящихся на компакт-диске, как было описано в разделе 8.3. Считается, что вероятность передачи канального символа с ошибкой для компакт-диска составляет 10“3. Предполагается также, что внешний и внутренний декодеры сконфигурированы для коррекции всех 2-символьных ошибок и процесс чередования исключает корреляции ошибок между собой.
б) Повторите расчеты п. а для компакт-диска, для которого вероятность ошибочной передачи канального символа равна 10'2.
8.11. Система, в которой реализована модуляция BPSK, принимает равновероятные биполярные символы (+1 или -1) с шумом AWGN. Дисперсия шума считается равной единице. В момент к значение принятого сигнала хк равняется 0,11.
а) Вычислите два значения правдоподобия для этого принятого сигнала.
б) Каким будет максимальное апостериорное решение, +1 или -1?
в) Априорная вероятность того, что переданный символ равен +1, равна 0,3. Каким будет максимальное апостериорное решение, +1 или -1?
г) Считая априорные вероятности равными полученным в п. в, рассчитайте логарифмическое отношение функций правдоподобия L(dk\xk).
8.12. Рассмотрим пример двухмерного кода с контролем четности, описанного в разделе 8.4.3. Как указано, переданные символы представляются в виде последовательности du d3, di, P12, Pu, p>3, />24, которая определяет степень кодирования кода равной 1/2. Конкретная схема, требующая более высоких скоростей, вьадает кодовую последовательность этого кода с исключениями через один бит, что дает в итоге степень кодирования, равную 2/3. Переданный выход теперь определяется последовательностью {d,}, {р„) =+1 -1 -1 +1 +1 +1, где i и j являются индексами месторасположения. Помехи преобразуют эту последовательность данных и контрольных разрядов в принятую последовательность {х*} = 0,75,
0, 05, 0,10, 0,15, 1,25, 3,0, где к —временной индекс. Вычислите значения мягкого выхода для битов данных после двух горизонтальных и двух вертикальных итераций декодирования. Дисперсия считается равной единице.
8.13. Рассмотрим параллельное соединение двух составных RSC-кодеров, как показано на рис. 8.26. Устройство чередования блоков размером 10 отображает последовательность входных битов {dk} в последовательность {d'k }, где влияние устройства чередования задается равным [6, 3, 8, 9, 5, 7, 1, 4, 10, 2], т.е. первый бит входного блока данных отображается на позицию 6, второй бит — на позицию 3 и т.д. Входная последовательность равна (0, 1, 1, 0, 0, 1, 0, 1, 1, 0). Предполагается, что составной кодер начинает из нулевого состояния и к нему принудительно прибавляется бит погашения, необходимый для перевода кодера обратно в нулевое состояние.
а) Рассчитайте 10-битовую контрольную последовательность {vi*}.
б) Рассчитайте 10-битовую контрольную последовательность {i/2jt} -
в) Переключатель осуществляет исключение из последовательности {v*} так, что последовательность {vk\ становится равной уц, У2<*+ о, Vitt+2), ^а+З),..., а степень кодирования кода равна 1/2. Рассчитайте весовой коэффициент выходного кодового слова.
Если декодирование осуществляется на основе алгоритма МАР, какие изменения, по- вашему, нужно внести в метрики состояний и метрики ветвей, если кодер не погашен?
Для нерекурсивного кодера, изображенного на рис. 38.1, вычислите минимальное расстояние по всему коду.
Для рекурсивного кодера, изображенного на рис. 8.26, вычислите минимальное расстояние по всему коду. Считайте, что исключений битов нет, а значит, степень кодирования кода равна 1/3.
Для кодера, показанного на рис. 8.26, обсудите изменения в весовом коэффициенте выходной последовательности, если вход каждого составного кодера определяется последовательностью с весом 2 (00...00100100...00) (считать, что исключений нет). Повторите п. в для последовательности с весом 2 (00...0010100...00).
{Ы |
iv2k) |
Рис. 38.1. Схема кодера с нерекурсивными составными кодами |
8.15. Рассмотрим кодер, представленный на рис.8.25, а. Пусть он используется в качестве составного кода в турбокоде. Его решетчатая структура из 4 состояний изображена на рис.8.25, б. Степень кодирования кода равна 1/2. Ветвь, помеченная как и, v, представляет выходное кодовое слово (кодовые биты) для той ветви, где и является битами данных (систематический код), a v — контрольными битами. Биты данных и контроля четности передаются за каждый такт к. Сигналы, принятые из демодулятора, имеют искаженные помехами значения и, v: 1,9; 0,7 — в момент i=l и -0,4; 0,8 — в момент к = 2. Предполагается, что априорные вероятности битов 1 и 0 равновероятны и что кодер начинает из нулевого состояния в начальный момент к= 1. Также считается, что дисперсия помех равна 1,3. Напомним, что последовательность N бит характеризуется N интервалами переходов и N+ 1 состояниями (от начального до конечного). Следовательно, в данном случае биты стартуют в моменты &=1,2, и интерес представляют метрики в моменты к= 1, 2, 3.
а) Рассчитайте метрики ветвей для моментов к= 1 и к = 2, которые нужны для применения алгоритма МАР.
б) Вычислите прямые метрики состояний для моментов к = 1, 2 и 3.
в) Ниже для каждого правильного состояния в табл. 38.1 даются значения обратных метрик в моменты к = 2 и к = 3. Основываясь на данных таблицы и значениях, полученных в пп. а и б, вычислите значение логарифмического отношения функций правдоподобия, соответствующего битам данных в моменты к = 1 и к = 2. С помощью
правила принятия решений МАР найдите наиболее вероятную последовательность информационных битов, которая могла быть передана.
р* | II | II |
т~ а | 4,6 | 2,1 |
т-Ъ | 2,4 | 11,5 |
т~ с | 5,7 | 3,4 |
m~d | 4,3 | 0,9 |
8.16. Пусть принятая последовательность, полученная в задаче 8.15 для кода со степенью кодирования 2/3, создается путем исключений из кеда со степенью кодирования 1/2 (задаваемого решеткой на рис. 8.25, б). Исключение происходит таким образом, что передается только каждый второй контрольный бит. Таким образом, принятая последовательность из четырех сигналов представляет собой информационный бит, контрольный бит, информационный бит, информационный бит. Вычислите метрики ветвей и прямые метрики состояний для моментов времени к= 1 и к = 2, которые необходимы для алгоритма МАР.
8.17. Решетка для кода из четырех состояний используется как составной код в турбокоде, как показано на рис. 8 25, б. Степень кодирования равна 1/2, а ветвь, обозначенная как и, v, представляет собой выход, кодовое слово (кодированные биты) для этой ветви, где и — это информационные биты, a v — биты четности. Из демодулятора принимается блок из N= 1024 фрагментов. Пусть первый сигнал из демодулятора поступает в момент к = 1 и в каждый последующий момент к поступают зашумленные биты данных и контроля четности. В момент времени к = 1023 принятые сигналы имеют зашумленные значения и, v, равные 1,3, -0,8, а в момент к = 1024 значения равны -1,4; -0,9. Предполагается, что априорные вероятности того, что биты данных равны 1 или 0, равны и что конечное состояние кодера будет а = 00 в завершающий момент к= 1025. Также считается, что дисперсия помех равна 2,5.
а) Рассчитайте метрики ветвей для моментов к= 1023 и к= 1024.
б) Рассчитайте обратные метрики состояний для моментов к = 1023, 1024 и 1025.
в) Ниже в табл. 38.2 даются значения прямых метрик состояний в моменты к= 1023 и к= 1024 для каждого правильного состояния. Основываясь на таблице и информации из пп. а и б, вычислите значения отношений функций правдоподобия, связанных с информационными битами в моменты времени к= 1023 и к= 1024. Используя правило принятия решений алгоритма МАР, найдите наиболее вероятную последовательность битов данных, которая могла быть передана.
Таблица 38.2
а™ к = 1023 к = 1024
|
8.18. Имеется два статистически независимых наблюдения зашумленного сигнала, xi и хг- Проверьте, что логарифмическое отношение функций правдоподобия (log-likelihood ratio — LLR) Ud\xu X2) можно выразить через индивидуальные LLR как
Цфь х2) = L(x,\d) + L(x,\d) + L(d),
8.19. а) Используя теорему Байеса, подробно распишите этапы преобразования а™, приведенные
в уравнениях (8.129) и (8.130,6). Подсказка, воспользуйтесь упрощенной системой обозначений, применяемой в уравнениях (8.121) и (8.122).
Дата добавления: 2015-10-28; просмотров: 73 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Основы теории принятая статистических решений 1051 44 страница | | | Основы теории принятая статистических решений 1051 46 страница |