Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Основы теории принятая статистических решений 1051 45 страница

Основы теории принятая статистических решений 1051 34 страница | Основы теории принятая статистических решений 1051 35 страница | Основы теории принятая статистических решений 1051 36 страница | Основы теории принятая статистических решений 1051 37 страница | Основы теории принятая статистических решений 1051 38 страница | Основы теории принятая статистических решений 1051 39 страница | Основы теории принятая статистических решений 1051 40 страница | Основы теории принятая статистических решений 1051 41 страница | Основы теории принятая статистических решений 1051 42 страница | Основы теории принятая статистических решений 1051 43 страница |


Читайте также:
  1. 1 страница
  2. 1 страница
  3. 1 страница
  4. 1 страница
  5. 1 страница
  6. 1 страница
  7. 1 страница

Гпяво Я К'ЯиЯПкМПР к’ППМППЙЯМИР’ часть 3


Допустим, что начальным состоянием кодера будет а = 00. Тогда,

^.т - a r\ т = b „.т = с ^m = d Л

О-ь -- 1 —0 И а*., — ^ t — 1 — ос #. _ j —О

4 = 1 ~ЧА& = 1 “^* = 1

< Г" = (0,05) (1,0) + (0,25)(0) = 0,05 а* l\ = (5,0)(1,0) + (1,0)(0) = 5,0

с;=<:2=о

 

а) Систематический сверточный кодер (/С = 3, степень кодирования 1/2)

fc=1 fc = 2 fc = 3 х= {1,5, 0,5, -0,6} у= {0,8, 0,2, 1,2} 7t1=it°= {0,5. 0,5, 0,5}

 

 

б) Принятые канальные (биполярные) биты плюс шум

*•= 1

к = 2

к = 3

к-Л

Ь = 10

с = 01

cf = 11

а = 0 Ю р = 1,14

^>-(о®-3'03

Ц<3з)= 19 (3^75)

в) Решетчатая диаграмма декодера Рис 8.30. Пример декодирования по алгоритму МАР (К=3, степень кодирования 1/2, систематическое)

 

как показано с помощью решетчатой диаграммы на рис. 8.30, в. Аналогично можно вычислить обратные метрики состояний (3™, воспользовавшись рис. 8.29, 8.30, в и уравнением (8.135), которое повторно приводится ниже.

Pk ~ 2_jdk P*+l

J = 0

Последовательность данных и код в этом примере умышленно были изменены так, что финальным состоянием решетки в момент времени к = 4 является а = 00. В про­
тивном случае нужно использовать остаточные биты для принудительного изменения конечного состояния системы в такое известное состояние. Таким образом, в этом примере, проиллюстрированном на рис. 8.30, исходя из того, что конечное состояние — а = 00, можно рассчитать обратные метрики состояний.

 

 

ргл=рг:3

РГГз = (3,0)(1,0) + (0,08)(0) = 3,0

Все значения обратных метрик состояний показаны на решетке (рис. 8.30, в).

8.4.7.3. Расчет логарифмического отношения функций правдоподобия

Теперь у нас есть рассчитанные метрики Р, а и 5 для кодированной битовой после­довательности рассматриваемого примера. В процессе турбодекодирования для нахож­дения решения согласно мягкой схеме, A(dk) или L(dk), для каждого бита данных можно воспользоваться уравнением (8.128) или (8.141). При использовании турбокодов этот процесс повторяется несколько раз, чтобы достичь необходимой надежности реше­ний. В целом все заканчивается применением параметра внешнего правдоподобия из уравнения (8.141,6) для вычисления и повторного расчета в несколько итераций отно­шения функций правдоподобия A(dk). Внешнее правдоподобие пек последней итера­ции заменяет в следующей итерации априорное правдоподобие л*+1.

В нашем примере будут использованы метрики, рассчитанные ранее (с одним про­хождением через декодер). Для вычисления LLR каждого информационного бита в последовательности {dk} берется уравнение (8.128,6). Затем, с помощью правила при­нятия решений из уравнения (8.111), итоговые данные, представленные согласно мяг­кой схеме решений, преобразуются в решения в жесткой схеме. Для к= 1, опуская не­которые нулевые слагаемые, получаем следующее:

 

 


 

С помощью уравнения (8.111) для выражения окончательно решения относительно битов в моменты к= 1,2, 3, последовательность декодируется как {10 0}. Итак, полу­чен абсолютно точный результат, совпадающий с теми данными, которые были вве­дены в декодер.

8.4.7.4. Реализация конечного автомата с помощью регистра сдвига

В этой книге используются регистры сдвига с прямой и обратной связью, представ­ленные по большей части как разряды памяти и соединительные линии. Важно обра­тить внимание на то, что часто оказывается удобным представлять кодер (конкретнее, рекурсивный кодер) на регистрах сдвига несколько иным образом. Некоторые авторы для обозначения временных задержек (как правило, длиной в 1 бит) используют блоки, помеченные буквами D или Т. Соединения вне блоков, передающие напряжение или логические уровни, представляют память кодера между тактами. Два формата — блоки памяти и блоки задержек — никоим образом не меняют характеристик или функциони­рования описанного выше процесса. Для некоторых конечных автоматов с множеством рекурсивных соединений при отслеживании сигналов более удобным может оказаться применение формата блоков задержек. В задачах 8.23 и 8.24 используются кодеры, изо­браженные на рис. 38.2 и 38.3. При использовании формата разрядов памяти текущее состояние системы определяется содержимым крайних правых К -1 разрядов. Анало­гично для формата блоков задержек текущее состояние определяется уровнями сигналов в крайних правых К - 1 узлах (соединения вне блоков задержек). Для обоих форматов связь между памятью v и длиной кодового ограничения К одинакова, т.е. v = K-l. Та­ким образом, на рис. 38.2 три блока задержек означают, что v = 3 и К=4. Аналогично на рис. 38.3 два блока задержек означают, что v = 2, а К = 3.

8.5. Резюме

В этой главе мы рассмотрели коды Рида-Соломона, важный класс недвоичных блоч­ных кодов, специально применяемых для коррекции пакетных ошибок. Коды Рида- Соломона особенно привлекательны, поскольку эффективность кода растет с его дли­ной. При большой длине блока коды можно сконфигурировать таким образом, что время декодирования будет значительно меньше, чем у других кодов с той же длиной блока. Это связано с тем, что декодер работает с целыми символами, а не битами. Следовательно, для 8-битовых символов арифметические операции будут выполняться на уровне байтов. По сравнению с двоичными кодами той же длины это повышает не только сложность логики, но и производительность.

Далее была описана методика, называемая чередованием, которая без потерь в ка­честве позволяет использовать большинство блочных и сверточных схем кодирования в каналах с импульсными помехами или периодическим замиранием. В качестве при­мера была приведена система цифровой аудиозаписи на компакт-дисках, иллюстри­рующая, какую важную роль играют кодирование Рида-Соломона и чередование в устранении эффектов импульсных помех.

Мы описали каскадные коды и принципы турбокодирования, основная конфигу­рация которых — это соединение двух или более составных кодов. Здесь также были рассмотрены фундаментальные статистические меры, такие как апостериорная веро­ятность и правдоподобие, которые затем использовались для описания достоверности передачи декодера с мягким входом и мягким выходом. Кроме того, было показано,


как повышается достоверность передачи при включении каскадного декодера с мяг­ким выходом в итеративный процесс декодирования. Затем эти идеи бьши использо­ваны при параллельном соединении рекурсивных систематических сверточных (recursive systematic convolutional — RSC) кодов, в результате чего было получено объ­яснение, почему в турбокодах такие коды более предпочтительны в качестве компо­нентов. В общих чертах здесь описан декодер с обратной связью и представлены его отличительные особенности. Далее была разработана математика декодера, основан­ного на принципе максимума апостериорной вероятности (maximum a posteriori — МАР), и приведен численный пример (пересечение решетчатой диаграммы в двух на­правлениях), в котором в итоге были получены выходные данные, оформленные со­гласно мягкой схеме принятия решений.

Приложение 8А. Сложение логарифмических отношений функций правдоподобия

Ниже приводятся алгебраические подробности, используемые при выводе уравне­ния (8.72).


 


^L(dx) gLCdi)

L(d{)S L(d2) = L(dx ®d2) = In

1 + еца,) еШг)


 


Начнем с записи отношения правдоподобия апостериорной вероятности того, что информационный бит равен +1, к апостериорной вероятности того, что он равен -1. Поскольку логарифм отношения функций правдоподобия, обозначаемый ЦсГ), берется по основанию е, это можно записать следующим образом:


 

p(d = +l)=-

l + e


 


Из уравнения (8A.6) видно, что


 

Пусть dt к d2 — два статистически независимых бита данных, задаваемых уровнями напряжения +1 и -1, соответствующими логическим уровням 1 и 0.

При таком формате сложение (по модулю 2) dt и d2 дает -1, если dt и d2 имеют одинаковое значение (оба равны +1 или -1, одновременно), и +1, если dt и d2 имеют разные значения. Тогда


 


P(dx®d2=l) P(dx@d2=-1) P(dx = +l)xP(d2

-1) + [1 — P(dx = +!)][! — P(d2 = —1)]

P(dx = +l)xP(d2 =+!)+[!-P(dx — +1)][1 — P(d2 = +1)]


 


Воспользовавшись уравнениями (8A.6) и (8A.7) для замены вероятностного члена в уравнении (8А.8), получаем следующее:


[l + et(rf')][l + e[7]'ia2;]

 

 

еШх) +eUd2)


 


Литература

1. Gallager R. G. Information Theory and Reliable Communication. John Wiley and Sons, New York, 1968.

2. Odenwalder J. P. Error Control Coding Handbook. Linkabit Corporation, San Diego, CA, July, 15, 1976.

3. Derlekamp E. R., Peile R. E. and Pope S. P. The Application of Error Control to Communicftions. IEEE Communication Magazine, vol. 25, n. 4, April, 1987, pp. 44-57.

4. Hagenauer J. and Lutz E. Forward Error Correction Coding for Fading Compensation in Mobile Satellite Channels. IEEE J. on Selected Areas in Comm., vol. SAC-5, n. 2, February, 1987, pp. 215-225.

5. Blahut R. E. Theory and Practice of Error Control Codes. Addison-Wesley Publishing Co., Reading, Massachusetts, 1983.

6. Reed-Solomon Codes and Their Applications, ed. Wicker S. B. and Bhargava V. K. IEEE Press, Pis- cataway, New Jersey, 1983.

7. Ramsey J. L. Realization of Optimum Interleavers. IEEE Trans. Inform. Theory, vol. IT-16, n. 3, May, 1970, pp.338-345.

8. Forney G. D. Burst-Correcting Codes for the Classic Bursty Channel. IEEE Trans: Commun. Technol., vol. COM-19, October, 1971, pp. 772-781.

9. Clark G. C. Jr. and Cain J. B. Error-Corection Coding for Digiral Communications. Plenum Press, New York, 1981.

10. J. H. Yuen, et. al. Modulation and Coding for Satellite and Space Communications. Proc. IEEE, vol. 78., n. 7, July, 1990, pp. 1250-1265.

Приложение 8A. Сложение логаписЬмических отношений йл/нтий гюавпоподобия 533

11. Peek J. В. H. Communications Aspects of the Compact Disc Digital Audio System. IEEE Communication Magazine, vol. 23, n. 2, February, 1985, pp.7—20.

12. Berkhout P. J. and Eggermont L. D. J. Digital Audio Systems. IEEE ASSP Magazine, October, 1985, pp. 45-67.

13. Driessen L. М. H. E. and Vries L. B. Performance Calculations of the Compact Disc Error Correcting Code on Memoryless Channel. Fourth Int’l. Conf. Video and Data Recording, Southampton, Eng­land, April 20—23, 1982, IERE Conference Proc #54, pp. 385—395.

14. Hoeve H., Timmermans J. and Vries L. B. Error Correction in the Compact Disc System. Philips Tech. Rev., vol. 40, n. 6, 1982, pp. 166—172.

15. Pohlmann К. C. The Compact Disk Handbook. A-R Editions Inc., Madison, Wisconsin, 1992.

16. Forney G. D. Jr. Concatenated Codes. Cambridge, Massachusetts: М. I. T. Press, 1966.

17. Berrou C., Glavieux A. and Thitimajshima P. Near Shannon Limit Error-Correcting Coding and Decoding: Turbo Codes. IEEE Prceedings of the Int. Conf. on Communications, Geneva, Switzer­land, May, 1993 (ICC’93), pp.1064-1070.

18. Berrou C., Glavieux A. Near Optimum Error Correcting Coding and Decoding: Turbo-Codes. IEEE Trans. On Communications, vol. 44, n. 10, October, 1996, pp. 1261-1271.

19. Hagenauer J. Iterative Decoding of Binary Block and Convolutional Codes. IEEE Trans. On Information Theory, vol. 42, n. 2, March, 1996, pp. 429—445.

20. Divsalar D. and Pollara F. On the Design of Turbo Codes. TDA Progress Report 42—123, Jet Pro­pulsion Laboratory, Pasadena, California, November, 15, 1995, pp. 99—121.

21. Divsalar D. and McElience R. J. Effective Free Distance of Turbo Codes. Electronic Letters, vol. 23, n. 5, February, 29, 1996, pp. 445-446.

22. Dolinar S. and Divsalar D. Weight Distributions for Turbo Codes Using Random and Nonrandom Permutations. TDA Progress Report 42—122, Jet Propulsion Laboratory, Pasadena, California, August, 15, 1995, pp. 56-65.

23. Divsalar D. and Pollara F. Turbo Codes for Deep-Space Communications. TDA Progress Report 42— 120, Jet Propulsion Laboratory, Pasadena, California, February, 15, 1995, pp. 29-39.

24. Divsalar D. and Pollara F. Multiple Turbo Codes for Deep-Space Communications. TDA Progress Report 42-121, Jet Propulsion Laboratory, Pasadena, California, May, 15, 1995, pp. 66-77.

25. Divsalar D. and Pollara F. Turbo Codes for PCS Applications. Proc. ICC’95, Seattle, Washington, June, 18-22, 1995.

26. Bahl. L. R., Cocke J., Jelinek F. and Raviv J. Optimal Decoding of Linear Codes for Minimizing Symbol Error Rate. Trans. Inform. Theory, vol. IT-20, March, 1974, pp. 248—287.

27. Benedetto S. et. al. Soft Output Decoding Algorithm in Iterative Decoding of Turbo Codes. TDA Progress Report 42—124, Jet Propulsion Laboratory, Pasadena, California, February, 15, 1996, pp. 63-87.

28. Benedetto S. et al. A Soft-Input Soft-Output Maximum A Posteriori (MAP) Module to Decode Parallel and Serial Concatenated Codes. TDA Progress Report 42—127, Jet Propulsion Laboratory, Pasadena, California, November, 15, 1996, pp. 63-87.

29. Benedetto S. et. al. A Soft-Input Soft-Output APP Module for Iterative Decoding of Concatenated Codes. IEEE Communication Letters, vlo. 1, n. 1, January, 1997, pp. 22-24.

30. Pietrobon S. Implementation and Performance of a Turbo/MAP Decoder. Int’l. J. Satellite Commun., vol. 16, January-February, 1998, pp. 23-46.

31. Robertson P., Villebrun E. and Hoeher P. A Comparison of Optimal and Sub-Optimal MAP Decoding Algorithms Operating in the Log Domain. Proc. of ICC’95, Seattle, Washington, June, 1995, pp. 1009-1013.

Задачи

8.1. Определите, какой из следующих полиномов будет примитивным. Подсказка: самый про­стой способ состоит в применении LFSR; аналогично способу, показанному на рис. 8.8.

a) l+tf + X3

в) 1 + X2 + X4

г) l+Xi + Xi

д) l+X + X2+X3+Xi

е) 1 + X +

ж) 1+Х2 + Х$

з) 1+Р+Х5

и) l+X' + X5

8.2. а) Какова способность к коррекции ошибок у кода (7, 3)? Сколько битов в символе?

б) Определите количество строк и столбцов нормальной матрицы (см. раздел 6.6), необ­ходимой для представления кода (7, 3), описанного в п. а.

в) Подтвердите, что при использовании размерности нормальной матрицы из п. б полу­чается способность к коррекции ошибок, найденная в п. а.

г) Является ли код (7, 3) совершенным? Если нет, то какую остаточную способность к коррекции ошибок он имеет?

0 12 2т — 2

8.3. а) Определите множество элементов {0,а,а,а,...,а } через образующие элементы

конечного поля GF(2'"), при т = 4.

б) Для конечного поля, определенного в п. а, составьте таблицу сложения, аналогичную табл. 8.2.

в) Постройте таблицу умножения, подобную табл. 8.3.

г) Найдите полиномиальный генератор для кода (31, 27).

д) Кодируйте сообщение {96 нулей, затем 110010001111} (крайний правый бит является первым) систематическим кодом (7, 3). Почему, по вашему мнению, сообщение по­строено с таким большим количеством нулей в начале?

8.4. С помощью полиномиального генератора для кода (7, 3), кодируйте сообщение 010110111 (крайний правый бит является первым) в систематической форме. Для нахождения поли­нома контроля четности используйте полиномиальное деление. Представьте итоговое ко­довое слово в двоичной и полиномиальной форме.

8.5. а) Применяйте регистр LFSR для кодирования сообщения {6, 5, 1} (крайний правый бит яв­

ляется первым) с помощью кода (7, 3) в систематической форме. Представьте итоговое кодовое слою в двоичной форме.

б) Проверьте результат кодирования в п. а путем вычисления полинома кодового слова со значениями корней полиномиального генератора кода (7, 3).

8.6. а) Пусть кодовое слово, найденное в задаче 8.5, искажается в ходе передачи, в результате

чего крайние правые 6 бит были инвертированы. Найдите значения всех синдромов путем вычисления полинома поврежденного кодового слова со значениями корней полиноми­ального генератора, g(X).

б) Проверьте, что значения синдромов, вычисленные в п. а, можно найти путем вычис­ления полинома ошибок, е(АТ), со значениями корней генератора g(X).

8.7. а) Воспользуйтесь авторегрессионной моделью из уравнения (8.40) вместе с искаженным ко­

довым словом из задачи 8.6 для нахождения месторасположения каждой символьной ошибки.

б) Найдите значение каждой символьной ошибки.

в) Воспользуйтесь сведениями, полученными в пп. а и б, чтобы исправить искаженное кодовое слово.

8.8. Последовательность 1011011000101100 подается на вход блочного устройства чередования размером 4x4. Какой будет выходная последовательность? Та же последовательность пе­редана на сверточное устройство чередования, изображенное на рис. 8.13. Какой будет выходная последовательность в этом случае?

сое


8.9. Для каждого из следующих условий разработайте устройство чередования для системы связи, действующей в канале с импульсными помехами со скоростью передачи 19200 ко­довых символов/с.

а) Как правило, пакет шума длится 250 мс. Системным кодом является БЧХ (127, 36) при d,„„ = 31. Прямая задержка не превышает 5 с.

б) Как правило, пакет шума длится 20 мс. Системным кодом является сверточный код (127, 36) с обратной связью при степени кодирования 1/2, способный корректировать в среднем 3 символа в последовательности из 21 символа. Прямая задержка не пре­вышает 160 мс.

8.10. а) Рассчитайте вероятность появления байтовой (символьной) ошибки после декодирования

данных, находящихся на компакт-диске, как было описано в разделе 8.3. Считается, что вероятность передачи канального символа с ошибкой для компакт-диска составляет 10“3. Предполагается также, что внешний и внутренний декодеры сконфигурированы для кор­рекции всех 2-символьных ошибок и процесс чередования исключает корреляции ошибок между собой.

б) Повторите расчеты п. а для компакт-диска, для которого вероятность ошибочной пе­редачи канального символа равна 10'2.

8.11. Система, в которой реализована модуляция BPSK, принимает равновероятные биполяр­ные символы (+1 или -1) с шумом AWGN. Дисперсия шума считается равной единице. В момент к значение принятого сигнала хк равняется 0,11.

а) Вычислите два значения правдоподобия для этого принятого сигнала.

б) Каким будет максимальное апостериорное решение, +1 или -1?

в) Априорная вероятность того, что переданный символ равен +1, равна 0,3. Каким бу­дет максимальное апостериорное решение, +1 или -1?

г) Считая априорные вероятности равными полученным в п. в, рассчитайте логарифми­ческое отношение функций правдоподобия L(dk\xk).

8.12. Рассмотрим пример двухмерного кода с контролем четности, описанного в разделе 8.4.3. Как указано, переданные символы представляются в виде последовательности du d3, di, P12, Pu, p>3, />24, которая определяет степень кодирования кода равной 1/2. Конкретная схема, требующая более высоких скоростей, вьадает кодовую последовательность этого ко­да с исключениями через один бит, что дает в итоге степень кодирования, равную 2/3. Переданный выход теперь определяется последовательностью {d,}, {р„) =+1 -1 -1 +1 +1 +1, где i и j являются индексами месторасположения. Помехи преобразуют эту последова­тельность данных и контрольных разрядов в принятую последовательность {х*} = 0,75,

0, 05, 0,10, 0,15, 1,25, 3,0, где к —временной индекс. Вычислите значения мягкого выхода для битов данных после двух горизонтальных и двух вертикальных итераций декодирова­ния. Дисперсия считается равной единице.

8.13. Рассмотрим параллельное соединение двух составных RSC-кодеров, как показано на рис. 8.26. Устройство чередования блоков размером 10 отображает последовательность входных битов {dk} в последовательность {d'k }, где влияние устройства чередования зада­ется равным [6, 3, 8, 9, 5, 7, 1, 4, 10, 2], т.е. первый бит входного блока данных отобража­ется на позицию 6, второй бит — на позицию 3 и т.д. Входная последовательность равна (0, 1, 1, 0, 0, 1, 0, 1, 1, 0). Предполагается, что составной кодер начинает из нулевого со­стояния и к нему принудительно прибавляется бит погашения, необходимый для перевода кодера обратно в нулевое состояние.

а) Рассчитайте 10-битовую контрольную последовательность {vi*}.

б) Рассчитайте 10-битовую контрольную последовательность {i/2jt} -

в) Переключатель осуществляет исключение из последовательности {v*} так, что после­довательность {vk\ становится равной уц, У2<*+ о, Vitt+2), ^а+З),..., а степень кодирова­ния кода равна 1/2. Рассчитайте весовой коэффициент выходного кодового слова.


Если декодирование осуществляется на основе алгоритма МАР, какие изменения, по- вашему, нужно внести в метрики состояний и метрики ветвей, если кодер не погашен?

Для нерекурсивного кодера, изображенного на рис. 38.1, вычислите минимальное расстоя­ние по всему коду.

Для рекурсивного кодера, изображенного на рис. 8.26, вычислите минимальное рас­стояние по всему коду. Считайте, что исключений битов нет, а значит, степень коди­рования кода равна 1/3.

Для кодера, показанного на рис. 8.26, обсудите изменения в весовом коэффициенте выходной последовательности, если вход каждого составного кодера определяется по­следовательностью с весом 2 (00...00100100...00) (считать, что исключений нет). Повторите п. в для последовательности с весом 2 (00...0010100...00).

 


iv2k)

Рис. 38.1. Схема кодера с нерекурсивными составными кодами

 

8.15. Рассмотрим кодер, представленный на рис.8.25, а. Пусть он используется в качестве со­ставного кода в турбокоде. Его решетчатая структура из 4 состояний изображена на рис.8.25, б. Степень кодирования кода равна 1/2. Ветвь, помеченная как и, v, представ­ляет выходное кодовое слово (кодовые биты) для той ветви, где и является битами дан­ных (систематический код), a v — контрольными битами. Биты данных и контроля чет­ности передаются за каждый такт к. Сигналы, принятые из демодулятора, имеют иска­женные помехами значения и, v: 1,9; 0,7 — в момент i=l и -0,4; 0,8 — в момент к = 2. Предполагается, что априорные вероятности битов 1 и 0 равновероятны и что ко­дер начинает из нулевого состояния в начальный момент к= 1. Также считается, что дисперсия помех равна 1,3. Напомним, что последовательность N бит характеризуется N интервалами переходов и N+ 1 состояниями (от начального до конечного). Следова­тельно, в данном случае биты стартуют в моменты &=1,2, и интерес представляют метрики в моменты к= 1, 2, 3.

а) Рассчитайте метрики ветвей для моментов к= 1 и к = 2, которые нужны для приме­нения алгоритма МАР.

б) Вычислите прямые метрики состояний для моментов к = 1, 2 и 3.

в) Ниже для каждого правильного состояния в табл. 38.1 даются значения обратных метрик в моменты к = 2 и к = 3. Основываясь на данных таблицы и значениях, полу­ченных в пп. а и б, вычислите значение логарифмического отношения функций прав­доподобия, соответствующего битам данных в моменты к = 1 и к = 2. С помощью

правила принятия решений МАР найдите наиболее вероятную последовательность информационных битов, которая могла быть передана.

р* II II
т~ а 4,6 2,1
т-Ъ 2,4 11,5
т~ с 5,7 3,4
m~d 4,3 0,9

 

8.16. Пусть принятая последовательность, полученная в задаче 8.15 для кода со степенью кодирова­ния 2/3, создается путем исключений из кеда со степенью кодирования 1/2 (задаваемого ре­шеткой на рис. 8.25, б). Исключение происходит таким образом, что передается только каждый второй контрольный бит. Таким образом, принятая последовательность из четырех сигналов представляет собой информационный бит, контрольный бит, информационный бит, информа­ционный бит. Вычислите метрики ветвей и прямые метрики состояний для моментов времени к= 1 и к = 2, которые необходимы для алгоритма МАР.

8.17. Решетка для кода из четырех состояний используется как составной код в турбокоде, как пока­зано на рис. 8 25, б. Степень кодирования равна 1/2, а ветвь, обозначенная как и, v, представ­ляет собой выход, кодовое слово (кодированные биты) для этой ветви, где и — это информаци­онные биты, a v — биты четности. Из демодулятора принимается блок из N= 1024 фрагментов. Пусть первый сигнал из демодулятора поступает в момент к = 1 и в каждый последующий мо­мент к поступают зашумленные биты данных и контроля четности. В момент времени к = 1023 принятые сигналы имеют зашумленные значения и, v, равные 1,3, -0,8, а в момент к = 1024 значения равны -1,4; -0,9. Предполагается, что априорные вероятности того, что биты данных равны 1 или 0, равны и что конечное состояние кодера будет а = 00 в завершающий момент к= 1025. Также считается, что дисперсия помех равна 2,5.

а) Рассчитайте метрики ветвей для моментов к= 1023 и к= 1024.

б) Рассчитайте обратные метрики состояний для моментов к = 1023, 1024 и 1025.

в) Ниже в табл. 38.2 даются значения прямых метрик состояний в моменты к= 1023 и к= 1024 для каждого правильного состояния. Основываясь на таблице и информации из пп. а и б, вычислите значения отношений функций правдоподобия, связанных с информационными битами в моменты времени к= 1023 и к= 1024. Используя пра­вило принятия решений алгоритма МАР, найдите наиболее вероятную последова­тельность битов данных, которая могла быть передана.

Таблица 38.2 а™ к = 1023 к = 1024
т=а 6,6 12,1
m — b 7,0 1,5
т = с 4,2 13,4
m = d 4,0 5,9

 

8.18. Имеется два статистически независимых наблюдения зашумленного сигнала, xi и хг- Про­верьте, что логарифмическое отношение функций правдоподобия (log-likelihood ratio — LLR) Ud\xu X2) можно выразить через индивидуальные LLR как

Цфь х2) = L(x,\d) + L(x,\d) + L(d),


8.19. а) Используя теорему Байеса, подробно распишите этапы преобразования а™, приведенные

в уравнениях (8.129) и (8.130,6). Подсказка, воспользуйтесь упрощенной системой обозна­чений, применяемой в уравнениях (8.121) и (8.122).


Дата добавления: 2015-10-28; просмотров: 73 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Основы теории принятая статистических решений 1051 44 страница| Основы теории принятая статистических решений 1051 46 страница

mybiblioteka.su - 2015-2024 год. (0.029 сек.)