Читайте также: |
|
д) D-чередование. Осуществляется перекрестное чередование четных байтов кадра с нечетными байтами следующего кадра. После этой процедуры два последовательных байта на диске будут всегда расположены в двух разных кодовых словах. При декодировании это чередование даст возможность исправлять большинство случайных одиночных ошибок и обнаруживать более длинные пакеты ошибок.
Содержит 6 дискретных пар (24 символа или байта)
Маскировка
неисправимых, но обнаружим»* ошибок в байтах для облегчения интерполяции между достоверными выборками
д) D-чередование
Рис. 8.16. Кодирование компакт-диска: а) A-чередование; б) С2-кодирование; в) Б*-чередование;
г) Ci-кодирование; д) D-чередование
8.3.1.1. Укорачивание кода Рида-Соломона
В разделе 8.1 код (п, к) выражался через п = 2т - 1 итоговых символов и к = 2т - 1 - 2/ символов данных, где т представляет собой число битов в символе, at — способность кода к коррекции ошибок в символах. Для системы CD-DA, где символ образован из 8 бит, код с коррекцией 2-битовых ошибок можно сконфигурировать как код (255, 251). Однако в системе CD-DA используется значительно меньшая длина блока. Любой блочный код (в систематической форме) можно укоротить без уменьшения числа ошибок, которые поддаются исправлению внутри блока. Представим себе, что в
ч* Г папа A Kauanuun^ к'плмппряымр* ЧЯПТК 3
терминах кода (255, 251), 227 из 251 информационного символа являются набором нулевых символов (которые в действительности не передавались и поэтому не содержат ошибок). Тогда код в действительности будет кодом (28, 24) с той же коррекцией
2- символьных ошибок. Это и делается в С2-кодере системы CD-DA.
Мы можем представить 28 символов вне С2-кодера как информационные символы в Сркодере. И снова можно сконфигурировать сокращенный код (255, 251) с коррекцией 2-символьных ошибок, отбросив 223 символа данных; результатом будет код (32, 28).
8.3.2. Декодирование по схеме CIRC
Внутренний и внешний коды Рида-Соломона с параметром (п, к), равным (32, 28) и (28, 24), используют четыре контрольных байта. Степень кодирования кода в схеме CIRC равна (k^n^ikjni) = 24/32= 3/4. Из уравнения (8.3) следует, что минимальное расстояние и Сг кодов Рида-Соломона будет dmn = п-к + 1 =5. Из уравнений (8.4) и (8.5) имеем следующее:
(8.58)
(8.59)
Здесь t — способность к коррекции ошибок, ар— способность к коррекции стираний. Видно, что Сг и С2-декодеры могут исправить максимум 2 символьные ошибки или 4 символьных стирания на кодовое слово. Или, как определяется уравнением (8.6), имеется возможность исправлять а ошибок и у стираний одновременно, если
2a + y<rfmm<n-£
Существует компромисс между коррекцией ошибок и коррекцией стираний; чем больше возможностей задействовано в коррекции ошибок, тем меньше остается возможностей для коррекции стираний.
Преимущества схемы CIRC лучше видны на примере декодера. Рабочие этапы, изображенные на рис. 8.17, имеют обратный порядок по сравнению с кодером. Давайте рассмотрим этапы работы декодера.
1. D-восстановление. Этот этап нужен для чередования линий задержки, обозначенных символом D. 32 байт (Ва,Вв2) кодированного кадра выстраиваются для параллельной подачи на 32 входа D-восстановителя. Каждая задержка равна длительности 1 байт, так что происходит обращение перекрестного чередования информации четных байтов кадра с нечетными байтами следующего кадра.
2. С г декодирование. D-восстановитель и Cj-декодер разработаны для исправления однобайтовых ошибок в блоке из 32 байт и обнаружения больших пакетов ошибок. Если появляются многократные ошибки, то С!-декодер пропускает их без изменений, приписывая ко всем 28 байт метку стирания и пересылая их по пунктирным линиям (четыре бита контроля четности используются в Сгдекодере и больше не сохраняются).
3. D*-восстановление. Из-за разности длины линий задержки D*(l,27) при восстановлении порядка битов, ошибки, возникающие в слове на выходе Сгдекодера, оказываются разбросанными по большому количеству слов на входе С2-декодера, что позволяет С2-декодеру заниматься исправлением этих ошибок.
4. С2-декодирование. С2-декодер применяется для исправления пакетов ошибок, которые не может исправить Сгдекодер. Если С2-декодеру не удается исправить эти ошибки, то 24-байтовое кодовое слово пропускается без изменений на Д- восстановитель и на соответствующие позиции ставится метка стирания по пунктирным линиям, Во1,..., Во24-
5. А-восстановление. Это финальная операция, в ходе которой осуществляется обращение чередования неисправимых, но обнаружимых ошибок, в результате чего происходит интерполяция между соседними кадрами.
Устройство Устройство Устройство восстановления Декодер восстановления Декодер восстановления D С, D* Сг д Рис. 8.17. Декодер системы воспроизведения компакт-дисков |
На рис. 8.18 выделены 2-, 3- и 4-й этапы декодирования. На выходе Сгдекодера видна последовательность четырех 28-байтовых кодовых слов, которые превышают однобайтовую способность кода корректировать ошибки. Следовательно, каждый из символов в этих кодовых словах получает метку стирания (показана кружком). D*- восстановитель выполняет разнесение линий задержки для каждого байта кодового слова так, что байты данного кодового слова попадают в разные кодовые слова на входе С2-декодера. Если допустить, что коэффициент задержки £)*-восстановителя, изображенного на рис. 8.18, равен 1 байт, то можно исправить пакет ошибок четырех последовательных кодовых слов С] (поскольку С2-декодер может исправить четыре стирания на кодовое слово). В прикладных системах CD-DA коэффициент задержки составляет 4 байт; поэтому максимальная способность кода к исправлению пакетных ошибок равняется 16 последовательным неисправленным Сгсловам.
Фрагменты, которые нельзя исправить с помощью С2-декодера, могут вызвать слышимые искажения. Роль процедуры интерполяции состоит в том, чтобы вставлять новые фрагменты, оцениваемые по ближайшим соседям, вместо ненадежных. Если полное слово признано С2-ненадежным, то невозможно произвести интерполяцию без дополнительного чередования, поскольку и четные, и нечетные фрагменты одинаково ненадежны. Это может произойти, если Срдекодер не обнаруживает ошибки, а С2-декодер обнаруживает ее. Целью Д-восстановления (в течение двух кадровых периодов) является вычисление структуры, в которой четные фрагменты можно интерполировать по нечетным или наоборот.
На рис. 8.19 показаны два последовательных ненадежных слова, состоящих из 12 пар фрагментов. Пара фрагментов состоит из фрагмента (2 байта) правого аудиоканала и фрагмента левого. Числа означают порядок размещения фрагментов. Фрагменты, номера которых выделены, отмечены меткой стирания. После Д-восстановления ненадежные фрагменты, показанные на рисунке, оцениваются с помощью линейной интерполяции первого порядка между ближайшими соседними фрагментами из разных мест диска.
0© 13 19 25 2 8 @(20) @©15 21 4 10 ©@ ©©17 23 О 6 12 бв)(24) |
Рис. 8.19. Эффект чередования (время показано справа налево)
В проигрывателях компакт-дисков при появлении пакетов ошибок, превышающих 48 кадров и дающих в итоге 2 или более последовательных ненадежных фрагментов, применяется иной уровень защиты от ошибок. В этом случае система подавляется (звук приглушается), что незаметно для человеческого слуха, если время подавления не превышает нескольких миллисекунд. Для более подробного ознакомления со схемой кодирования CIRC в системе CD-DA см. [11-15].
8.4. Турбокоды
Схема каскадного кодирования впервые была предложена Форни [16] как метод получения высокоэффективного кода посредством комбинации двух или более компонуемых кодов (иногда называемых составными). В результате, такие коды могут корректировать ошибки в значительно более длинных кодах и имеют структуру, которая позволяет относительно легко осуществить декодирование средней сложности. Последовательные каскадные коды часто используются в системах с ограничением мощности, таких как космические зонды. Самая распространенная из этих схем содержит внешний код Рида- Соломона (выполняется первым, убирается последним), который следует за сверточным внутренним кодом (выполняется последним, убирается первым) [10]. Турбокод можно считать обновлением структуры каскадного кодирования с итеративным алгоритмом декодирования связанной кодовой последовательности. Поскольку такая схема имеет итеративную форму, на рис. 1.3 турбокодирование представлено как отдельная категория в структурированных последовательностях.
Турбокоды впервые были введены в 1993 году Берру, Главье и Цитимаджимой (Berrou, Glavieux, Thitimajshima) и опубликованы в [17, 18], где в описываемой схеме достигалась вероятность появления ошибок 1(Г5 при степени кодирования 1/2 и модуляции BPSK в канале с белым аддитивным гауссовым шумом (additive white Gaussian noise — AWGN) с EtJN0, равным 0,7 дБ. Коды образуются посредством компоновки двух или более составных кодов, являющихся разными вариантами чередования одной и той же информационной последовательности. Тогда как для сверточных кодов на финальном этапе декодер выдает жестко декодированные биты (или в более общем случае — декодированные символы), в каскадной схеме, такой как турбокод, для хорошей работы алгоритм декодирования не должен ограничивать себя, подавая на декодеры жесткую схему решений. Для лучшего использования информации, получаемой с каждого декодера, алгоритм декодирования должен применять, в первую очередь, мягкую схему декодирования, вместо жесткой. Для систем с двумя составными кодами концепция, лежащая в основе турбодекодирования, заключается в том, чтобы передать мягкую схему принятия решений с выхода одного декодера на вход другого и повторять эту процедуру до тех пор, пока не будут получены надежные решения.
8.4.1. Понятия турбокодирования
8.4.1.1. Функции правдоподобия
Математическое обоснование критерия проверки гипотез остается за теоремой Байеса, которая приводится в приложении Б. В области связи, где наибольший интерес представляют прикладные системы, включающие в себя каналы AWGN, наиболее распространенной формой теоремы Байеса является та, которая выражает апостериорную вероятность (a posteriori probability — АРР) решения через случайную непрерывную переменную х как
(8.61)
и
(8.62)
где P{d = фс) — это апостериорная вероятность, a d = / представляет данные d, принадлежащие i-му классу сигналов из набора классов М. Ранее p(x\d = <) представляло функцию плотности вероятности принимаемого непрерывного сигнала с шумом х, при d = i. Также p{d = i), называемое априорной вероятностью, означает вероятность появления i-го класса сигналов. Обычно х представляет “наблюдаемую” случайную переменную или лежащую в основе критерия статистику, которая получается на выходе демодулятора или какого-либо иного устройства обработки сигналов. Поэтому р(х) — это функция распределения вероятностей принятого сигнала х, дающая тестовую статистику в полном пространстве классов сигналов. В уравнении (8.61) при конкретном наблюдении р(х) является коэффициентом масштабирования, поскольку он получается путем усреднения по всем классам пространства. Маленькая буква р используется для обозначения функции распределения вероятностей непрерывной случайной переменной, а большая буква Р — для обозначения вероятности (априорной и апостериорной). Определение апостериорной вероятности принятого сигнала, из уравнения (8.61), можно представлять как результат эксперимента. Перед экспериментом обычно существует (или поддается оценке) априорная вероятность P(d = i). В эксперименте для расчета апостериорной вероятности, P(d = ijx), используется уравнение (8.61), и это можно считать “обновлением” имевшихся сведений, полученных при изучении принятого сигнала х.
8.4.1.2. Пример класса из двух сигналов
Пусть двоичные логические элементы 1 и 0 представляются электрическими напряжениями +1 и -1. Переменная d представляет бит переданных данных, который выглядит как уровень напряжения или логический элемент. Иногда более предпочтительным оказывается один из способов представления; читатель должен уметь различать это по контексту. Пусть двоичный 0 (или электрическое напряжение -1) будет нулевым элементом при сложении. На рис. 8.20 показана условная функция распределения вероятностей при передаче сигнала по каналу AWGN, представленная как функция правдоподобия. Функция, изображенная справа, p(x\d=+l), представляет функцию распределения вероятностей случайной переменной х, которая передается при условии, что d=+1. Функция, изображенная слева, p(xfi = -1), в свою очередь, представляет ту же функцию распределения вероятностей случайной переменной х, которая передается при условии, что d=-1. На оси абсцисс показан полный диапазон возможных значений тестовой статистики х, которая образуется в приемнике. На рис. 8.20 показано одно такое произвольное значение хк, индекс которого представляет наблюдение, произведенное в к-н период времени. Прямая, опущенная в точку хк, пересекает две кривые функций правдоподобия, что дает в итоге два значения правдоподобия /, = p(xk\dk = +1) и l2 = p(xk\dk = -1). Хорошо известное правило принятия решения по жесткой схеме, называемое принципом максимального правдоподобия, определяет выбор данных dk = +1 или dk = -1, основываясь на большем из двух имеющихся значений /, или 12. Для каждого бита данных в момент к решение гласит, что dt = +1, если хк попадает по правую сторону линии принятия решений, обозначаемой у0, в противном случае — dk = -1.
Аналогичное правило принятия решения, известное как максимум апостериорной вероятности (maximum a posteriori — МАР), можно представить в виде правила минимальной вероятности ошибки, принимая во внимание априорную вероятность данных. В общем случае правило МАР выражается следующим образом:
(8.63)
Уравнение (8.63) утверждает, что выбирается одна из гипотез — Нх, (d = +1), если апостериорная вероятность Р(Д = +\\к) больше апостериорной вероятности P(d = - 1|х). В противном случае выбирается гипотеза Н2, (d = -1). Воспользовавшись байесовской формой уравнения (8.61), можно заменить апостериорную вероятность в уравнении (8.63) эквивалентным выражением, что дает следующее:
(8.64)
Здесь функция распределения вероятности р(х), имеющаяся в обеих частях неравенства, (8.61), была исключена. Уравнение (8.64), в целом представленное через дроби, дает так называемую проверку отношения функций правдоподобия:
(8.65)
8.4.1.3. Логарифмическое отношение функций правдоподобия
Если взять логарифм от соотношения функций правдоподобия, полученного в уравнениях (8.63)—(8.65), получится удобная во многих отношениях метрика, называемая логарифмическое отношение функций правдоподобия (log-likelihood ratio — LLR). Это вещественное представление мягкого решения вне декодера определяется выражением
(8.66)
так, что
(8.67)
или
L(d\x) = L(x\d) + L(d),
О I/',
где L{x\d) — это LLR тестовой статистики х, получаемой путем измерений х на выходе канала при чередовании условий, что может быть передан d = +1 или d = -1, a L(d) — априорное LLR бита данных d. Для упрощения обозначений уравнение (8.68) можно переписать следующим образом:
L'(d) = Lc (х) + L(d). (8.69)
Здесь L,(x) означает, что данный член LLR получается в результате канальных измерений, произведенных в приемнике. Уравнения (8.61)—(8.69) получены только исходя из данных детектора. Далее введение декодера даст стандартные преимущества схемы принятия решений. Для систематических кодов было показано [17], что LLR (мягкий выход) вне декодера равняется следующему:
L(d) = L'(d) + Le (d). (8.70)
Здесь L'(d) — это LLR бита данных вне демодулятора (на входе декодера), а Le(d) называется внешним LLR и представляет внешнюю информацию, вытекающую из процесса декодирования. Выходная последовательность систематического декодера образована величинами, представляющими информационные биты или биты четности. Из уравнений (8.69) и (8.70) выходное LLR декодера теперь примет следующий вид:
L(d) = Lc(x) + L(d) + Le(d). (8.71)
Уравнение (8.71) показывает, что выходное LLR систематического декодера можно представить как состоящее из трех компонентов — канального измерения, априорного знания данных и внешнего LLR, относящегося только к декодеру. Чтобы получить финальное L(d), нужно просуммировать отдельные вклады LLR, как показано в уравнении (8.71), поскольку все три компонента статистически независимы [17, 19]. Доказательство оставляем читателю в качестве самостоятельного упражнения (см. задачу 8.18.). Мягкий выход декодера L(d) является вещественным числом, обеспечивающим в итоге как само принятие жесткого решения, так и его надежность. Знак L(d) задает жесткое решение, т.е. при положительном знаке L(d) решение — d=+1, а при отрицательном — d=-l. Величина L(d) определяет надежность этого решения. Часто величина Le(d) вследствие декодирования имеет тот же знак, что и LJx) + Ud), и поэтому повышает надежность L(d).
8.4.1.4. Принципы итеративного (турбо) декодирования
В типичном приемнике демодулятор часто разрабатывается для выработки решений по мягкой схеме, которые затем будут переданы на декодер. В главе 7 повышение достоверности передачи в системе, по сравнению с жесткой схемой принятия решений, оценивается приблизительно в 2 дБ в канале AWGN. Такой декодер следует называть декодером с мягким входом и жестким выходом, поскольку процесс финального декодирования должен завершаться битами (жесткая схема). В турбокодах, где используется два или несколько составных кодов и декодирование подразумевает подключение выхода одного декодера ко входу дру-
того для возможности поддержки итераций, декодер с жестким выходом нежелателен. Это связано с тем, что жесткая схема в декодере снизит производительность системы (по сравнению с мягкой схемой). Следовательно, для реализации турбодекодирования необходим декодер с мягким входом и мягким выходом. Во время первой итерации на таком декодере (с мягким входом и мягким выходом), показанном на рис. 8.21, данные считаются равновероятными, что дает начальное априорное значение LLR L{d) = 0 для третьего члена уравнения (8.67). Канальное значение LLR Lc(x) получается путем взятия логарифма отношения величин U и /2 для определенных значений х (рис. 8.20) и является вторым членом уравнения (8.67). Выход декодера L(d) на рис. 8.21 образуется из LLR детектора L'(d) и внешнего LLR выхода Le(d) и представляет собой сведения, вытекающие
из процесса декодирования. Как показано на рис. 8.21 для итеративного декодирования, внешнее правдоподобие подается обратно на вход (иного составного декодера) для обновления априорной вероятности информации следующей итерации.
Обратная связь для следующей итерации
Г j
| Априорное значение |
> на входе, L{d) \
I I
Детектор апостериорного значения логарифмического отношения функций правдоподобия,
L’(&) = Lc(x) + L(cO
Канальное значение на входе, Lc{x)
Внешнее значение на выходе, Le(d)
Выходное значение логарифмического отношения функций правдоподобия,
Ud) = Hd) + Le{d)
Апостериорное значение на выходе, L‘(d)
Рис. 8.21. Декодер с мягким входом и мягким выходом
8.4.2. Алгебра логарифма функции правдоподобия
Для более подробного объяснения итеративной обратной связи выходов мягких декодеров, вводится понятие алгебры логарифма функции правдоподобия [19]. Для статистически независимых данных d сумма двух логарифмических отношений правдоподобия (log-likelihood ratio — LLR) определяется следующим образом:
= (-1) х sgnlL^)] х sgn[L(rf2)] х min {\L(d\% \Ш2)\). (8.73)
Здесь использован натуральный логарифм, а функция sgn (•) возвращает знак своего аргумента. В уравнении (8.72) имеется три операции сложения. Знак “®” применяется для обозначения суммы по модулю 2 данных, представленных двоичными цифрами. Знак ЕВ используется для обозначения суммы логарифмов функций правдоподо-
бия или, что то же самое, математической операции, описываемой уравнением (8.72). Сумма двух LLR обозначается оператором ЕВ, который определяется как LLR суммы по модулю 2 основных статистически независимых информационных битов. Вывод уравнения (8.72) показан в приложении 8А. Уравнение (8.73) является аппроксимацией уравнения (8.72), которая будет использована позднее в численном примере. Сложение LLR, определяемое уравнениями (8.72) и (8.73), дает один очень интересный результат в том случае, если один из LLR значительно превышает второй.
L(d) ЕВ °° = - L(d)
и
L(d) ЕВ 0 = О
Следует сказать, что алгебра логарифма функции правдоподобия, описанная здесь, немного отличается от той, которая используется в [19], из-за другого выбора нулевого элемента. В данном случае нулевым элементом двоичного набора (1,0) выбран 0.
8.4.3. Пример композиционного кода
Рассмотрим двухмерный код (композиционный код), изображенный на рис. 8.22. Его структуру можно описать как массив данных, состоящий из к{ строк и к2 столбцов. В кх строках содержатся кодовые слова, образованные к2 битами данных и п2-к2 битами четности. Каждая из ^ строк представляет собой кодовое слово кода (п2, к2). Аналогично к2 столбцов содержат кодовые слова, образованные из к{ бит данных и п\ - к{ бит четности. Таким образом, каждый из к2 столбцов представляет собой кодовые слова кода («1, кх). Различные участки структуры обозначены следующим образом: d — для данных, ph — для горизонтальной четности (вдоль строк) и р, — для вертикальной четности (вдоль столбцов). Фактически каждый блок битов данных размером к] х кг кодирован двумя кодами — горизонтальным и вертикальным.
d | Ph |
Pv |
к2 П2 - к2 столбцов столбцов |
ki строк |
/11 - к) строк |
Внешняя горизонталь |
Lev |
Внешняя
вертикаль
Рис. 8.22. Структура двухмерного композиционного кода
Еще на рис. 8.22 присутствуют блоки Leh и LfV, содержащие значения внешних LLR, полученные из горизонтального и вертикального кодов. Код с коррекцией ошибок дает некоторое улучшение достоверности передачи. Можно увидеть, что внешние LLR представляют собой меру этого улучшения. Заметьте, что такой композиционный
код является простым примером каскадного кода. Его структура описывается двумя отдельными этапами кодирования — горизонтальным и вертикальным.
Напомним, что решение при финальном декодировании каждого бита и его надежности зависит от значения L(d), как показывает уравнение (8.71). Опираясь на это уравнение, можно описать алгоритм, дающий внешние LLR (горизонтальное и вертикальное) и финальное L(d). Для композиционного кода алгоритм такого итеративного декодирования будет иметь следующий вид.
1. Устанавливается априорное LLR Ud) = 0 (если априорные вероятности битов данных не равны).
2. Декодируется горизонтальный код и, основываясь на уравнении (8.71), вычисляется горизонтальное LLR.
Leh(d)= L(d)-Lc(x)-L(d)
3. Для этапа 4 вертикального декодирования устанавливается L(d) = Leh(d).
4. Декодируется вертикальный код и, основываясь на уравнении (8.71), вычисляется вертикальное LLR.,, 7
Lev(d) = L(d)~Lc(x)-L(d)
5. Для этапа 2 горизонтального декодирования устанавливается L(d) = Lev(d). Затем повторяются этапы 2-5.
6. После достаточного для получения надежного решения количества итераций (т.е. повторения этапов 2—5) следует перейти к этапу 7.
7. Мягким решением на выходе будет
L(d) = Lc(x) + Leh(d)+Lev(d) (8.74)
Далее следует пример, демонстрирующий применение этого алгоритма к очень простому композиционному коду.
8.4.3.1. Пример двухмерного кода с одним разрядом контроля четности
Пусть в кодере биты данных и биты контроля четности имеют значения, показанные на рис. 8.23, а. Связь между битами данных и битами контроля четности внутри конкретной строки (или столбца) выражается через двоичные цифры (1,0) следующим образом:
d, = 1 | о II | Р12 - 1 |
о II | d4= 1 | Р34= 1 |
Р13 = 1 | Р24= 1 |
а) выходные двоичные цифры кодера |
Lc(Xi)= 1,5 | Lc{xz) = 0,1 | /-c(x12) = 2,5 |
LC (*з) = 0,2 | Lc (*4) = 0,3 | Lc (x34) = 2,0 |
Lc{x 13) =6,0 | Lc (X24) = 1.0 |
б) логарифмическое отношение функций правдоподобия на входе декодера, Lc (х) |
Г папа Я Kauankunp тпмпппянчр' ЧЯСТЬ3
d, Ф dj =p,j
d, = dj ®PlJ i,j e {(1, 2), (3,4), (1, 3), (2,4)}.
Здесь символ “®” обозначает сумму по модулю 2. Переданные биты представлены последовательностью du d2, d}, d4, pl2, рм, Pm, Pu- На входе приемника искаженные помехами биты представляются последовательностью {*,}, {*„}. В данной ситуации для каждого принятого бита данных x, = d, + п, для каждого принятого бита контроля четности x,j = pu + n, ап представляет собой распределение помех, которое статистически независимо от d, и ри. Индексы i и j обозначают позицию в выходном массиве кодера, изображенном на рис. 8.23, а. Хотя зачастую удобнее использовать обозначение принятой последовательности в виде [хк], где к является временным индексом. Оба типа обозначений будут рассматриваться далее; i и j используются для позиционных отношений внутри композиционного кода, а к — для более общих аспектов временной зависимости сигнала. Какое из обозначений должно быть заметно по контексту? Если основываться на отношениях, установленных в уравнениях (8.67)—(8.69), и считать модель каналом AWGN с помехами, LLR для канальных измерений сигнала хк, принятого в момент к, будет иметь следующий вид:
Чз * *• ~&7 *" II | +1)' | |
p(xk\dk = | -1) | |
u-n2T| | ||
oV^CXP | I a J | |
f xk + 1^2] | ||
oV^CXP | , a J / |
LJxk) = In |
= ln |
Здесь применяется натуральный логарифм. Если сделать предварительное допущение, что помеха имеет дисперсию а2, равную 1, то получим следующее:
Lc(xk) = 2хк. (8.78)
Рассмотрим пример, в котором информационная последовательность d„ d2, d3, d4 образована двоичными числами 10 0 1, как показано на рис. 8.23, а. Опираясь на уравнение (8.75), можно видеть, что контрольная последовательность р12, р34, ро, Ри должна быть равна 1111. Следовательно, переданная последовательность будет иметь следующий вид:
Дата добавления: 2015-10-28; просмотров: 93 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Основы теории принятая статистических решений 1051 41 страница | | | Основы теории принятая статистических решений 1051 43 страница |