Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Основы теории принятая статистических решений 1051 42 страница

Основы теории принятая статистических решений 1051 31 страница | Основы теории принятая статистических решений 1051 32 страница | Основы теории принятая статистических решений 1051 33 страница | Основы теории принятая статистических решений 1051 34 страница | Основы теории принятая статистических решений 1051 35 страница | Основы теории принятая статистических решений 1051 36 страница | Основы теории принятая статистических решений 1051 37 страница | Основы теории принятая статистических решений 1051 38 страница | Основы теории принятая статистических решений 1051 39 страница | Основы теории принятая статистических решений 1051 40 страница |


Читайте также:
  1. 1 страница
  2. 1 страница
  3. 1 страница
  4. 1 страница
  5. 1 страница
  6. 1 страница
  7. 1 страница

д) D-чередование. Осуществляется перекрестное чередование четных байтов кадра с нечетными байтами следующего кадра. После этой процедуры два последователь­ных байта на диске будут всегда расположены в двух разных кодовых словах. При декодировании это чередование даст возможность исправлять большинство слу­чайных одиночных ошибок и обнаруживать более длинные пакеты ошибок.


 


Содержит 6 дискретных пар (24 символа или байта)

Маскировка

неисправимых, но обнаружим»* ошибок в байтах для облегчения интерполяции между достоверными выборками


 

 

д) D-чередование

Рис. 8.16. Кодирование компакт-диска: а) A-чередование; б) С2-кодирование; в) Б*-чередование;

г) Ci-кодирование; д) D-чередование

8.3.1.1. Укорачивание кода Рида-Соломона

В разделе 8.1 код (п, к) выражался через п = 2т - 1 итоговых символов и к = 2т - 1 - 2/ символов данных, где т представляет собой число битов в символе, at — способ­ность кода к коррекции ошибок в символах. Для системы CD-DA, где символ образо­ван из 8 бит, код с коррекцией 2-битовых ошибок можно сконфигурировать как код (255, 251). Однако в системе CD-DA используется значительно меньшая длина блока. Любой блочный код (в систематической форме) можно укоротить без уменьшения числа ошибок, которые поддаются исправлению внутри блока. Представим себе, что в

ч* Г папа A Kauanuun^ к'плмппряымр* ЧЯПТК 3

терминах кода (255, 251), 227 из 251 информационного символа являются набором нулевых символов (которые в действительности не передавались и поэтому не содер­жат ошибок). Тогда код в действительности будет кодом (28, 24) с той же коррекцией

2- символьных ошибок. Это и делается в С2-кодере системы CD-DA.

Мы можем представить 28 символов вне С2-кодера как информационные сим­волы в Сркодере. И снова можно сконфигурировать сокращенный код (255, 251) с коррекцией 2-символьных ошибок, отбросив 223 символа данных; результатом будет код (32, 28).

8.3.2. Декодирование по схеме CIRC

Внутренний и внешний коды Рида-Соломона с параметром (п, к), равным (32, 28) и (28, 24), используют четыре контрольных байта. Степень кодирования кода в схеме CIRC равна (k^n^ikjni) = 24/32= 3/4. Из уравнения (8.3) следует, что минимальное расстояние и Сг кодов Рида-Соломона будет dmn = п-к + 1 =5. Из уравнений (8.4) и (8.5) имеем следующее:

(8.58)

(8.59)

Здесь t — способность к коррекции ошибок, ар— способность к коррекции стира­ний. Видно, что Сг и С2-декодеры могут исправить максимум 2 символьные ошибки или 4 символьных стирания на кодовое слово. Или, как определяется уравнени­ем (8.6), имеется возможность исправлять а ошибок и у стираний одновременно, если

2a + y<rfmm<n-£

Существует компромисс между коррекцией ошибок и коррекцией стираний; чем больше возможностей задействовано в коррекции ошибок, тем меньше остается воз­можностей для коррекции стираний.

Преимущества схемы CIRC лучше видны на примере декодера. Рабочие этапы, изображенные на рис. 8.17, имеют обратный порядок по сравнению с кодером. Да­вайте рассмотрим этапы работы декодера.

1. D-восстановление. Этот этап нужен для чередования линий задержки, обозначен­ных символом D. 32 байт (Вав2) кодированного кадра выстраиваются для параллельной подачи на 32 входа D-восстановителя. Каждая задержка равна дли­тельности 1 байт, так что происходит обращение перекрестного чередования ин­формации четных байтов кадра с нечетными байтами следующего кадра.

2. С г декодирование. D-восстановитель и Cj-декодер разработаны для исправления однобайтовых ошибок в блоке из 32 байт и обнаружения больших пакетов оши­бок. Если появляются многократные ошибки, то С!-декодер пропускает их без из­менений, приписывая ко всем 28 байт метку стирания и пересылая их по пунктир­ным линиям (четыре бита контроля четности используются в Сгдекодере и больше не сохраняются).


3. D*-восстановление. Из-за разности длины линий задержки D*(l,27) при восста­новлении порядка битов, ошибки, возникающие в слове на выходе Сгдекодера, оказываются разбросанными по большому количеству слов на входе С2-декодера, что позволяет С2-декодеру заниматься исправлением этих ошибок.

4. С2-декодирование. С2-декодер применяется для исправления пакетов ошибок, ко­торые не может исправить Сгдекодер. Если С2-декодеру не удается исправить эти ошибки, то 24-байтовое кодовое слово пропускается без изменений на Д- восстановитель и на соответствующие позиции ставится метка стирания по пунктирным линиям, Во1,..., Во24-

5. А-восстановление. Это финальная операция, в ходе которой осуществляется об­ращение чередования неисправимых, но обнаружимых ошибок, в результате чего происходит интерполяция между соседними кадрами.

Устройство Устройство Устройство восстановления Декодер восстановления Декодер восстановления D С, D* Сг д   Рис. 8.17. Декодер системы воспроизведения компакт-дисков

 

На рис. 8.18 выделены 2-, 3- и 4-й этапы декодирования. На выходе Сгдекодера видна последовательность четырех 28-байтовых кодовых слов, которые превышают однобайтовую способность кода корректировать ошибки. Следовательно, каждый из символов в этих кодовых словах получает метку стирания (показана кружком). D*- восстановитель выполняет разнесение линий задержки для каждого байта кодового слова так, что байты данного кодового слова попадают в разные кодовые слова на входе С2-декодера. Если допустить, что коэффициент задержки £)*-восстановителя, изображенного на рис. 8.18, равен 1 байт, то можно исправить пакет ошибок четырех последовательных кодовых слов С] (поскольку С2-декодер может исправить четыре стирания на кодовое слово). В прикладных системах CD-DA коэффициент задержки составляет 4 байт; поэтому максимальная способность кода к исправлению пакетных ошибок равняется 16 последовательным неисправленным Сгсловам.


Фрагменты, которые нельзя исправить с помощью С2-декодера, могут вызвать слыши­мые искажения. Роль процедуры интерполяции состоит в том, чтобы вставлять новые фрагменты, оцениваемые по ближайшим соседям, вместо ненадежных. Если полное слово признано С2-ненадежным, то невозможно произвести интерполяцию без допол­нительного чередования, поскольку и четные, и нечетные фрагменты одинаково нена­дежны. Это может произойти, если Срдекодер не обнаруживает ошибки, а С2-декодер обнаруживает ее. Целью Д-восстановления (в течение двух кадровых периодов) явля­ется вычисление структуры, в которой четные фрагменты можно интерполировать по нечетным или наоборот.


 

На рис. 8.19 показаны два последовательных ненадежных слова, состоящих из 12 пар фрагментов. Пара фрагментов состоит из фрагмента (2 байта) правого аудиоканала и фрагмента левого. Числа означают порядок размещения фрагментов. Фрагменты, номера которых выделены, отмечены меткой стирания. После Д-восстановления ненадежные фрагменты, показанные на рисунке, оцениваются с помощью линейной интерполяции первого порядка между ближайшими соседними фрагментами из разных мест диска.


 


 

0© 13 19 25 2 8 @(20) @©15 21 4 10 ©@ ©©17 23 О 6 12 бв)(24)

 


 


Рис. 8.19. Эффект чередования (время показано справа налево)

В проигрывателях компакт-дисков при появлении пакетов ошибок, превышающих 48 кадров и дающих в итоге 2 или более последовательных ненадежных фрагментов, применяется иной уровень защиты от ошибок. В этом случае система подавляется (звук приглушается), что незаметно для человеческого слуха, если время подавления не превышает нескольких миллисекунд. Для более подробного ознакомления со схе­мой кодирования CIRC в системе CD-DA см. [11-15].


8.4. Турбокоды

Схема каскадного кодирования впервые была предложена Форни [16] как метод получе­ния высокоэффективного кода посредством комбинации двух или более компонуемых кодов (иногда называемых составными). В результате, такие коды могут корректировать ошибки в значительно более длинных кодах и имеют структуру, которая позволяет от­носительно легко осуществить декодирование средней сложности. Последовательные каскадные коды часто используются в системах с ограничением мощности, таких как космические зонды. Самая распространенная из этих схем содержит внешний код Рида- Соломона (выполняется первым, убирается последним), который следует за сверточным внутренним кодом (выполняется последним, убирается первым) [10]. Турбокод можно считать обновлением структуры каскадного кодирования с итеративным алгоритмом де­кодирования связанной кодовой последовательности. Поскольку такая схема имеет ите­ративную форму, на рис. 1.3 турбокодирование представлено как отдельная категория в структурированных последовательностях.

Турбокоды впервые были введены в 1993 году Берру, Главье и Цитимаджимой (Berrou, Glavieux, Thitimajshima) и опубликованы в [17, 18], где в описываемой схеме достигалась вероятность появления ошибок 1(Г5 при степени кодирования 1/2 и модуля­ции BPSK в канале с белым аддитивным гауссовым шумом (additive white Gaussian noise — AWGN) с EtJN0, равным 0,7 дБ. Коды образуются посредством компоновки двух или более составных кодов, являющихся разными вариантами чередования одной и той же информационной последовательности. Тогда как для сверточных кодов на финаль­ном этапе декодер выдает жестко декодированные биты (или в более общем случае — декодированные символы), в каскадной схеме, такой как турбокод, для хорошей работы алгоритм декодирования не должен ограничивать себя, подавая на декодеры жесткую схему решений. Для лучшего использования информации, получаемой с каждого деко­дера, алгоритм декодирования должен применять, в первую очередь, мягкую схему де­кодирования, вместо жесткой. Для систем с двумя составными кодами концепция, ле­жащая в основе турбодекодирования, заключается в том, чтобы передать мягкую схему принятия решений с выхода одного декодера на вход другого и повторять эту процедуру до тех пор, пока не будут получены надежные решения.

8.4.1. Понятия турбокодирования

8.4.1.1. Функции правдоподобия

Математическое обоснование критерия проверки гипотез остается за теоремой Байеса, которая приводится в приложении Б. В области связи, где наибольший инте­рес представляют прикладные системы, включающие в себя каналы AWGN, наиболее распространенной формой теоремы Байеса является та, которая выражает апостери­орную вероятность (a posteriori probability — АРР) решения через случайную непре­рывную переменную х как

 

 

(8.61)

и

(8.62)


где P{d = фс) — это апостериорная вероятность, a d = / представляет данные d, принад­лежащие i-му классу сигналов из набора классов М. Ранее p(x\d = <) представляло функцию плотности вероятности принимаемого непрерывного сигнала с шумом х, при d = i. Также p{d = i), называемое априорной вероятностью, означает вероятность появления i-го класса сигналов. Обычно х представляет “наблюдаемую” случайную переменную или лежащую в основе критерия статистику, которая получается на вы­ходе демодулятора или какого-либо иного устройства обработки сигналов. Поэтому р(х) — это функция распределения вероятностей принятого сигнала х, дающая тесто­вую статистику в полном пространстве классов сигналов. В уравнении (8.61) при кон­кретном наблюдении р(х) является коэффициентом масштабирования, поскольку он получается путем усреднения по всем классам пространства. Маленькая буква р ис­пользуется для обозначения функции распределения вероятностей непрерывной слу­чайной переменной, а большая буква Р — для обозначения вероятности (априорной и апостериорной). Определение апостериорной вероятности принятого сигнала, из уравнения (8.61), можно представлять как результат эксперимента. Перед экспери­ментом обычно существует (или поддается оценке) априорная вероятность P(d = i). В эксперименте для расчета апостериорной вероятности, P(d = ijx), используется урав­нение (8.61), и это можно считать “обновлением” имевшихся сведений, полученных при изучении принятого сигнала х.

8.4.1.2. Пример класса из двух сигналов

Пусть двоичные логические элементы 1 и 0 представляются электрическими напря­жениями +1 и -1. Переменная d представляет бит переданных данных, который выгля­дит как уровень напряжения или логический элемент. Иногда более предпочтительным оказывается один из способов представления; читатель должен уметь различать это по контексту. Пусть двоичный 0 (или электрическое напряжение -1) будет нулевым эле­ментом при сложении. На рис. 8.20 показана условная функция распределения вероят­ностей при передаче сигнала по каналу AWGN, представленная как функция правдопо­добия. Функция, изображенная справа, p(x\d=+l), представляет функцию распределения вероятностей случайной переменной х, которая передается при условии, что d=+1. Функция, изображенная слева, p(xfi = -1), в свою очередь, представляет ту же функцию распределения вероятностей случайной переменной х, которая передается при условии, что d=-1. На оси абсцисс показан полный диапазон возможных значений тестовой ста­тистики х, которая образуется в приемнике. На рис. 8.20 показано одно такое произ­вольное значение хк, индекс которого представляет наблюдение, произведенное в к-н период времени. Прямая, опущенная в точку хк, пересекает две кривые функций прав­доподобия, что дает в итоге два значения правдоподобия /, = p(xk\dk = +1) и l2 = p(xk\dk = -1). Хорошо известное правило принятия решения по жесткой схеме, называемое принципом максимального правдоподобия, определяет выбор данных dk = +1 или dk = -1, основываясь на большем из двух имеющихся значений /, или 12. Для каждого бита данных в момент к решение гласит, что dt = +1, если хк попадает по правую сторону линии принятия реше­ний, обозначаемой у0, в противном случае — dk = -1.

Аналогичное правило принятия решения, известное как максимум апостериорной вероятности (maximum a posteriori — МАР), можно представить в виде правила мини­мальной вероятности ошибки, принимая во внимание априорную вероятность данных. В общем случае правило МАР выражается следующим образом:

(8.63)

Уравнение (8.63) утверждает, что выбирается одна из гипотез — Нх, (d = +1), если апостериорная вероятность Р(Д = +\\к) больше апостериорной вероятности P(d = - 1|х). В противном случае выбирается гипотеза Н2, (d = -1). Воспользовавшись байесовской формой уравнения (8.61), можно заменить апостериорную вероятность в уравне­нии (8.63) эквивалентным выражением, что дает следующее:

(8.64)

Здесь функция распределения вероятности р(х), имеющаяся в обеих частях неравенст­ва, (8.61), была исключена. Уравнение (8.64), в целом представленное через дроби, да­ет так называемую проверку отношения функций правдоподобия:

(8.65)

8.4.1.3. Логарифмическое отношение функций правдоподобия

Если взять логарифм от соотношения функций правдоподобия, полученного в уравнениях (8.63)—(8.65), получится удобная во многих отношениях метрика, назы­ваемая логарифмическое отношение функций правдоподобия (log-likelihood ratio — LLR). Это вещественное представление мягкого решения вне декодера определяется выражением

(8.66)

так, что

(8.67)

или

L(d\x) = L(x\d) + L(d),

О I/',


где L{x\d) — это LLR тестовой статистики х, получаемой путем измерений х на выходе канала при чередовании условий, что может быть передан d = +1 или d = -1, a L(d) — априорное LLR бита данных d. Для упрощения обозначений уравнение (8.68) можно переписать следующим образом:

L'(d) = Lc (х) + L(d). (8.69)

Здесь L,(x) означает, что данный член LLR получается в результате канальных измере­ний, произведенных в приемнике. Уравнения (8.61)—(8.69) получены только исходя из данных детектора. Далее введение декодера даст стандартные преимущества схемы принятия решений. Для систематических кодов было показано [17], что LLR (мягкий выход) вне декодера равняется следующему:

L(d) = L'(d) + Le (d). (8.70)

Здесь L'(d) — это LLR бита данных вне демодулятора (на входе декодера), а Le(d) называется внешним LLR и представляет внешнюю информацию, вытекаю­щую из процесса декодирования. Выходная последовательность систематического декодера образована величинами, представляющими информационные биты или биты четности. Из уравнений (8.69) и (8.70) выходное LLR декодера теперь при­мет следующий вид:

L(d) = Lc(x) + L(d) + Le(d). (8.71)

Уравнение (8.71) показывает, что выходное LLR систематического декодера можно представить как состоящее из трех компонентов — канального измерения, априорного знания данных и внешнего LLR, относящегося только к декодеру. Чтобы получить фи­нальное L(d), нужно просуммировать отдельные вклады LLR, как показано в уравне­нии (8.71), поскольку все три компонента статистически независимы [17, 19]. Доказатель­ство оставляем читателю в качестве самостоятельного упражнения (см. задачу 8.18.). Мяг­кий выход декодера L(d) является вещественным числом, обеспечивающим в итоге как само принятие жесткого решения, так и его надежность. Знак L(d) задает жесткое реше­ние, т.е. при положительном знаке L(d) решение — d=+1, а при отрицательном — d=-l. Величина L(d) определяет надежность этого решения. Часто величина Le(d) вследствие декодирования имеет тот же знак, что и LJx) + Ud), и поэтому повышает надежность L(d).

8.4.1.4. Принципы итеративного (турбо) декодирования

В типичном приемнике демодулятор часто разрабатывается для выработки ре­шений по мягкой схеме, которые затем будут переданы на декодер. В главе 7 по­вышение достоверности передачи в системе, по сравнению с жесткой схемой принятия решений, оценивается приблизительно в 2 дБ в канале AWGN. Такой декодер следует называть декодером с мягким входом и жестким выходом, по­скольку процесс финального декодирования должен завершаться битами (жесткая схема). В турбокодах, где используется два или несколько составных кодов и де­кодирование подразумевает подключение выхода одного декодера ко входу дру-
того для возможности поддержки итераций, декодер с жестким выходом нежела­телен. Это связано с тем, что жесткая схема в декодере снизит производитель­ность системы (по сравнению с мягкой схемой). Следовательно, для реализации турбодекодирования необходим декодер с мягким входом и мягким выходом. Во время первой итерации на таком декодере (с мягким входом и мягким выхо­дом), показанном на рис. 8.21, данные считаются равновероятными, что дает на­чальное априорное значение LLR L{d) = 0 для третьего члена уравнения (8.67). Канальное значение LLR Lc(x) получается путем взятия логарифма отношения ве­личин U и /2 для определенных значений х (рис. 8.20) и является вторым членом уравнения (8.67). Выход декодера L(d) на рис. 8.21 образуется из LLR детектора L'(d) и внешнего LLR выхода Le(d) и представляет собой сведения, вытекающие

из процесса декодирования. Как показано на рис. 8.21 для итеративного декодиро­вания, внешнее правдоподобие подается обратно на вход (иного составного декоде­ра) для обновления априорной вероятности информации следующей итерации.

Обратная связь для следующей итерации

Г j

| Априорное значение |

> на входе, L{d) \

I I


 


 

Детектор апостериорного значения логарифмического отношения функций правдоподобия,

L’(&) = Lc(x) + L(cO

Канальное значение на входе, Lc{x)

Внешнее значение на выходе, Le(d)

Выходное значение логарифмического отношения функций правдоподобия,

Ud) = Hd) + Le{d)

Апостериорное значение на выходе, L‘(d)


 


Рис. 8.21. Декодер с мягким входом и мягким выходом


 


8.4.2. Алгебра логарифма функции правдоподобия

Для более подробного объяснения итеративной обратной связи выходов мягких деко­деров, вводится понятие алгебры логарифма функции правдоподобия [19]. Для стати­стически независимых данных d сумма двух логарифмических отношений правдопо­добия (log-likelihood ratio — LLR) определяется следующим образом:


 

= (-1) х sgnlL^)] х sgn[L(rf2)] х min {\L(d\% \Ш2)\). (8.73)

Здесь использован натуральный логарифм, а функция sgn (•) возвращает знак своего аргумента. В уравнении (8.72) имеется три операции сложения. Знак “®” применяет­ся для обозначения суммы по модулю 2 данных, представленных двоичными цифра­ми. Знак ЕВ используется для обозначения суммы логарифмов функций правдоподо-


бия или, что то же самое, математической операции, описываемой уравнением (8.72). Сумма двух LLR обозначается оператором ЕВ, который определяется как LLR суммы по модулю 2 основных статистически независимых информационных битов. Вывод уравнения (8.72) показан в приложении 8А. Уравнение (8.73) является аппроксимаци­ей уравнения (8.72), которая будет использована позднее в численном примере. Сло­жение LLR, определяемое уравнениями (8.72) и (8.73), дает один очень интересный результат в том случае, если один из LLR значительно превышает второй.

L(d) ЕВ °° = - L(d)

и

L(d) ЕВ 0 = О

Следует сказать, что алгебра логарифма функции правдоподобия, описанная здесь, немного отличается от той, которая используется в [19], из-за другого выбора нуле­вого элемента. В данном случае нулевым элементом двоичного набора (1,0) выбран 0.

8.4.3. Пример композиционного кода

Рассмотрим двухмерный код (композиционный код), изображенный на рис. 8.22. Его структуру можно описать как массив данных, состоящий из к{ строк и к2 столбцов. В кх строках содержатся кодовые слова, образованные к2 битами данных и п22 бита­ми четности. Каждая из ^ строк представляет собой кодовое слово кода (п2, к2). Ана­логично к2 столбцов содержат кодовые слова, образованные из к{ бит данных и п\ - к{ бит четности. Таким образом, каждый из к2 столбцов представляет собой кодовые сло­ва кода («1, кх). Различные участки структуры обозначены следующим образом: d — для данных, ph — для горизонтальной четности (вдоль строк) и р, — для вертикальной четности (вдоль столбцов). Фактически каждый блок битов данных размером к] х кг кодирован двумя кодами — горизонтальным и вертикальным.

d Ph
Pv  
к2 П2 - к2 столбцов столбцов

ki строк

/11 - к) строк

Внешняя горизонталь

Lev

 

Внешняя

вертикаль

Рис. 8.22. Структура двухмерного ком­позиционного кода

Еще на рис. 8.22 присутствуют блоки Leh и LfV, содержащие значения внешних LLR, полученные из горизонтального и вертикального кодов. Код с коррекцией оши­бок дает некоторое улучшение достоверности передачи. Можно увидеть, что внешние LLR представляют собой меру этого улучшения. Заметьте, что такой композиционный
код является простым примером каскадного кода. Его структура описывается двумя отдельными этапами кодирования — горизонтальным и вертикальным.

Напомним, что решение при финальном декодировании каждого бита и его на­дежности зависит от значения L(d), как показывает уравнение (8.71). Опираясь на это уравнение, можно описать алгоритм, дающий внешние LLR (горизонтальное и вертикальное) и финальное L(d). Для композиционного кода алгоритм такого итера­тивного декодирования будет иметь следующий вид.

1. Устанавливается априорное LLR Ud) = 0 (если априорные вероятности битов данных не равны).

2. Декодируется горизонтальный код и, основываясь на уравнении (8.71), вычисля­ется горизонтальное LLR.

Leh(d)= L(d)-Lc(x)-L(d)

3. Для этапа 4 вертикального декодирования устанавливается L(d) = Leh(d).

4. Декодируется вертикальный код и, основываясь на уравнении (8.71), вычисляет­ся вертикальное LLR.,, 7

Lev(d) = L(d)~Lc(x)-L(d)

5. Для этапа 2 горизонтального декодирования устанавливается L(d) = Lev(d). Затем повторяются этапы 2-5.

6. После достаточного для получения надежного решения количества итераций (т.е. повторения этапов 2—5) следует перейти к этапу 7.

7. Мягким решением на выходе будет

L(d) = Lc(x) + Leh(d)+Lev(d) (8.74)

Далее следует пример, демонстрирующий применение этого алгоритма к очень простому композиционному коду.

8.4.3.1. Пример двухмерного кода с одним разрядом контроля четности

Пусть в кодере биты данных и биты контроля четности имеют значения, показанные на рис. 8.23, а. Связь между битами данных и битами контроля четности внутри конкрет­ной строки (или столбца) выражается через двоичные цифры (1,0) следующим образом:

d, = 1 о II Р12 - 1
о II d4= 1 Р34= 1
Р13 = 1 Р24= 1  
а) выходные двоичные цифры кодера

 

Lc(Xi)= 1,5 Lc{xz) = 0,1 /-c(x12) = 2,5
LC (*з) = 0,2 Lc (*4) = 0,3 Lc (x34) = 2,0
Lc{x 13) =6,0 Lc (X24) = 1.0  
б) логарифмическое отношение функций правдоподобия на входе декодера, Lc (х)

 

Г папа Я Kauankunp тпмпппянчр' ЧЯСТЬ3


d, Ф dj =p,j

d, = dj ®PlJ i,j e {(1, 2), (3,4), (1, 3), (2,4)}.

Здесь символ “®” обозначает сумму по модулю 2. Переданные биты представлены по­следовательностью du d2, d}, d4, pl2, рм, Pm, Pu- На входе приемника искаженные по­мехами биты представляются последовательностью {*,}, {*„}. В данной ситуации для каждого принятого бита данных x, = d, + п, для каждого принятого бита контроля чет­ности x,j = pu + n, ап представляет собой распределение помех, которое статистически независимо от d, и ри. Индексы i и j обозначают позицию в выходном массиве кодера, изображенном на рис. 8.23, а. Хотя зачастую удобнее использовать обозначение при­нятой последовательности в виде [хк], где к является временным индексом. Оба типа обозначений будут рассматриваться далее; i и j используются для позиционных отно­шений внутри композиционного кода, а к — для более общих аспектов временной за­висимости сигнала. Какое из обозначений должно быть заметно по контексту? Если основываться на отношениях, установленных в уравнениях (8.67)—(8.69), и считать модель каналом AWGN с помехами, LLR для канальных измерений сигнала хк, при­нятого в момент к, будет иметь следующий вид:


 


Чз * *• ~&7 *" II +1)'  
p(xk\dk = -1)  
    u-n2T|
oV^CXP   I a J
    f xk + 1^2]
oV^CXP   , a J /
LJxk) = In

= ln

 


 

 


Здесь применяется натуральный логарифм. Если сделать предварительное допущение, что помеха имеет дисперсию а2, равную 1, то получим следующее:

Lc(xk) = 2хк. (8.78)

Рассмотрим пример, в котором информационная последовательность d„ d2, d3, d4 образована двоичными числами 10 0 1, как показано на рис. 8.23, а. Опираясь на уравнение (8.75), можно видеть, что контрольная последовательность р12, р34, ро, Ри должна быть равна 1111. Следовательно, переданная последовательность будет иметь следующий вид:


Дата добавления: 2015-10-28; просмотров: 93 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Основы теории принятая статистических решений 1051 41 страница| Основы теории принятая статистических решений 1051 43 страница

mybiblioteka.su - 2015-2024 год. (0.028 сек.)