Читайте также: |
|
3.2.1.1. Вероятность ошибки
В процессе принятия бинарного решения, показанном на рис. 3.2, существует две возможности возникновения ошибки. Ошибка е появится при передаче st(r), если вследствие шума канала уровень переданного сигнала z(t) упадет ниже у0. Вероятность этого равна следующему:
Го |
(3.34)
Эта возможность показана заштрихованной областью слева от у0 (рис. 3.2). Подобнь*м образом ошибка появляется при передаче s2(t), если вследствие шума канала уровень переданного сигнала г(0 поднимется выше у0. Вероятность этого равна следующему.
(3.35)
Вероятность ошибки равна сумме вероятностей всех возможностей ее появления. Для бинарного случая вероятность возникновения ошибочного бита можно выразить следующим образом:
(3.36)
Объединяя формулы (3.34)—(3.36), получаем
P^P^OP^ + P^Pfe)
или, что равносильно,
Рв = P(H2\Si)PUi) + P(H2\s2)P(s2).
Иными словами, при передаче сигнала ^(/) ошибка происходит при выборе гипотезы Н2; или при передаче сигнала s2(i) ошибка происходит при выборе гипотезы Ну. Для равных априорных вероятностей (т.е. P(si) = P(s2) = 1/2) имеем следующее:
PB=±P{H2\s1) + ^P{H1\s2). (3.38)
Используя симметричность плотностей вероятности, получаем следующее:
PB = P(H2)Sl) = P(Hl\s2). (3.39)
Вероятность появления ошибочного бита, Рв, численно равна площади под “хвостом” любой функции правдоподобия, p(z|si) или p(z\s2), “заползающим” на “неправильную” сторону порога. Таким образом, для вычисления Рв мы можем проинтегрировать p(z\si) от -оо до Уо ИЛИ p(z\s2) — от 7о до °°:
jp(z\s2)dz.
у0 = (а, +д,)/2
Здесь Yo= (at + а2)12 — оптимальный порог из уравнения (3.32). Заменяя функцию правдоподобия p(z\s2) ее гауссовым эквивалентом из формулы (3.6), имеем
| |||||
где о0 — дисперсия шума вне коррелятора.
Сделаем замену u = (z- а2)/о0. Тогда Ggdu = dzn
| |||
Q(x) называется гауссовым интегралом ошибок и часто используется при описании вероятности с гауссовой плотностью распределения. Определяется эта функция следующим образом:
(3.43)
Отметим, что гауссов интеграл ошибок может определяться несколькими способами (см. приложение Б); впрочем, все определения одинаково пригодны для описания вероятности ошибки при гауссовом шуме. Q(x) нельзя вычислить в аналитическом виде. В табл. Б.1 она представлена в форме таблицы. Хорошие аппроксимации функции
Q(x) более простыми функциями можно найти в работе [5]. Вот одна из таких аппроксимаций, справедливая для х > 3:
(3.44)
Итак, мы оптимизировали (в смысле минимизации Рв) порог у, но не оптимизировали принимающий фильтр в блоке 1 (рис. 3.1). Далее нашей целью является оптимизация этого фильтра путем максимизации аргумента Q(х) в формуле (3.42).
3.2.2. Согласованный фильтр
Согласованный фильтр (matched filter) — это линейное устройство, спроектированное, чтобы давать на выходе максимально возможное для данного передаваемого сигнала отношение сигнал/шум. Предположим, что на вход линейного, инвариантного во времени (принимающего) фильтра, за которым следует устройство дискретизации (рис. 3.1), подается известный сигнал s(t) плюс шум AWGN n(t). В момент времени t = Т сигнал на выходе устройства дискретизации z(T) состоит из компонента сигнала а, и компонента шума п0. Дисперсия шума на выходе (средняя мощность шума) записывается как о02. Отношение мгновенной мощности шума к средней мощности шума, (S/ЛОг, в момент t = Т вне устройства дискретизации на этапе 1 равно следующему:
(3.45)
Нам нужно найти передаточную функцию фильтра H0(f) с максимальным отношением (S/ЛОг- Сигнал д,(0 на выходе фильтра можно выразить через передаточную функцию фильтра H(j) (до оптимизации) и Фурье-образ сигнала на входе
(f)= jH(f)S(f)e2K,fidf,
где S(f) — Фурье-образ сигнала на входе, s(t). Если двусторонняя спектральная плотность мощности шума на входе равна Nq/2 Вт/Гц, то с помощью формул (1.19) и (1.53) мощность шума на выходе можно записать следующим образом:
(3.47)
Объединяя формулы (3.45) и (3.47), получаем выражение для (S/N)т:
(3.48)
Найдем теперь значение H(f = H0(f), при котором (SiW)r достигает максимума. Для этого нам понадобится неравенство Шварца, одна из форм записи которого представлена ниже.
ао оо оо
^fl(x)f2(x)dx < J|/i(x)|2^ J|/2W|2dx
Равенство достигается при /,(*) = kf2'(x), где к — произвольная константа, а знак “*” обозначает комплексно сопряженное значение. Если отождествить H(f) с /{(х) и 5(/)е2л,/г с f2(x), можем записать следующее:
|я(/)5(/)е2^/ < \\H(f)?df J|5(/)|2#.
Подстановка в выражение (3.48) дает
(3.51)
или
(3.52)
где энергия Е входного сигнала s(t) равна
оо
Е= ]\S(f)\2df.
Следовательно, максимальный выход (S/N)T зависит от энергии входного сигнала и спектральной плотности мощности шума, но не от конкретной формы сигнала.
Равенство в выражении (3.52) получается только при использовании передаточной функции оптимального фильтра H0(f):
H(f) = H0(f) = kS*(f)e2nifr
или
й(г) = Г1{*5*(/)е2я,'/7}.
Поскольку s(t) — вещественный сигнал, с помощью формул (А.29) и (А.31) можно записать следующее:
s(t), запаздывающим на время передачи символа Т. Отметим, что задержка в Т секунд делает уравнение (3.56) причинным, т.е. запаздывание на Т секунд делает h(t) функцией положительного времени в промежутке 0 < t < Т. Без задержки в Т секунд отклик s(-t) нереализуем, поскольку в этом случае он является функцией отрицательного времени.
3.2.3. Реализация корреляции в согласованном фильтре
В формуле (3.56) и на рис. 3.7, а отражено основное свойство согласованного фильтра: импульсная характеристика такого фильтра — это зеркальное отображение (относительно оси t= 0) сигнала с некоторой задержкой. Следовательно, если сигнал равен s(t), его зеркальное отображение равно s(-t), а зеркальное отображение, запаздывающее на Т секунд, — это s(T -1). Выход lit) причинного фильтра во временной области можно описать как свертку принятого входного сигнала r(t) с импульсной характеристикой фильтра (см. раздел А5):
I
z(t) = r(t) * h(t) = jV(T)/i(f - т)dx.
h(t) = s(T-1)
-T т
Зеркальное отображение Импульсная характеристика
сигнала согласованного фильтра
а)
Рис. 3.7. Коррелятор и согласованный фильтр: а) характеристика согласованного фильтра; б) сравнение выходов коррелятора и согласованного фильтра |
Подставляя h(t) из формулы (3.56) в h(t - х) в формуле (3.57) и выбирая произвольную константу к равной единице, получаем следующее:
t
z(t) = Jr(T)s[Y - (f - %)}dx =
°t (3.58)
= |г(т)$(Г -t + т)dx.
о
Для момента времени t = Т формулу (3.58) можно переписать следующим образом:
т
z(T) - Jr(T)i(T)rfT.
о
Из последнего выражения видно, что интеграл от произведения принятого сигнала r(t) на копию переданного сигнала s(t) на интервале передачи символа представляет собой корреляцию r(t) с s(t). Предположим, что принятый сигнал r{t) коррелирует со всеми сигналами- прототипами s,(t) (»= 1,..., М) и для этого используется набор из М корреляторов. Сигнал корреляция которого (или интеграл от произведения) с r{t) дает максимальное значение z,{7), — и есть сигнал, который согласуется с r(t) лучше остальных. Далее это свойство корреляции мы будем использовать для оптимального детектирования сигналов.
3.2.3.1. Сравнение свертки и корреляции
Работа согласованного фильтра описывается математической операцией свертки; сигнал сворачивается с импульсной характеристикой фильтра. Работа коррелятора описывается математической операцией корреляции; сигнал коррелирует с копией самого себя. Довольно часто термин “согласованный фильтр” используется как синоним термина “коррелятор”. Как такое возможно, если математические операции различны? Напомним, что процесс свертки двух сигналов использует один из сигналов, обращенный во времени. Кроме того, импульсная характеристика согласованного фильтра определяется именно через сигнал, обращенный во времени. Следовательно, свертка в согласованном фильтре с обращенной во времени функцией дает еще одно обращение во времени, подавая на выход (в конце интервала передачи символа) то, что является корреляцией сигнала с собственной копией. Значит, принимающий фильтр, изображенный на рис. 3.1, можно реализовать либо как согласованный фильтр, либо как коррелятор. Важно отметить, что выходы коррелятора и согласованного фильтра одинаковы только в момент времени t=T. Для синусоидального входа выход коррелятора, z(t), на интервале 0 < t < Т приблизительно описывается линейной функцией. В то же время выход согласованного фильтра приблизительно описывается синусоидой, амплитуда которой в том же промежутке времени модулирована линейной функцией (см. рис. 3.7, б). Поскольку при соизмеримых входах выходы согласованного фильтра и коррелятора идентичны в момент взятия выборки t=Т, функции согласованного фильтра и коррелятора, изображенные на рис. 3.8, часто используются как взаимозаменяемые.
r(t) = s,{t)+n(t)
Согласовывается с s,(f)-s2(f)
а)
r(f) = s,{f) + n(f)
б)
Рис. 3.8. Эквивалентность согласованного фильтра и коррелятора: а) согласованный фильтр; б) коррелятор
3.2.3.2. Дилемма в представлении упорядоченных во времени событий
При представлении упорядоченных во времени событий существует серьезная дилемма. Возникает частая ошибка в области электротехники — путаница между самым старшим битом и самым младшим. На рис. 3.9, а показано, как обычно изображается функция времени; самое раннее событие представлено слева, а наиболее позднее — справа. Людям, привыкшим читать слева направо, такое изображение кажется единственно правильным. Рассмотрим рис. 3.9, б, где показано, как импульсы поступают в сеть (или канал) и покидают ее. Здесь самое раннее событие изображено справа, а наиболее позднее — слева. Изучение этого рисунка позволяет понять, что при записи упорядоченных событий возможна путаница между двумя возможными форматами записи. Чтобы избежать затруднений, зачастую необходимо дать некоторые пояснения (например, указать, что крайний справа бит — это первый бит).
At)
п П Г1,
to tl f2
а)
Вход Выход
ЛПя~L—И ЛЛл.
tz fl to t2 ti t0
б)
Рис. 3.9. Дилемма в представлении упорядоченных во времени событий
Математические соотношения часто имеют “встроенные” особенности, гарантирующие соответствующее упорядочение событий. Например, в разделе 3.2.3 согласованный фильтр определялся как имеющий импульсную характеристику h(t) — запаздывающую версию обращенной во времени копии сигнала. Иными словами, h(t) = s(T-1). Запаздывание на один интервал передачи символа Т необходимо для того, чтобы фильтр был причинным (выход должен быть функцией положительного времени). Обращение во времени можно рассматривать как “предварительную коррекцию”, где крайняя правая часть временного графика теперь соответствует наиболее раннему событию. Поскольку свертка навязывает другое обращение во времени, поступающий сигнал и импульсный отклик фильтра будут “идти в ногу” (ранний с ранним, поздний с поздним).
3.2.4. Оптимизация вероятности ошибки
Для оптимизации (минимизации) Рв в среде канала и приемника с шумом AWGN, показанных на рис. 3.1, нужно выбрать оптимальный принимающий фильтр на этапе 1 и оптимальный порог принятия решения на этапе 2. Для двоичного случая оптимальный порог принятия решения уже выбран и дается формулой (3.32), а в формуле (3.42) показано, что вероятность ошибки при таком пороге равна Рв = Q[(at - а2)/2а0]. Для минимального Рв в общем случае необходимо выбрать фильтр (согласованный) с максимальным аргументом функции Q(x). Следовательно, нужно определить максимальное (а,-а2)/2о0, что равносильно максимальному
где (а, - а2) — разность желательных компонентов сигнала на выходе линейного фильтра в момент t = Т, а квадрат этого разностного сигнала представляет его мгновенную мощность. В разделе 3.2.2 описывался согласованный фильтр с максимальным отношением сигнал/шум для данного известного сигнала. Здесь мы решаем вопрос двоичной передачи сигналов и ищем оптимальный фильтр с максимальной разностью двух возможных выходных сигналов. В выводе, приведенном в уравнениях (3.45)—
(3.52), было показано, что согласованный фильтр дает на выходе максимально возможное отношение сигнал/шум, равное 2E/N0• Допустим, что фильтр согласовывает входной разностный сигнал [sx(r) — s2(0]- Следовательно, для момента t = T можем записать отношение сигнал/шум на выходе:
(3.61)
где Nq/2 — двусторонняя спектральная плотность мощности шума на входе фильтра и
(3.62)
является энергией разностного сигнала на входе фильтра. Отметим, что уравнение (3.61) не представляет отношения сигнал/шум для какой-то отдельной передачи, st(t) или s2(t). Это отношение дает метрику разности сигналов на выходе фильтра. Максимизируя выходное отношение сигнал/шум, как показано в уравнении (3.61), согласованный фильтр обеспечивает максимальное расстояние (нормированное на шум) между двумя возможными выходами — сигналами а{ и а2.
Далее, объединяя уравнения (3.42) и (3.61), получаем следующее:
(3.63)
Для согласованного фильтра уравнение (3.63) является важным промежуточным результатом, включающим энергию разностного сигнала на входе фильтра. Из этого уравнения можно вывести более общее соотношение для энергии принятого бита. Для начала определим временной коэффициент взаимной корреляции р, который будем использовать в качестве меры подобия двух сигналов ^(г) и s2(t). Имеем
(3.64,а)
и
р = cos 0,
где -1 < р < 1. Формула (3.64,а) — это классический математический способ выражения корреляции. Впрочем, если рассматривать $,(г) и s2(t) как векторы сигналов S! и s2, то более удобным представлением р является формула (3.64,6). Векторное представление позволяет получать удобные графические изображения. Векторы S! и s2 разделены углом 0; при малом угле векторы достаточно подобны (сильно коррелируют), а при больших углах они отличаются. Косинус угла 0 дает ту же нормированную метрику корреляции, что и формула (3.64,а).
Расписывая выражение (3.62), получаем следующее:
(3.65)
Напомним, что два первых слагаемых формулы (3.65) представляют энергию, связанную с битом, Еь:
(3.66)
Подставляя уравнения (3.64,а) и (3.66) в формулу (3.65), получаем следующее:
Ej = Еь + Еь~ 2рЕь = 2£*(1 — р).
Подставляя уравнение (3.67) в (3.63), получаем следующее:
(3.68)
Рассмотрим случай р = 1, соответствующий наилучшей корреляции сигналов sx{t) и s2(t) в течение времени передачи символа (если сигналы изобразить как векторы, угол между ними будет равен нулю). Возможно ли, чтобы подобные сигналы использовались кем-то в реальной системе? Разумеется, нет, поскольку сигналы связи (элементы алфавита) должны быль максимально несопоставимы, чтобы их можно было легко различать (детектировать). В данный момент мы просто рассматриваем возможные значения р. Следующий частный случай р = -1 соответствует “антикорреляции” s{(t) и s2(t) 6 течение времени передачи символа. Другими словами, угол между векторами сигналов составляет 180°. В этом случае, когда векторы являются зеркальными отображениями друг друга, как показано на рис. 3.10, а, сигналы называются антиподными (противофазными). Рассмотрим также случай р = 0, соответствующий нулевой корреляции между $,(*) и s2(t) (угол между векторами равен 90°). Такие сигналы, показанные на рис. 3.10, б, именуются ортогональными (квадратурными). Чтобы два сигнала были ортогональными, они не должны коррелировать в течение времени передачи символа, т.е. должно выполняться следующее условие:
(3.69)
I *■ vi(0
--------- 'O'------.------
<Ёь <ЁЬ
a)
V2 |
6)
Рис. 3.10. Векторы двоичных сигналов: а) антиподные; б) ортогональные
Вопрос ортогональности рассматривался ранее, в разделе 3.1.3. При детектировании антиподных сигналов (т.е. при р = -1) с помощью согласованного фильтра, уравнение (3.68) можно записать следующим образом:
-<S.
Точно так же при детектировании ортогональных сигналов (т.е. при р = 0) с помощью согласованного фильтра, формулу (3.68) можно записать следующим образом:
PB = Q
На рис. 3.10, где амплитуды сигналов выбраны равными у[Ё^, показано, что вероятность ошибки, описываемая уравнениями (3.70) и (3.71), является функцией расстояния между Si и s2 (чем больше расстояние, тем меньше Рв). Если взять антиподные сигналы (рис. 3.10, а), расстояние между ними будет равно 2, а энергия Ed, связанная с расстоянием, будет определяться как квадрат расстояния, или 4ЕЬ. При подстановке ЕЛ = 4Еь в уравнение (3.63) получаем уравнение (3.70). Если взять ортогональные сигналы
(рис. 3.10, б), расстояние между ними будет равно ^2Еь; следовательно, Ed=2ЕЬ. При подстановке Ed = 2ЕЬ в уравнение (3.63) получим уравнение (3.71).
Пример 3.2. Детектирование антиподных сигналов с помощью согласованного фильтра
Рассмотрим бинарную систему связи, принимающую равновероятные сигналы S\(t) и i2(f) плюс шум AWGN (рис. 3.11). Предположим, что в качестве принимающего фильтра используется согласованный фильтр, а спектральная плотность мощности шума No равна 1(Г12 Вт/Гц. С помощью значения напряжения и времени принятого сигнала, показанных на рис. 3.11, вычислите вероятность появления ошибочного бита.
Si(f)
(милливольт)
| |||||||||||
| |||||||||||
| |||||||||||
| |||||||||||
Рис. 3.11. Низкочастотные антиподные сигналы
Решение
Мы можем графически определить отношение принятой энергии на бит сигнала, используя для этого один из двух графиков, либо Si(t), либо S2(t), представленных на рис. 3.11. Энергия — это площадь под графиком импульса, которая находится путем интегрирования:
з
Еь = Jv2(f) dt = (10~3B)2 х (10-* с) + (2 х 10'3В)2 х (10-4 с) -t-(103B)2 х (10-4 с) = 6 х 10"12 Дж.
о
Поскольку сигналы, изображенные на рис. 3.11, являются антиподными и детектируются с помощью согласованного фильтра, используем формулу (3.70) для вычисления вероятности появления ошибочного бита:
Из табл. Б.1 находим, что Рв = Зх ЮЛ Кроме того, поскольку аргумент Q(x) больше 3, можно также использовать приближенное соотношение, приведенное в формуле (3.44), которое дает вероятность Рв = 2,9 х ЮЛ
Поскольку принятые сигналы являются антиподными и принимаются согласованным фильтром, весьма вероятно, что формула (3.70) дает верное выражение для нахождения вероятности возникновения ошибочного бита. Сигналы S\(t) и s2(t) могут выглядеть гораздо более странно, но до тех пор, пока они являются антиподными и детектируются с помощью согласованного фильтра, их внешний вид не влияет на вычисление Рв. Формы сигналов, разумеется, имеют значение, но только когда дело доходит до определения импульсного отклика согласованного фильтра, необходимого для детектирования этих сигналов.
3.2.5. Вероятность возникновения ошибки при двоичной передаче сигналов
3.2.5.1. Униполярная передача сигналов
На рис. 3.12, а приведен пример низкочастотной ортогональной передачи сигналов, называемой униполярной.
si(/) = А 0 <t<T для двоичной 1 s2(t) = 0 0<t<T для двоичного 0
Здесь А > О — амплитуда сигнала s^t). Определение ортогональной передачи сигналов дается выражением (3.69), требующим, чтобы $,(0 и s2(t) имели нулевую корреляцию в течение периода передачи символа.
А
О Т гт ЗТ АТ 5 т
а)
Опорный сигнал si(f)-s2(f)=A б) Рис. 3 12. Детектирование при униполярной низкочастотной передаче сигналов: а) пример униполярной передачи сигналов; б) детектирование с помощью коррелятора |
Поскольку в формуле (3.72) s2(t) равно нулю в течение периода передачи символа, множество униполярных импульсов полностью удовлетворяет условию, приведенному в уравнении (3.69), а следовательно, они формируют ортогональное множество сигналов. Рассмотрим униполярную передачу сигналов (рис. 3.12, о) и коррелятор (рис. 3.12, б), который может использоваться для детектирования подобных импульсов. Коррелятор перемножает входной сигнал КО и разность сигналов-прототипов, [si(0 - ^2(0] = А, после чего результат интегрируется. По окончании периода передачи символа Т устройство дискретизации (включающееся в момент, определенный как верхний предел интегрирования) дает тестовую статистику z(7), которая затем сравнивается с порогом у0. В случае приема si(t) и шума AWGN (т.е. когда КО = *i(0 + л(0) сигнальный компонент z(7) находится с помощью уравнения (3.69):
Дата добавления: 2015-10-28; просмотров: 52 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Основы теории принятая статистических решений 1051 11 страница | | | Основы теории принятая статистических решений 1051 13 страница |