Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Основы теории принятая статистических решений 1051 12 страница

Основы теории принятая статистических решений 1051 1 страница | Основы теории принятая статистических решений 1051 2 страница | Основы теории принятая статистических решений 1051 3 страница | Основы теории принятая статистических решений 1051 4 страница | Основы теории принятая статистических решений 1051 5 страница | Основы теории принятая статистических решений 1051 6 страница | Основы теории принятая статистических решений 1051 7 страница | Основы теории принятая статистических решений 1051 8 страница | Основы теории принятая статистических решений 1051 9 страница | Основы теории принятая статистических решений 1051 10 страница |


Читайте также:
  1. 1 страница
  2. 1 страница
  3. 1 страница
  4. 1 страница
  5. 1 страница
  6. 1 страница
  7. 1 страница

3.2.1.1. Вероятность ошибки

В процессе принятия бинарного решения, показанном на рис. 3.2, существует две возможности возникновения ошибки. Ошибка е появится при передаче st(r), если вследствие шума канала уровень переданного сигнала z(t) упадет ниже у0. Вероятность этого равна следующему:

Го

 

(3.34)

Эта возможность показана заштрихованной областью слева от у0 (рис. 3.2). Подобнь*м образом ошибка появляется при передаче s2(t), если вследствие шума канала уровень переданного сигнала г(0 поднимется выше у0. Вероятность этого равна следующему.


 

(3.35)

Вероятность ошибки равна сумме вероятностей всех возможностей ее появления. Для бинарного случая вероятность возникновения ошибочного бита можно выразить сле­дующим образом:

(3.36)


Объединяя формулы (3.34)—(3.36), получаем

P^P^OP^ + P^Pfe)

или, что равносильно,

Рв = P(H2\Si)PUi) + P(H2\s2)P(s2).

Иными словами, при передаче сигнала ^(/) ошибка происходит при выборе гипотезы Н2; или при передаче сигнала s2(i) ошибка происходит при выборе гипотезы Ну. Для равных априорных вероятностей (т.е. P(si) = P(s2) = 1/2) имеем следующее:

PB=±P{H2\s1) + ^P{H1\s2). (3.38)

Используя симметричность плотностей вероятности, получаем следующее:

PB = P(H2)Sl) = P(Hl\s2). (3.39)

Вероятность появления ошибочного бита, Рв, численно равна площади под “хвостом” любой функции правдоподобия, p(z|si) или p(z\s2), “заползающим” на “неправильную” сторону порога. Таким образом, для вычисления Рв мы можем проинтегрировать p(z\si) от -оо до Уо ИЛИ p(z\s2) — от 7о до °°:



jp(z\s2)dz.


 


у0 = (а, +д,)/2

Здесь Yo= (at + а2)12 — оптимальный порог из уравнения (3.32). Заменяя функцию правдоподобия p(z\s2) ее гауссовым эквивалентом из формулы (3.6), имеем


           
   
 
     
(3.41)
 
 

где о0 — дисперсия шума вне коррелятора.

Сделаем замену u = (z- а2)/о0. Тогда Ggdu = dzn


       
 
   
(3.42)
 

Q(x) называется гауссовым интегралом ошибок и часто используется при описании ве­роятности с гауссовой плотностью распределения. Определяется эта функция сле­дующим образом:

(3.43)

Отметим, что гауссов интеграл ошибок может определяться несколькими способами (см. приложение Б); впрочем, все определения одинаково пригодны для описания ве­роятности ошибки при гауссовом шуме. Q(x) нельзя вычислить в аналитическом виде. В табл. Б.1 она представлена в форме таблицы. Хорошие аппроксимации функции


Q(x) более простыми функциями можно найти в работе [5]. Вот одна из таких аппрок­симаций, справедливая для х > 3:


 

(3.44)

Итак, мы оптимизировали (в смысле минимизации Рв) порог у, но не оптимизиро­вали принимающий фильтр в блоке 1 (рис. 3.1). Далее нашей целью является оптими­зация этого фильтра путем максимизации аргумента Q(х) в формуле (3.42).

3.2.2. Согласованный фильтр

Согласованный фильтр (matched filter) — это линейное устройство, спроектированное, чтобы давать на выходе максимально возможное для данного передаваемого сигнала отношение сигнал/шум. Предположим, что на вход линейного, инвариантного во времени (принимающего) фильтра, за которым следует устройство дискретизации (рис. 3.1), подается известный сигнал s(t) плюс шум AWGN n(t). В момент времени t = Т сигнал на выходе устройства дискретизации z(T) состоит из компонента сигнала а, и компонента шума п0. Дисперсия шума на выходе (средняя мощность шума) запи­сывается как о02. Отношение мгновенной мощности шума к средней мощности шума, (S/ЛОг, в момент t = Т вне устройства дискретизации на этапе 1 равно следующему:

(3.45)

Нам нужно найти передаточную функцию фильтра H0(f) с максимальным отношением (S/ЛОг- Сигнал д,(0 на выходе фильтра можно выразить через передаточную функцию фильтра H(j) (до оптимизации) и Фурье-образ сигнала на входе

(f)= jH(f)S(f)e2K,fidf,

где S(f) — Фурье-образ сигнала на входе, s(t). Если двусторонняя спектральная плот­ность мощности шума на входе равна Nq/2 Вт/Гц, то с помощью формул (1.19) и (1.53) мощность шума на выходе можно записать следующим образом:


 

(3.47)

Объединяя формулы (3.45) и (3.47), получаем выражение для (S/N)т:

(3.48)

Найдем теперь значение H(f = H0(f), при котором (SiW)r достигает максимума. Для этого нам понадобится неравенство Шварца, одна из форм записи которого представлена ниже.

ао оо оо

^fl(x)f2(x)dx < J|/i(x)|2^ J|/2W|2dx

Равенство достигается при /,(*) = kf2'(x), где к — произвольная константа, а знак “*” обозначает комплексно сопряженное значение. Если отождествить H(f) с /{(х) и 5(/)е2л,/г с f2(x), можем записать следующее:

|я(/)5(/)е2^/ < \\H(f)?df J|5(/)|2#.

Подстановка в выражение (3.48) дает

(3.51)

или



(3.52)


 


где энергия Е входного сигнала s(t) равна

оо

Е= ]\S(f)\2df.

Следовательно, максимальный выход (S/N)T зависит от энергии входного сигнала и спек­тральной плотности мощности шума, но не от конкретной формы сигнала.

Равенство в выражении (3.52) получается только при использовании передаточной функции оптимального фильтра H0(f):

H(f) = H0(f) = kS*(f)e2nifr

или

й(г) = Г1{*5*(/)е2я,'/7}.

Поскольку s(t) — вещественный сигнал, с помощью формул (А.29) и (А.31) можно за­писать следующее:

s(t), запаздывающим на время передачи символа Т. Отметим, что задержка в Т секунд делает уравнение (3.56) причинным, т.е. запаздывание на Т секунд делает h(t) функцией положительного времени в промежутке 0 < t < Т. Без задержки в Т секунд отклик s(-t) нереализуем, поскольку в этом случае он является функцией отрицательного времени.

3.2.3. Реализация корреляции в согласованном фильтре

В формуле (3.56) и на рис. 3.7, а отражено основное свойство согласованного фильтра: им­пульсная характеристика такого фильтра — это зеркальное отображение (относительно оси t= 0) сигнала с некоторой задержкой. Следовательно, если сигнал равен s(t), его зеркальное отображение равно s(-t), а зеркальное отображение, запаздывающее на Т секунд, — это s(T -1). Выход lit) причинного фильтра во временной области можно описать как свертку принятого входного сигнала r(t) с импульсной характеристикой фильтра (см. раздел А5):

I

z(t) = r(t) * h(t) = jV(T)/i(f - т)dx.



h(t) = s(T-1)


 

 


-T т

Зеркальное отображение Импульсная характеристика

сигнала согласованного фильтра

а)

Рис. 3.7. Коррелятор и согласованный фильтр: а) характеристика согласован­ного фильтра; б) сравнение выходов коррелятора и согласованного фильтра

 

Подставляя h(t) из формулы (3.56) в h(t - х) в формуле (3.57) и выбирая произвольную константу к равной единице, получаем следующее:

t

z(t) = Jr(T)s[Y - (f - %)}dx =

°t (3.58)

= |г(т)$(Г -t + т)dx.

о


Для момента времени t = Т формулу (3.58) можно переписать следующим образом:

т

z(T) - Jr(T)i(T)rfT.

о

Из последнего выражения видно, что интеграл от произведения принятого сигнала r(t) на копию переданного сигнала s(t) на интервале передачи символа представляет собой корре­ляцию r(t) с s(t). Предположим, что принятый сигнал r{t) коррелирует со всеми сигналами- прототипами s,(t) (»= 1,..., М) и для этого используется набор из М корреляторов. Сигнал корреляция которого (или интеграл от произведения) с r{t) дает максимальное значе­ние z,{7), — и есть сигнал, который согласуется с r(t) лучше остальных. Далее это свойство корреляции мы будем использовать для оптимального детектирования сигналов.

3.2.3.1. Сравнение свертки и корреляции

Работа согласованного фильтра описывается математической операцией свертки; сиг­нал сворачивается с импульсной характеристикой фильтра. Работа коррелятора описывает­ся математической операцией корреляции; сигнал коррелирует с копией самого себя. До­вольно часто термин “согласованный фильтр” используется как синоним термина “коррелятор”. Как такое возможно, если математические операции различны? Напомним, что процесс свертки двух сигналов использует один из сигналов, обращенный во времени. Кроме того, импульсная характеристика согласованного фильтра определяется именно че­рез сигнал, обращенный во времени. Следовательно, свертка в согласованном фильтре с обращенной во времени функцией дает еще одно обращение во времени, подавая на вы­ход (в конце интервала передачи символа) то, что является корреляцией сигнала с собст­венной копией. Значит, принимающий фильтр, изображенный на рис. 3.1, можно реали­зовать либо как согласованный фильтр, либо как коррелятор. Важно отметить, что выходы коррелятора и согласованного фильтра одинаковы только в момент времени t=T. Для си­нусоидального входа выход коррелятора, z(t), на интервале 0 < t < Т приблизительно описы­вается линейной функцией. В то же время выход согласованного фильтра приблизительно описывается синусоидой, амплитуда которой в том же промежутке времени модулирована линейной функцией (см. рис. 3.7, б). Поскольку при соизмеримых входах выходы согласо­ванного фильтра и коррелятора идентичны в момент взятия выборки t=Т, функции согла­сованного фильтра и коррелятора, изображенные на рис. 3.8, часто используются как взаимозаменяемые.

r(t) = s,{t)+n(t)

Согласовывается с s,(f)-s2(f)

а)

r(f) = s,{f) + n(f)

б)

Рис. 3.8. Эквивалентность согласованного фильтра и коррелятора: а) согласованный фильтр; б) коррелятор


3.2.3.2. Дилемма в представлении упорядоченных во времени событий

При представлении упорядоченных во времени событий существует серьезная ди­лемма. Возникает частая ошибка в области электротехники — путаница между самым старшим битом и самым младшим. На рис. 3.9, а показано, как обычно изображается функция времени; самое раннее событие представлено слева, а наиболее позднее — справа. Людям, привыкшим читать слева направо, такое изображение кажется единст­венно правильным. Рассмотрим рис. 3.9, б, где показано, как импульсы поступают в сеть (или канал) и покидают ее. Здесь самое раннее событие изображено справа, а наиболее позднее — слева. Изучение этого рисунка позволяет понять, что при записи упорядоченных событий возможна путаница между двумя возможными форматами записи. Чтобы избежать затруднений, зачастую необходимо дать некоторые пояснения (например, указать, что крайний справа бит — это первый бит).

At)

п П Г1,

to tl f2

а)

Вход Выход

ЛПя~L—И ЛЛл.

tz fl to t2 ti t0

б)

Рис. 3.9. Дилемма в представлении упорядо­ченных во времени событий

Математические соотношения часто имеют “встроенные” особенности, гарантирующие соответствующее упорядочение событий. Например, в разделе 3.2.3 согласованный фильтр определялся как имеющий импульсную характеристику h(t) — запаздывающую версию об­ращенной во времени копии сигнала. Иными словами, h(t) = s(T-1). Запаздывание на один интервал передачи символа Т необходимо для того, чтобы фильтр был причинным (выход должен быть функцией положительного времени). Обращение во времени можно рассмат­ривать как “предварительную коррекцию”, где крайняя правая часть временного графика теперь соответствует наиболее раннему событию. Поскольку свертка навязывает другое об­ращение во времени, поступающий сигнал и импульсный отклик фильтра будут “идти в ногу” (ранний с ранним, поздний с поздним).

3.2.4. Оптимизация вероятности ошибки

Для оптимизации (минимизации) Рв в среде канала и приемника с шумом AWGN, пока­занных на рис. 3.1, нужно выбрать оптимальный принимающий фильтр на этапе 1 и оп­тимальный порог принятия решения на этапе 2. Для двоичного случая оптимальный порог принятия решения уже выбран и дается формулой (3.32), а в формуле (3.42) показано, что вероятность ошибки при таком пороге равна Рв = Q[(at - а2)/2а0]. Для минимального Рв в общем случае необходимо выбрать фильтр (согласованный) с максимальным аргументом функции Q(x). Следовательно, нужно определить максимальное (а,-а2)/2о0, что равно­сильно максимальному



 

где (а, - а2) — разность желательных компонентов сигнала на выходе линейного фильтра в момент t = Т, а квадрат этого разностного сигнала представляет его мгно­венную мощность. В разделе 3.2.2 описывался согласованный фильтр с максимальным отношением сигнал/шум для данного известного сигнала. Здесь мы решаем вопрос двоичной передачи сигналов и ищем оптимальный фильтр с максимальной разностью двух возможных выходных сигналов. В выводе, приведенном в уравнениях (3.45)—

(3.52), было показано, что согласованный фильтр дает на выходе максимально воз­можное отношение сигнал/шум, равное 2E/N0• Допустим, что фильтр согласовывает входной разностный сигнал [sx(r) — s2(0]- Следовательно, для момента t = T можем за­писать отношение сигнал/шум на выходе:

(3.61)

где Nq/2 — двусторонняя спектральная плотность мощности шума на входе фильтра и

(3.62)

является энергией разностного сигнала на входе фильтра. Отметим, что уравне­ние (3.61) не представляет отношения сигнал/шум для какой-то отдельной передачи, st(t) или s2(t). Это отношение дает метрику разности сигналов на выходе фильтра. Максимизируя выходное отношение сигнал/шум, как показано в уравнении (3.61), согласованный фильтр обеспечивает максимальное расстояние (нормированное на шум) между двумя возможными выходами — сигналами а{ и а2.

Далее, объединяя уравнения (3.42) и (3.61), получаем следующее:

(3.63)

Для согласованного фильтра уравнение (3.63) является важным промежуточным результатом, включающим энергию разностного сигнала на входе фильтра. Из этого уравнения можно вывести более общее соотношение для энергии принятого бита. Для начала определим временной коэффициент взаимной корреляции р, который будем использовать в качестве меры подобия двух сигналов ^(г) и s2(t). Имеем

(3.64,а)

и

р = cos 0,


где -1 < р < 1. Формула (3.64,а) — это классический математический способ выраже­ния корреляции. Впрочем, если рассматривать $,(г) и s2(t) как векторы сигналов S! и s2, то более удобным представлением р является формула (3.64,6). Векторное представле­ние позволяет получать удобные графические изображения. Векторы S! и s2 разделены углом 0; при малом угле векторы достаточно подобны (сильно коррелируют), а при больших углах они отличаются. Косинус угла 0 дает ту же нормированную метрику корреляции, что и формула (3.64,а).

Расписывая выражение (3.62), получаем следующее:

(3.65)

Напомним, что два первых слагаемых формулы (3.65) представляют энергию, связан­ную с битом, Еь:

(3.66)

Подставляя уравнения (3.64,а) и (3.66) в формулу (3.65), получаем следующее:

Ej = Еь + Еь~ 2рЕь = 2£*(1 — р).

Подставляя уравнение (3.67) в (3.63), получаем следующее:

(3.68)

Рассмотрим случай р = 1, соответствующий наилучшей корреляции сигналов sx{t) и s2(t) в течение времени передачи символа (если сигналы изобразить как векторы, угол между ними будет равен нулю). Возможно ли, чтобы подобные сигналы использова­лись кем-то в реальной системе? Разумеется, нет, поскольку сигналы связи (элементы алфавита) должны быль максимально несопоставимы, чтобы их можно было легко различать (детектировать). В данный момент мы просто рассматриваем возможные значения р. Следующий частный случай р = -1 соответствует “антикорреляции” s{(t) и s2(t) 6 течение времени передачи символа. Другими словами, угол между векторами сигналов составляет 180°. В этом случае, когда векторы являются зеркальными ото­бражениями друг друга, как показано на рис. 3.10, а, сигналы называются антиподны­ми (противофазными). Рассмотрим также случай р = 0, соответствующий нулевой кор­реляции между $,(*) и s2(t) (угол между векторами равен 90°). Такие сигналы, показан­ные на рис. 3.10, б, именуются ортогональными (квадратурными). Чтобы два сигнала были ортогональными, они не должны коррелировать в течение времени передачи символа, т.е. должно выполняться следующее условие:

(3.69)


I *■ vi(0

--------- 'O'------.------

<Ёь <ЁЬ

a)


 


V2

 

6)

Рис. 3.10. Векторы двоичных сиг­налов: а) антиподные; б) ортого­нальные

Вопрос ортогональности рассматривался ранее, в разделе 3.1.3. При детектировании антиподных сигналов (т.е. при р = -1) с помощью согласованного фильтра, уравне­ние (3.68) можно записать следующим образом:

-<S.

Точно так же при детектировании ортогональных сигналов (т.е. при р = 0) с помощью согласованного фильтра, формулу (3.68) можно записать следующим образом:

PB = Q

На рис. 3.10, где амплитуды сигналов выбраны равными у[Ё^, показано, что вероят­ность ошибки, описываемая уравнениями (3.70) и (3.71), является функцией расстояния между Si и s2 (чем больше расстояние, тем меньше Рв). Если взять антиподные сигналы (рис. 3.10, а), расстояние между ними будет равно 2, а энергия Ed, связанная с рас­стоянием, будет определяться как квадрат расстояния, или 4ЕЬ. При подстановке ЕЛ = 4Еь в уравнение (3.63) получаем уравнение (3.70). Если взять ортогональные сигналы

(рис. 3.10, б), расстояние между ними будет равно ^2Еь; следовательно, Ed=2ЕЬ. При подстановке Ed = 2ЕЬ в уравнение (3.63) получим уравнение (3.71).

Пример 3.2. Детектирование антиподных сигналов с помощью согласованного фильтра

Рассмотрим бинарную систему связи, принимающую равновероятные сигналы S\(t) и i2(f) плюс шум AWGN (рис. 3.11). Предположим, что в качестве принимающего фильтра исполь­зуется согласованный фильтр, а спектральная плотность мощности шума No равна 1(Г12 Вт/Гц. С помощью значения напряжения и времени принятого сигнала, показанных на рис. 3.11, вычислите вероятность появления ошибочного бита.


Si(f)

(милливольт)


                       
   
S2(f) (милливольт)
 
 
 
 
   
   
f (мкс)
   
0 12 3
     
-1 -2
 
 

 

Рис. 3.11. Низкочастотные антиподные сигналы


 


Решение

Мы можем графически определить отношение принятой энергии на бит сигнала, ис­пользуя для этого один из двух графиков, либо Si(t), либо S2(t), представленных на рис. 3.11. Энергия — это площадь под графиком импульса, которая находится путем интегрирования:

з

Еь = Jv2(f) dt = (10~3B)2 х (10-* с) + (2 х 10'3В)2 х (10-4 с) -t-(103B)2 х (10-4 с) = 6 х 10"12 Дж.

о

Поскольку сигналы, изображенные на рис. 3.11, являются антиподными и детектируются с помощью согласованного фильтра, используем формулу (3.70) для вычисления вероятности появления ошибочного бита:


 

Из табл. Б.1 находим, что Рв = Зх ЮЛ Кроме того, поскольку аргумент Q(x) больше 3, можно также использовать приближенное соотношение, приведенное в формуле (3.44), ко­торое дает вероятность Рв = 2,9 х ЮЛ

Поскольку принятые сигналы являются антиподными и принимаются согласованным фильтром, весьма вероятно, что формула (3.70) дает верное выражение для нахождения вероятности возникновения ошибочного бита. Сигналы S\(t) и s2(t) могут выглядеть го­раздо более странно, но до тех пор, пока они являются антиподными и детектируются с помощью согласованного фильтра, их внешний вид не влияет на вычисление Рв. Формы сигналов, разумеется, имеют значение, но только когда дело доходит до опреде­ления импульсного отклика согласованного фильтра, необходимого для детектирования этих сигналов.

3.2.5. Вероятность возникновения ошибки при двоичной передаче сигналов

3.2.5.1. Униполярная передача сигналов

На рис. 3.12, а приведен пример низкочастотной ортогональной передачи сигна­лов, называемой униполярной.

si(/) = А 0 <t<T для двоичной 1 s2(t) = 0 0<t<T для двоичного 0


Здесь А > О — амплитуда сигнала s^t). Определение ортогональной передачи сигна­лов дается выражением (3.69), требующим, чтобы $,(0 и s2(t) имели нулевую корреля­цию в течение периода передачи символа.

А

О Т гт ЗТ АТ 5 т

а)

Опорный сигнал si(f)-s2(f)=A б) Рис. 3 12. Детектирование при униполярной низкочастотной передаче сигналов: а) при­мер униполярной передачи сигналов; б) де­тектирование с помощью коррелятора

 

Поскольку в формуле (3.72) s2(t) равно нулю в течение периода передачи символа, множество униполярных импульсов полностью удовлетворяет условию, приведенному в уравнении (3.69), а следовательно, они формируют ортогональное множество сигна­лов. Рассмотрим униполярную передачу сигналов (рис. 3.12, о) и коррелятор (рис. 3.12, б), который может использоваться для детектирования подобных импуль­сов. Коррелятор перемножает входной сигнал КО и разность сигналов-прототипов, [si(0 - ^2(0] = А, после чего результат интегрируется. По окончании периода передачи символа Т устройство дискретизации (включающееся в момент, определенный как верхний предел интегрирования) дает тестовую статистику z(7), которая затем сравни­вается с порогом у0. В случае приема si(t) и шума AWGN (т.е. когда КО = *i(0 + л(0) сигнальный компонент z(7) находится с помощью уравнения (3.69):


Дата добавления: 2015-10-28; просмотров: 52 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Основы теории принятая статистических решений 1051 11 страница| Основы теории принятая статистических решений 1051 13 страница

mybiblioteka.su - 2015-2024 год. (0.029 сек.)