Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Описание сигнала и помехи

Читайте также:
  1. B.1.2. Перечень и описание вспомогательных активов
  2. DSSS модуляция и демодуляция. Спектр DSSS сигнала.
  3. Job Descriptions Описание работы
  4. Job Descriptions: Описание работы
  5. Ultimate MK3 Универсальное описание добиваний для всех версий игры .
  6. Агрегатное описание систем
  7. Аннотированное описание содержания разделов и тем дисциплины

 

Существует обширная литература [1], [2] по созданию сигналов различного типа, обладающих теми или иными свойствами. В качестве носителя информации берется высокочастотное колебание и модулируется один из возможных параметров сигнала. Сигнал, как функция времени и параметра, запишем в виде s i (t) = s(t, l i), где l i- значение i-го модулируемого параметра. Параметр l может быть случайным или детерминированным. В лабораторной работе рассматривается детерминированное значение параметра. В этом случае говорят, что сигнал s(t,l) известен полностью.

Шумы, или помехи, (объединим их под одним термином, хотя их различают) носят случайный характер и существуют независимо от потребителя информации. Будем считать в дальнейшем, что шумы являются стационарными случайными процессами n(t). Помеха n(t) описывается многомерной плотностью распределения w(x1,...,xm,t1,...,tm), определенные в дискретные моменты времени t1,...,tm. Наиболее часто на практике используется модель нормального (гауссовского) шума n(t), имеющего плотность распределения

(1.1)

 

где a i - математическое ожидание шума в момент t i,

- среднеквадратичное отклонение шума в момент t i,

DR-определитель, элементами которой являются коэффициенты корреляции Ri j:

,

D i j - алгебраическое дополнение к элементу R i j корреляционной матрицы.

Для нормального случайного процесса с некоррелированными значениями в моменты t1,...,tm формула (1.1) упрощается:

 

w(x1,...,xm,t1,...,tm) = w(x1,t1)...w(xn,tn) =

 

.

 

Если случайный процесс стационарный, то ai = a, si=s и предыдущая формула примет вид

(1.2)

Математическое ожидание a - это постоянная составляющая в шуме. Ее можно компенсировать; поэтому будем считать a = 0.

Помеха n(t) и сигнал s(t) в зависимости от условий распространения сигнала могут складываться алгебраически или умножаться. В первом случае имеем

аддитивную помеху x(t)=s(t)+n(t),

во втором - мультипликативную помеху x(t)=s(t)·n(t).

Реализации y(t) случайного процесса x(t) соответственно будут представлять аддитивную смесь сигнала s(t) и реализацию x(t) шума n(t) или произведение сигнала s(t) и реализацию x(t) шума n(t):

y(t)=s(t)+x(t), y(t)=s(t)·x(t).

В лабораторной работе рассматривается аддитивная помеха. Если сигнал отсутствует, то вид распределения вероятностей случайного процесса x(t) в дискретные моменты времени t1,...,tm определяется только лишь распределением шума. Если x(t) есть сумма сигнала и шума, а шум распределен по нормальному закону, то и процесс x(t) в дискретные моменты времени имеет нормальное распределение, но с математическим ожиданием, зависящим от сигнала s(t) и шума n(t). Условные математические ожидания при отсутствии и при наличии сигнала принимают вид:

 

M[x(tj)/s(t) = 0] = 0; M[x(tj)/s(t) ¹ 0] = s(tj), (1.3)

 

где M - оператор математического ожидании.

Пользуясь свойствами дисперсии, можно показать, что условные дисперсии при отсутствии сигнала и при наличии сигнала имеют вид

 

D[ x(tj) / s(t) = 0] = D[ x(tj) / s(t) ¹ 0] = D[n(tj)] = . (1.4)

 

Таким образом, условная плотность распределения процесса x(t) в дискретные моменты времени t1,...,tm имеет вид при наличии сигнала:

(1.5)

при отсутствии сигнала:

(1.6)

Где y1,y2,...,ym - значения процесса x(t) в моменты времени t1,t2,...,tm. Приведенные плотности распределения позволяют построить процедуру проверки гипотез о наличии или отсутствии сигнала, когда на вход приемника поступает аддитивная смесь сигнала и шума, распределенного по нормальному закону.

 

2.Проверка статистических гипотез

2.1.Определения

 

Введем некоторые термины, необходимые в дальнейшем.

Выборка y(t i) = уi - значение случайного процесса x(t) в момент времени t = t i.

Выборочное пространство G i - пространство всевозможных зна­чений yi.

Выборка объема m - значения сдучайного процесса x(t) в моменты времени t 1,t2,...,tm, или последовательность измеряемых значений y(t1),y(t2),...,y(tm) = у1,y2,...,ym = y.

Выборочное пространство G - многомерное пространство всевозможных значений y1,y2,...ym , являющееся объединением пространств G i.Размерность пространства определяется объемом выборки m.

Дискретный источник описывается своими состояниями s1, s2,..., sk. Cостояние, в котором может находиться источник, является случайным. Каждому состоянию источника sj сопоставляется сигнал s(t, l j) c параметром l j и вероятностью P j того, что источник находится в состоянии s j, j=1, 2,..., k.Поскольку источник обязательно находится в одном из состояний, то должно выполняться условие нормировки:

Гипотеза Hi - предположение о том, что источник информации находится в состоянии s i.В частности, источник может находиться в двух состояниях s 0 и s 1, тогда говорят о двухальтернативных гипотезах H 0 и H 1.В задаче обнаружения проверяются гипотезы - источник находится в состоянии , т.е. сигнал s(t,l)=0 (сигнал отсутсвует) и гипотеза - источник находится в состоянии , т.е. сигнал s(t,l) ¹ 0.

Функция правдоподобия - условная плотность распределения w(y1,...ym, t1,...,tm/ s i), рассматриваемая как функция состояния источника si. При известной выборке y1,...,ym она показывает насколько одно состояние источника si “более вероятно“, чем другое состояние s j.

Статистика - функция от результатов выборки. На основании статистики выносится решение о принятии той или иной гипотезы.

Целевая функция, функция цели - название оптимизируемой функции, зависящая от априорных данных и выборки. Целевая функция может быть функцией стоимости эксперимента, функцией числа испытаний и т.д..

Критерием качества принятия решения является оптимальность целевой функции в некотором смысле.

Если подвергается испытанию две гипотезы Н 0 и Н 1, из критерия качества вытекает правило разбиения d выборочного пространства G на подпространства G 0 и G 1. В теории проверки двухальтернативных гипотез подпространство G1 называется критической областью.

По результатам обработки реализации y1,y2,...,ym в соответствии с правилом d принимаются решения g j o состоянии источника сигналов. В частности, при проверке двухальтернативных гипотез принимается решения:

g 0 - верна гипотеза Н0, если выборка y1,...,ymпринадлежит подпространству G 0 ;

g 1 - верна гипотеза Н 1, если выборка y1,...,ymпринадлежит подпространству G 1 .

Наблюдаемые значения y1,y2,...,ym - случайны и поэтому возможны ошибочные решения. Мерой ошибки служат вероятности ошибочных решений.

P(g i / s j ) = P((y1,...,ym) Î G i / s j) - вероятность того, что выборка y1,...,ym принадлежит подпространству G i в то время как состояние источника s j. Вероятности ошибок P(g i / s j ), (j, i) = 0; 1, зависят от правила разбиения пространства G на подпространства. Для выбора того или иного правила разбиения служит критерий разбиения вырочного пространства.

При проверке двухальтернативных гипотез принято классифицировать вероятности ошибок P(g i / s j) в зависимости от проверяемых гипотез.

P(g 1 / s 0) = P(y1,...,ym) Î G 1 / s 0) = a - вероятнсть ошибки первого рода. В радиолокации она называется вероятностью ложной тревоги.

P(g 0 / s 1) = P((y1,...,ym) Î G 0 / s 1) = b - вероятностью ошибки второго рода. В силу того, что подпространства G0 и G1 не пересекaются, имеем

P(g 0 / s 0) = P((y1,...,ym) Î G 0 / s 0) = 1- a - вероятность правильного решения о верности гипотезы H 0,

P(g 1 / s 1) = P((y1,...,ym) Î G 1 / s 1) = 1- b - вероятность правильного решения о верности гипотезы H1. В радиолокации она называется вероятностью правильного обнаружения.

Пользуясь функцией правдоподобия w(y1,...,ym / s), запишем соответствующие вероятности в интегральной форме

 

(2.1)

 

(2.2)

 

(2.3)

 

(2.4)

 

Как видно из формул (2.1) - (2.4), вероятности ошибок зависят от правила разбиения пространства G на подпространства G 0 и G 1.

 

2.2. Критерий Байеса и правило принятия решений

 

В качестве априорной информации наблюдатель должен знать матрицу потерь П, функцию правдоподобия w(y1,...,ym / s 0), w(y1,...,ym / s 1), вероятности состояний источника P(s 0 ), P(s 1) таких, что

P(s 0)+ P(s 1) = 1.

Матрица потерь отражает условную плату за принятые решения:

i j = П(g i / s j), (i, j) = 0; 1,

П i j - потери при принятии решения g i в то время, как источник находился в состоянии s j. Обычно П 1 0 > П 0 0; П 0 1 > П 1 1. Запишем условные математические ожидания потерь, или условные риски, при состоянии источника s0 и s1 соответственно

 

r 0 = M[П / s 0 ] =

 

00 P((y1,y2,...,ym) ÎG 0 / s 0) + П10 P((y1,y2,...,ym) Î G 1 / s 0) =

 

= П00 (1 - a)+ П10 a, (2.5)

 

r1 = M[П / s 1 ] =

11 P((y1,y2,...,ym) Î G 1 / s 1) + П01 P((y1,y2,...,ym) Î G 0 / s 1) =

 

= П11 (1- b)+ П01 b (2.6)

 

В качестве целевой функции для критерия Байеса принимается безусловное математическое ожидание потерь M[П], называемое средним риском, и имеет вид

 

R = M[П] = P0 M[П /s0) + P1 M[П /s1 ] =

 

= P000 (1-a) + П10 a) + P111 (1-b) + П01 b) (2.7)

Разбиение пространства G на подпространства G0 и G1 можно осуществить различными способами. Выбор подпространства G1, минимизирующего риск R называется критерием Байеса, а правило разбиения пространства G по критерию Байеса называется правилом Байеса d .

Заменим в (2.7) условные математические ожидания потерь через соответствующие вероятности

R = P0 П00 + P1 P01

(2.8)

Вce величины, входящие в эту формулу неотрицательны. К выборочному подпространству G1 отнесем только те выборки y1,y2,...,ym , которые обеспечивают не отрицательность подынтегрального выражения. Тогда средний риск R примет минимальное значение. Исходя из этого, имеем правило Байеса

P101- П11) w(y1,y2,...,ym / s1) - P010- П00) w(y1,y2,...,ym /s 0) ³ 0. (2.9)

 

Преобразуем неравенство (2.9) таким образом, чтобы справа находились априорно известные величины, а слева - функции, зависящие от выборки:

 

(2.10)

 

Правая часть неравенства (2.10) называется порогом Байеса С Б :

(2.11)

левая часть - отношением правдоподобия L(y):

(2.12)

Минимизация среднего риска R производилась выбором подпространства G1. Поэтому, если выполняется неравенство (2.9), то принимается гипотеза H1, в противном случае - гипотеза H0. Перепишем формулу (2.10) в виде

(2.13)

Это выражение называется правилом принятия решений по критерию Байеса.

Отношение правдоподобия L(y) - функция от выборки y1,y2,...,ym и является одномерной случайной величиной, описываемой некоторым законом распределения с параметрами, зависящими от закона распределения шума и состояния источника.

 

2.3. Критерий максимума апостериорной вероятности

и правило принятия решений

 

Для применения критерия максимума апостериорной вероятности априорно необходимо знать вероятность P(s j ) того, что источник находится в состоянии s j , функцию правдоподобия

w(y1,y2,...,ym y /s j ) при состояниях источника s j .

Используя теорему об умножении вероятностей, совместное распределение вероятностей выборки y1,y2,...,ym y и состояний источника sj можно записать как

P((y1,y2,...,ym), s j ) = P(y1,y2,...,ym)×P(s j / y1,y2,...,ym) =

 

= P(s j )×w(y1,y2,...,ymy / s j ). (2.14)

 

Условная вероятность P(s j / y1,y2,...,ymy) называется апостериорной вероятностью состояния источника и определим ее из формулы (2.14):

(2.15)

 

Критерием принятия решения в данном случае будет максимальное значение апостериорной вероятности P(s j / y1,y2,...,ym) по отношению к апостериорным вероятностям P(s i / y1,y2,...,ym):

 

P(s j /y1,y2,...,ym) P(s i / y1,y2,...,ym) для всех i ¹ j (2.16)

 

Если выполняется неравенство (2.16), то гипотеза Н j не отвергается.

Для двухальтернативных гипотез этот критерий приводит к неравенству

или

(2.16)

Неравенство (2.16) является правилом принятия решений по критерию максимума апостериорной вероятности. Левая часть неравенства представляет отношение правдоподобия, а правая - порог С МАВ . Правило (2.16) представляется в виде

(2.17)

Из сравнения формул (2.10) и (2.16) видно, правило принятия решения по критерию максимума апостериорной вероятности (МАВ) приводит к тем же результатам, что и критерий Байеса при

П1000= П01 - П11.

 

2.4. Критерий и правило максимума отношения

правдоподобия

 

Положим априорная информация отсутствует и известны только функции правдоподобия. Критерием принятия решения в данном случае будет наибольшая условная вероятность получения выборки y1,y2,...,ym при различных состояниях источника.

Сравнивая вероятности получения выборки y1,y2,...,ym = y при различных состояниях источника, отдадим предпочтение той гипотезе, для которой соответствующая вероятность больше. Для двухалтьтернативных гипотез критерий максимума отношения правдоподобия представляется в виде неравенства

 

(2.17)

Приведем неравенство (2.17) к виду

. (2.18)

Используя функцию правдоподобия, из (2.18) получим правило принятия решения по критерию максимума отношения правдоподобия

. (2.19)

Как видно из (2.18) правило принятия решения по критерию МОП является частным случаем правила Байеса при СБ=1.

 

2.5. Критерий Неймана-Пирсона и правило

принятия решений

 

Рассмотренные ранее критерии принятия решения не учитывали вероятности ошибок a и b при разбиении пространства G на подпространства G0 и G1. В критерии Неймана-Пирсона вероятности ошибок a и b играют ключевую роль. Согласно критерию Неймана-Пирсона при априорно заданной вероятности ошибки первого рода a и заданном объеме выборки m находится такая критическая область G1, для которой вероятность 1- b принимает наибольшее значение.

Зафиксируем вероятность ошибки a. Существует множество критических областей G 1i , для которых вероятность ошибки a одна и та же, т.е.

 

a = P((y1,y2,...,ym)Î G 1i / s 0), i = 1,2,...,

 

но вероятности 1- b правильного решения для различных критических областей различны.

По теореме Неймана-Пирсона среди всех возможных критических областей G1i, для которых вероятность ошибки первого рода равна a, вероятность правильного решения 1- b принимает наибольшее значение для критической области G1, состоящей из всех тех точек y1,y2,...,ym, для которых

(2.20)

Порог определяется из условия

 

P((y1,y2,...,ym) Î G1/s0) = a. (2.21)

Доказательство теоремы Неймана-Пирсона основано на методе неопределенных множителей Лагранжа. Зафиксируем вероятность ошибки a = a* = const и составим функцию Лагранжа

где

С - неопределенный множитель Лагранжа,

1-b - максимизируемая величина,

a*- a = 0 - ограничение в виде равенства.

Вероятность 1- b достигает максимума тогда, когда достигается максимум функции Ф(С) на множестве G1. Выберем множество y1,y2,...,ym, составляющее подпространство G1, таким образом, чтобы значение функции в квадратных скобках под интегралом в последнем выражении был бы отрицательным. Интеграл от отрицательных функций есть отрицательная величина и этим обеспечивается наибольшее значение функции Ф(С). Исходя из этого имеем

. (2.22)

Последнее неравенство называется правилом принятия решений по критерию Неймана-Пирсона.

Согласно неравенству (2.20) решение о верности гипотезы Н1 принимается при превышении порога СН-П отношением правдоподобия. Если сигнал отсутствует, то вероятность этого события равна a, и она известна. Следовательно, справедливо соотношение

 

. (2.23)

 

Зная закон распределения отношения правдоподобия, можно рассчитать порог СН-П.

 

2.6. Минимаксный критерий

 

При использовании этого критерия априорной информацией является матрица потерь и функция правдоподобия.

Правила d 1, по которым выбираются подпространства G0 и G1 , зависят от потребителя (они субъективны), но число k этих правил d j о конечно. Для каждого правила d j, или для каждой пары G0j , G1j , вычисляется условное математическое ожидание потерь - условный риск (2.5), (2.6)

 

(2.24)

Из каждой пары (r 0j , r 1j) выбирается наибольший условный риск:

 

Получили последовательность правил и соответствующие им наибольшие условные потери. Из этой последовательности правил выбирается правило d*, обеспечивающее минимум условного риска

. (2.25)

Рассмотрим на примере построение правила принятия решений по минимаксному критерию для параметра р биномиального распределения.

Пусть случайная величина x распределена по биномиальному закону

но наблюдателю неизвестна эта вероятность p.

Задана матрица потерь

.

Относительно параметра биномиального распределения p наблюдатель проверяет две гипотезы

H0: p = p0 = 0.3, H1: p = p1 = 0.6

Решение о том, какая из гипотез верна, выносится на основании выборки из трех независимых реализаций случайной величины. Произведем проверку гипотез согласно минимаксному критерию.

Выборочное пространство G состоит из элементов

000, 001, 010, 011, 100, 101, 110, 111.

Зададим произвольно 2 правила разбиения пространства G (хотя их можно задать и больше)

d1: G01 =(000, 010, 011): G11 =(001, 100, 101, 110, 111),

 

d2: G02 =(011, 100, 101, 110); G12 =(000, 001, 010, 111).

 

Согласно формулам (2.5), (2.6) вычислим условные риски

 

 

 

Таким образом, имеем таблицу

 

d j r 0 j r 1 j max r i j
d 1 0.7235 0.956 0.956
d 2 0.874 1.292 1.292  

 

Согласно минимакcному критерию получим

Из двух возможных правил разбиения выборочного пространства G выбираем правило d1, обеспечивающее минимальный риск из возможных максимальных условных рисков. Для выбранного правила d1 определим вероятности ошибок a и b:

Как видно из приведенного примера, сначала выбирается способ разбиения выборочного пространства, рассчитываются условные риски, определяется правило, а затем рассчитываются вероятности ошибок.

 

3. Расчет вероятностей ошибок

 

Все рассмотренные критерии, кроме минимаксного критерия, приводят к единому правилу решения - отношение правдоподобия L(y) сравнивается с порогом, зависящим от критерия. Обозначим этот порог независимо от применяемого критерия через С. Тогда имеем правило

. (3.1)

При необходимости будем заменять величину С соответствующим порогом согласно выбранному критерию. Используем функцию правдоподобия w(y1,y2,...,ym/ s i), i=0; 1 для вычисления отношения правдоподобия по формулам (1.5), (1.6). Отношение правдоподобия примет вид

. (3.2)

Прологарифмируем (3.1) и с учетом (3.2) получим

. (3.3)

 

Обозначим (3.4)

Правило решения примет вид

, (3.5)

где Z - статистика,

C* - порог, разделяющий значения статистики Z на два подпространства, соответствующих гипотезам H0 и H1.

Статистика Z представляет собой сумму независимых случайных значений yi, умноженных на неслучайные величины si. Распределение yi -нормальное, параметры которого зависят от состояния источника. Известно, что сумма нормально распределенных величин распределена нормально. Следовательно,

(3.6)

Определим условные математические ожидания статистики Z, учитывая, что математическое ожидание шума M[n(ti)] = 0, дисперсия D[n(ti)] = sn2:

(3.7)

(3.8)

(3.9)

Выразим вероятность ошибки a и вероятность правильного принятия решения D = 1-b через распределение статистики Z:

a = P(L(y) > C/ s0) = P(Z > C* / s0), (3.10)

 

D = 1- b = P(L(y) > C / s1) = P(Z > C* / s1). (3.11)

Интегральное представление вероятностей ошибок имеет вид

На рисунке 3.1 отображено поведение условных плотностей распределения w(z/sj) при различных состояниях источника, а также вероятности ошибок первого и второго рода. Как видно, вероятности ошибок первого и второго рода равны площади под кривой плотности распределения w(z/sj), j=0; 1. Для явного представления вероятности ошибки первого рода подставим (3.7), (3.9) в формулу (3.6) и запишем

(3.12)

где с a*/s z.

Подставляя (3.8), (3.9) в формулу (3.6), запишем вероятность правильного принятия решения D = 1- b:

, где c b = (C* - a z1 ) / s z. (3.13)

Введем параметр dm: . (3.14)

Выразим значения с a и с b через известные величины с*, a z 1 , s z , dm:

(3.15)

Как видно из выражений (3.12) ¸ (3.15), вероятность ошибки a и вероятность правильного принятия решения D = 1 - b являются функциями параметра dm и порога С, который в свою очередь зависит от выбранного критерия. Если зафиксировать dm, а порог С рассматривать как параметр, принимающий значения - ¥ < C < ¥, то можно получить зависимость D=D(a), которая называется рабочей характеристикой. Ее можно построить, используя (3.12), (3.13). На рисунке 3.2 показан график D=D(a) для dm2 > dm1.

В теории статистических решений доказывается, что

(3.16)

т.е. тангенс угла наклона касательной к кривой рабочей характеристики в некоторой точке (a, D) равен порогу обнаружения С. Таким образом, для заданных двух величин из четырех параметров [CAA2] a, D, С, и dm с помощью рабочей характеристики можно найти два других параметра.

 

4. Функционал отношения правдоподобия

 

Рассмотренная выше теория обнаружения сигнала на фоне шума предполагает обработку последовательности случайных величин. На практике существуют системы обработки сигналов, непрерывных во времени. Поэтому произведем переход от дискретного времени к непрерывному и покажем видоизменение рабочих формул.

Сигнал s(t) считается полностью известным. Помеха представляет аддитивный белый шум n(t) с математическим ожиданием, равным нулю, и корреляционной функцией в виде d-функции, т.е

 

M[n(t)] = 0, M[n(t1) n(t2)]= (N0 /2) d(t2 - t1). (4.1)

Время наблюдения ограничено интервалом (0, ТН).

Представим модель сигнала x(t) в виде ряда

(4.2)

где - взаимно ортогональные функции, a коэффициенты x(ti) вычисляются как

. (4.3)

Выберем в качестве ортогональных функций не перекрывающиеся прямоугольные импульсы

(4.4)

где T= t i+1 - t i и постоянна для всех i.

Тогда число ортогональных функций на интервале наблюдения TH будет , а коэффициенты разложения запишутся как

(4.5)

Из последнего выражения видно, что x(ti) - это усредненное значение смеси сигнала и шума на интервале (t i , t i +T). Введение ортогональных функций Fi (t) позволило перейти от непрерывного процесса к его дискретному представлению. Как следствие представления в виде ряда (4.2), модель сигнала s(t), известного полностью, и модель шума n(t) могут быть соответственно записаны через разложение по ортогональным функциям:

, , (4.6)

где

Выражения (4.2), (4.5), (4.6) показывают взаимосвязь между случайными процессами x(t), n(t) и их коэффициентами разложения x(ti), n(ti). Точно такая же связь существует между реализациями случайных процессов y(t), n(t) и их коэффициентами разложения y(ti), x(ti):

(4.7)

(4.8)

Из предыдущих формул видно, что M[n(t i )]= 0.

Корреляционный момент между случайными величинами n(t i ) и n(t j ) равен

B(n(t i ), n(t j )) = M[n(t i ), n(t j ) ] =

(4.9)

Известно, что дисперсия случайной величины равна значению корреляционного момента при равенстве случайных величин. Следовательно, дисперсия случайной величины n(t i ), или дисперсия шума на один отсчет, равна:

. (4.10)

Как видно, дисперсия зависит от длины интервала дискретизации T.

Функция правдоподобия для последовательности сигналов была приведена в разделе 2.2. Запишем отношение правдоподобия с учетом дисперсии шума на один отсчет

(4.11)

При переходе к пределу, когда T ® 0, а число отсчетов m стремится к бесконечности, суммы в выражении (4.11) перейдут в соответствующие интегралы. В результате имеем

 

(4.12)

Выражение (4.12) называется функционалом отношения правдоподобия L(y(t)).

Интеграл

(4.13)

входящий в выражение (4.12), представляет энергию сигнала на интервале наблюдения (0, ТН) и считается известным.

Интеграл

(4.14)

называется корреляционным интегралом.

Правило принятия решения (3.1) не изменяется и определяется неравенством

(4.15)

где порог С зависит от выбранного критерия.

Прологарифмируем обе части неравенства (4.15) и после преобразований с учетом (4.12) получим

(4.16)

 

Обозначим левую и правую части неравенства (4.16) как

(4.17)

(4.18)

В статистической радиотехнике выражение

(4.19)

называется отношением сигнал/шум. Преобразуем порог с* с учетом (4.19):

(4.20)

Правило принятия решений (4.16) примет вид

. (4.21)

Величина V - случайная. Ввиду того, что преобразование x(t) = n(t) + s(t) - линейное и шум n(t) распределен по нормальному закону, то и случайная величина V распределена по нормальному закону с математическим ожиданием и дисперсией, зависящими от наличия или отсутствия сигнала s(t) в принятой реализации:

(4.22)

Условные математические ожидания V при отсутствии и наличии сигнала s(t) в принятой реализации записываются как

(4.23)

Учитывая, что x(t) является реализацией шума n(t) с мате-матическим ожиданием, равным нулю, то M(x(t)) = 0. Вследствие этого получим

(4.24)

Условное математическое ожидание V при наличии сигнала в принятой реализации имеет вид

 

(4.25)

Условные дисперсии рассчитываются следующим образом.

(4.26)

 

(4.27)

Как видно из выражений (4.26), (4.27), условные дисперсии случайной величины V и при наличии сигнала, и при его отсутствии равны,т.е.

. (4.28)

C учетом (4.19) будем иметь

. (4.29)

Подставляя (4.25), (4.29) в (4.22), получим условную плотность распределения случайной величины V при различном состоянии источника.

 

5. Вероятность ошибки и вероятность правильного

принятия решения

 

Определим вероятность ошибки a и вероятность правильного обнаружения D = 1 - b как функция порога с*. Как известно, ошибка первого рода возникает тогда, когда принимается решение о наличии сигнала s(t) в принятой реализации в то время, как сигнал отсутствует. Вероятность этого события равна

. (5.1)

Для упрощения расчетов произведем нормирование случайной величины V, сдвинув V на величину условного математического ожидания при отсутствии сигнала M[V / s=0] и пронормировав полученное выражение относительно условного среднеквадратического отклонения sv0при отсутствии сигнала.

Сдвиг и нормировка производится как левой, так и правой частей неравенства (5.1). В результате преобразований формула (5.1) примет вид

(5.2)

где

, . (5.3)

Вероятность правильного обнаружения D = 1 - b как функция порога с* есть вероятность превышения случайной величиной V порога с *, но при наличии сигнала в принятой реализации:

.

Точно также, как и в предыдущем случае, производится смещение случайной величины V на величину условного математического ожидания M(V / s ¹0) и нормировка ее относительно условного среднеквадратического отклонения Z, равного sv1, но при наличии сигнала. В результате получим вероятность правильного обнаружения

(5.4)

где

, . (5.5)

В интегральной форме вероятность ошибки a и вероятность правильного решения D = 1-b имеют вид

, (5.10)

 

, (5.11)

где с 0 и с 1 вычисляются при помощи формул (4.18), (4.19), (4.24), (4.25), (4.29), (5.3), (5.5).

Формулы (5.10) и (5.11) позволяют построить рабочую характеристику приемника при использовании непрерывных наблюдений на интервале (0, ).

 

6. Методика эксперимента

 

1. Для того, чтобы снять рабочую характеристику, необходимо измерить вероятность правильного обнаружения D=1-b и вероятность ошибки первого рода a. Эти вероятности измеряются методом статистических испытаний. Для измерения D=1-b в течение времени Тн периодически воспроизводится передача “1” по каналу связи при заданном отношении сигнал/шум и фиксированном значении порога. (Переключатель П1 в положении “Сигн.+Шум”, а переключатель П2 в положениях “Е1“, “Е2 “, “Е3 “).

В качестве оценки вероятности правильного обнаружения берется отношение числа импульсов на выходе приемника Ni к общему числу сигналов N*, поступивших на вход приемника за время измерения Тн, т.е. D*= Ni / N*.

Для измерения a в течение времени Тн периодически воспроизводится передача “0” по каналу связи с определенным уровнем шума. (Переключатель П1 в положении “Сигн.+Шум”, а переключатель П2 в положении “0”). Вероятность ложной тревоги вычисляется как отношение числа ошибочных решений Ni к общему числу испытаний за время Тн: a* = Ni / N*.

При N* ® ¥ оценки a* и D* стремятся к своим истинным значениям a и D. Следовательно, результаты измерений тем точнее, чем больше время измерения. Отношение Ni/N* измеряется частотомером. Для этого импульсы с выхода приемника Ni подаются на вход А, а с выхода N* - на вход Б частотомера. Переключатель частотомера “Род работы” устанавливается в положение “Отношение частот A/B”. Время измерения Тн задается переключателем “Время счета”. При этом на цифровом индикаторе частотомера будет высвечиваться значение a* или D* в зависимости от положения переключателя П1.

Рекомендуется регистрировать значения a и D при одном и том же значении порога С*. Для этого при фиксированном значении порога С* переключатель П1 поставить в положение “Сигн.+Шум” и манипулировать переключателем П2 .

Для того, чтобы вычислить значение порога триггера Шмидта приведем правило решения (4.16) к виду

.

Выходное напряжение интегратора pавно

Здесь К постоянный множитель, учитывающий коэффициент передачи перемножителя и интегратора. Поэтому величина порога СТ* триггера Шмидта связана с порогом С выражением

(6.1)

Значение К для каждой установки написано на передней панели.

2. В пункте 8 ЗАДАНИЯ необходимо построить правила d1 , d2 , d3 проверки гипотез о состоянии источника. Согласно правилу dj интервал значений порогов (Сmin*, Cmax*) разбивается точкой Сj на область (Сmin *, Cj ) - приема гипотезы Н0 , и область (Сj , Cmax*) - приема гипотезы Н1 . Примем С2 = СБ , где СБ - порог Байеса, найденный в пункте 7, а пороги C1 и С3 определим по формулам

C1 = С2 - k0 2 - Сmin ), C3 = С2 + k0 max - С2 ),

где 0 < k0 < 1 и задается преподавателем.

3. При расчетах вероятностей a, D=1-b и порога С можно воспользоваться как экспериментальными данными, так и построенными графиками. Погрешность представления a, D и С зависит от качества интерполяции и качества построения графиков. Вероятности a и D по графику определяются следующим образом:

- для известного С в произвольном месте чертежа под углом q к оси абсцисс проводится прямая, удовлетворяющая уравнению tg q = C,

- построенная прямая переносится параллельно самой себе до касания с выбранной рабочей характеристикой,

- в точке касания определяются вероятности a и D.

 

З А Д А Н И Е

1. Ознакомиться с описанием экспериментальной установки, методикой эксперимента, получить от преподавателя значения априорной вероятности P0 состояния источника, матрицу потерь П, отношение сигнал/шум и коэффициент k0 .

2. Поставить переключатель П1 в положение “Сигн.”. Какому состоянию канала соответствует это положение?

Поставить переключатель П2 в положение “Е1 “.

Пронаблюдать и зарисовать осциллограммы напряжений в контрольных точках КТ1, КТ2, КТ3. Объяснить изменение формы сигнала в контрольной точке КТ3 при изменении порога.

Измерить амплитуду и длительность радиосигнала в контрольной точке КТ1 во всех положениях переключателя П2. По результатам измерений вычислить энергию сигнала E s .

3. Поставить переключатель П1 в положение “Сигн.+Шум”.

Пронаблюдать форму напряжений в тех же точках при положениях Е1, Е2, Е3 переключателя П2. Какому состоянию канала соответствует эти положения?

Для каждого положения переключателя П2 вычислить отношение сигнал/шум. В положении переключателя П2 “0” пронаблюдать форму напряжений в контрольных точках. Объяснить изменение формы сигналов в точке КТ3 при изменении порога.

4. Снять зависимость вероятности правильного обнаружения D и вероятности ошибки a от величины порога при трех значениях отношения сигнал/шум.

5. По полученным данным построить рабочие характеристики приемника на плоскости (a, D) для трех значений отношения сигнал/шум, пересчитав предварительно пороги СТ* триггера Шмидта в пороги С, пользуясь соотношением (6.1).

* Расчет вероятностей ошибок ai, bi для различных правил d принятия решения по заданному преподавателем энергии сигнала и рассчитанным порогам триггера Шмидта СТi произвести по схеме

6. Вычислить вероятности a и D по формулам (5.10) и (5.11) для заданного преподавателем отношения сигнал/шум при тех же значениях порогов, что и в пункте 5.

Построить теоретическую рабочую характеристику на том же графике, что и экспериментальная рабочая характеристика и сравнить теоретическую кривую с экспериментальной.

7. Критерий Байеса. Для заданной преподавателем матрицы потерь П, априорного распределения состояния источника P0 и отношения сигнал/шум построить средний риск как функцию порога по формуле (2.7), приведя его к виду

 

R(C) = P1 П11 + P0 П00 + a (С) P010 - П00) - D(C) P101 - П11).

 

Определить порог СБ, при котором функция риска достигает минимум, и соответствующие ему вероятности a и D.

Для найденных a и D проверить формулу (3.16).

8. Минимаксный критерий. Задать три правила d1 , d2 , d3 проверки гипотез о состоянии источника. Выбрать наилучшее правило.

9. Критерий максимума апостериорной вероятности. По заданной априорной вероятности P0 состояния источника для каждого отношения сигнал/шум по экспериментальным кривым найти пороги СМАВ i и вероятности (a(di), D(di)), соответствующие им. Построить график D(di) и объяснить его поведение.

10. Критерий максимума правдоподобия. Для каждого отношения сигнал/шум по экспериментальным кривым найти пороги С1МП , С2МП , С3МП и соответствующие им вероятности (a(d1), D(d1)), (a(d2), D(d2)), (a(d3), D(d3)). Построить график СМП(di) и объяснить его поведение.

11. Критерий Неймана-Пирсона. Положим вероятность ошибки первого рода равна вероятности a, найденной в п. 8. Определить порог СН-П и вероятность правильного обнаружения D по экспериментальной кривой и теоретически для отношения сигнал/шум, заданного в п.1. Сравнить полученные результаты.

12. Построить таблицу для заданного в п.1. отношения сигнал/шум

 

Критерий Априорные данные Порог a, D
Байеса      
min max      
МАВ      
МП      
Неймана-Пирсона      

 

Сравнить полученные результаты. При каких условия критерии min max, МАВ. МП приводятся к критерию Байеса.

[RDJ1]

[CAA2]


Дата добавления: 2015-11-14; просмотров: 31 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Як виключити слово?| ЛАБОРАТОРНА РОБОТА № 1

mybiblioteka.su - 2015-2024 год. (0.11 сек.)