Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

1. Вероятности пересечения и объединения зависимых и независимых событий.



Вопросы:

1. Вероятности пересечения и объединения зависимых и независимых событий.

2. Формула полной вероятности. Ее смысл и примеры практического использования.

3. Теорема о гипотезах. Ее смысл и примеры практического использования.

4. Понятие дискретной случайной величины (ДСВ). Ряд распределения вероятностей значений СВ.

5. Понятие непрерывной случайной величины (НСВ). Плотность распределения вероятностей значений СВ.

6. Функция распределения вероятностей значений ДСВ и НСВ; ее смысл и свойства.

7. Числовые характеристики ДСВ и НСВ. Свойства математического ожидания и дисперсии случайной величины.

8. Изменение закона распределения вероятностей СВ при ее функциональном преобразовании. Числовые характеристики функции СВ.

9. Функция и плотность распределения вероятностей значений системы двух случайных величин. Зависимые и независимые СВ

10. Числовые характеристики для системы случайных величин. Ковариация, корреляция, коэффициент корреляции величин, а также математическое ожидание и дисперсия для каждой из СВ, входящих в систему.

11. Плотность распределения вероятностей полярных координат двумерной СВ, декартовы координаты которой распределены по нормальному закону и обладают одинаковой дисперсией.

12. Числовые характеристики (математическое ожидание и дисперсия) полярных координат системы двух СВ, декартовы координаты которой распределены по нормальному закону и обладают одинаковой дисперсией и нулевым матожиданием.

13. Законы распределения вероятностей функции (суммы, разности, произведения и частного) двух СВ.

14. Предельные теоремы теории вероятностей (неравенство Чебышева, центральная предельная теорема Ляпунова).

15. Случайные процессы (СП) и их вероятностное описание. Числовые характеристики случайных процессов.

16. Многомерные функции распределения и плотности распределения вероятностей случайных процессов и их свойства.

17. Строго стационарные случайные процессы и процессы, стационарные в широком смысле. Признаки стационарности случайных процессов.

18. Эргодические случайные процессы и экспериментальные способы оценки их числовых и вероятностных характеристик.

19. Нормальный эргодический случайный процесс, его числовые характеристики.

20. Корреляционная функция эргодического СП; ее свойства и методы экспериментального измерения. Понятие интервала корреляции СП.



21. Спектральная плотность мощности эргодического СП. Экспериментальное измерение спектральной плотности мощности СП. Понятие ширины спектра СП.

22. Спектральная плотность мощности и корреляционная функция эргодического СП; их свойства и связь между ними.

23. Белый шум. Его энергетические и корреляционные характеристики.

24. Узкополосный нормальный эргодический процесс. Огибающая и фаза этого процесса, их плотность распределения и числовые характеристики. (Прохождение узкополосного нормального процесса через линейный амплитудный детектор).

25. Аддитивная смесь регулярного гармонического сигнала и узкополосного нормального СП. Плотность распределения значений огибающей. (Воздействие смеси гармонического сигнала и узкополосного нормального шума на линейный амплитудный детектор).

26. Частотный метод определения спектральной плотности мощности и корреляционной функции случайного процесса на выходе линейной цепи.

27. Временной метод определения спектральной плотности мощности и корреляционной функции случайного процесса на выходе линейной цепи.

28. Шумовая полоса пропускания линейной цепи. Связь шумовой полосы с полосой пропускания по ослаблению коэффициента передачи.

29. Плотность вероятности процесса на выходе нелинейной безынерционной цепи.

30. Числовые характеристики СП на выходе нелинейной безынерционной цепи.

31. Оптимальное выделение сигналов неизвестной формы в условиях действия помехи с произвольной формой спектральной плотности мощности. Коэффициент передачи оптимального фильтра.

 


 

32. Оптимальная фильтрация сигнала неизвестной формы в условиях действия помехи с произвольной формой спектральной плотности мощности. Минимально достижимая среднеквадратическая ошибка фильтрации сигнала.

33. Предельно достижимое отношение сигнал/шум на выходе линейной цепи при оптимальном обнаружении сигнала известной формы в условиях действия белого шума (согласованная фильтрация).

34. Согласованный фильтр; импульсная характеристика и комплексный коэффициент передачи согласованного фильтра.

35. Проблема синхронизации при когерентном обнаружении сигнала известной формы. Некогерентное обнаружение сигналов, его достоинства и недостатки.

36. Оптимальное обнаружение сигналов известной формы в условиях действия помехи с произвольной формой спектральной плотности мощности. Оптимальный фильтр и его комплексный коэффициент передачи.

 

37. Квазиоптимальные фильтры; их достоинства и недостатки в сравнении с согласованными фильтрами.

38. Векторное представление сигнала. Основные характеристики сигнала в функциональном пространстве (расстояние между двумя разными сигналами, угол между векторами этих сигналов, удаление сигнала от начала координат). Понятие базы сигнала (ансамбля сигналов).

39. Простые и сложные сигналы. Преимущества и недостатки сложного сигнала по сравнению с простым при использовании в радиотехнических системах.

40. Простые и сложные сигналы. Методы формирования сложных сигналов.

1.1 Вероятности пересечения и объединения зависимых и независимых событий.

Пересечением или логическим произведением

N событий Aj называют событие, заключающееся в одновременном наблюдении всех событий Aj. Пересечение тождественно союзу “И”. Вероятность пересечения событий A и B равна:

P{ A∙B } = P{ A } ∙ P{B|A} = P{ B } ∙ P{A|B},

где P{B|A} – условная вероятность события B, т.е. вероятность, вычисленная при условии, что событие A уже произошло; P{A|B} – наоборот.

События, для которых условная вероятность отличается от безус­ловной называются зависимыми, а у которых совпадают - независ.

Объединением или логической суммой

N событий Aj (1≤j≤n) называют событие, которое наблюдается каждый раз, когда на­ступает хотя бы одно из событий Aj. Объединение = “ или ”.

Вероятность объединения двух событий A и B равна

P{ A+B } = P{ A } + P{ B } – P{ A∙B },

где P{ A∙B } – вероятность того, что события A и B будут наблю­даться в одном и том же опыте совместно.

 

1.2кон Отсюда следует, что для несовместных событий(которые не могут наблюдаться в одном и том же опыте) вероятность наступления хотя бы одного из них определяется суммой их вероятностей

Для противоположных событий (одно из которых в опыте обязательно происходит) справедливо:

P{ A } + P{ } = 1.

Несовместные Противоположные

события события

 

(2 и 3).1 Формула полной вероятности. Ее смысл и примеры практического использования.

Если условия проведения некоторого опыта представляют собой несколько взаимоисключающих случайных событий, то такие события наз гипотезами и обозн H1, H2…HN. Любое событие A, которым может закончиться подобный опыт, будет, таким образом, всегда наблюдаться совместно с одной из этих гипотез. Если вероятности реализации всех гипотез P{Hi} известны, и известны также условные вероятности события A при каждой из гипотез P{A|Hi}, то определить вероятность наступления события A можно по правилу

- ФПВ

Вероятности P{Hi} характеризуют возможность реализации каждой из гипотез по состоянию на момент до проведения опыта и называются априорными (доопытными). Информация о том, чем завершился опыт, в свою очередь влияет на распределение вероятностей между гипотезами. Таким образом, после проведения опыта вероятность того, что в проведенном опыте реализовалась гипотеза Hi, оказывается отличающейся от исходной и называется апостериорной (послеопытной).

(2 и 3).2 При условии, что в проведенном опыте событие A произошло, эту апостериорную вероятность можно рассчитать по теореме о гипотезах:

где для расчета знаменателя может быть использована формула полной вероятности.

Пример: 2 автомата производят детали, кот. поступают на общий конвейер. Производительность первого автомата вдвое больше второго. Первый автомат производит 60% деталей отличного качества, второй – 84%. Наудачу взятая с конвейера деталь оказалась отличного качества. Найти вероятность того, что она произведена первым автоматом. Решение:

гипотезы:

H1 = взятая с деталь изготовлена автоматом №1

H2 = взятая с деталь изготовлена автоматом №2

Из разницы в производительности автоматов следует, что P{H1} = 2 / 3 и P{ H2 } = 1 / 3.

Событие A = “контролируемая деталь отличного качества” из условия задачи следует, что условные вероятности этого события при каждой из гипотез равны соответственно

P{ A | H1 } = 0,60 P{ A | H2 } = 0,84

(2 и 3).3кон

поэтому полная вероятность того, что взятая с конвейера наугад деталь окажется отличного качества согласно ФПВ составит

P{ A } = 2 • 0,60 / 3 + 1 • 0,84 / 3 = 0,68

 

Используя для расчета апостериорной вероятности теорему о гипотезах, получаем

P{ H1 | A } =

 

4. Понятие дискретной случайной величины (ДСВ). Ряд распределения вероятностей значений СВ.

Случайная величина – числовой результат опыта со случайным исходом. ДСВ – это СВ, принимающая счетное множество значений (то есть значения можно пронумеровать и упорядочить – число на верхней грани кубика. Ряд распределения ДСВ определяет диапазон принимаемых значений и возможность их наблюдения:

Xi

X1

X2

………….

Xn

Pi

P1

P2

…………

Pn

X1, X2, X3…….Xn – несовместные

Pi=1 – свойство нормировки.

5. Понятие непрерывной случайной величины (НСВ). Плотность распределения вероятностей значений СВ.

Случайная величина – числовой результат опыта со случайным исходом. НСВ – это СВ, принимающая континуум значений (все точки интервала) – время прихода на работу.

Плотностью распределения вероятностей (ПРВ) случайной величины x называют функцию Wx (x), характеризующую вероятность попадания СВ в бесконечно малую окрестность аргумента x. Численно она определяется отношением вероятности попадания в бесконечно малый интервал, включающий точку x, к ширине этого интервала и связана с ФРВ соотношением:

Wx (x) = = .

Свойства:

1) [Wx (x)]=1/[x] 2) Плотность вероятности принимает лишь неотрицательные значения

3) Она также позволяет рассчитать вероятность попадания значений СВ x в любой интервал

P{ a < x ≤ b } = . 4)

5) Fx(xo)=

6. Функция распределения вероятностей значений ДСВ и НСВ; ее смысл и свойства.

(ФРВ) случайной величины x называют функцию Fx (x), определяющую вероятность того, что случайная величина x примет значение не превосходящее x: Fx (x) = P{ x ≤ x }

Свойства:

1) Эта функция является безразмерной неубывающей функцией аргумента x.

 

2) 0≤Fξ(x) ≤ 1

 

=1

 

=0

 

3) Она позволяет рассчитать вероятность попадания значений СВ x в любой интервал:

P{ a < x ≤ b } = Fx (b) – Fx (a)

4) Для оценки вероятности принятия случайной величиной единственного конкретного значения этот интервал следует сжать до точки

P{ x = c } = .

7.1 Числовые характеристики ДСВ и НСВ. Свойства математического ожидания и дисперсии случайной величины.

Математическое ожидание(нач момент первого порядка) СВ x определяет константу, к которой стремится среднее арифметическое значений этой СВ:

Mx = m1{ x } =

Свойства матожидания:

1) при x=C=const Mx=C

2) Геометрически математическое ожидание соответствует горизонтальной координате центра масс фигуры ПРВ.

Дисперсия (центр момент второго порядка) Dxхарактеризует степень разброса значений, принимаемых случайной величиной, относительно ее математического ожидания. Она рассчитывается по правилу

Dx = μ2{ x } =

 

7.2кон

Часто вместо дисперсии в расчетах используют среднеквадратичес­кое отклонение (СКО) или, эффективное значение случайной величины

σx = .

Модой распределения называют наивероятнейшее значение случайной величины xмод, определяемое максимумом ее плотности распределения вероятностей

xмод = arg max Wx(x). (5.1.8)

Медианой x0,5, называют значение СВ, для которого справедливо

Fx(x0,5) = P{ x ≤ x0,5 } = P{ x > x0,5 } = 0,5.

 

 

Нормальное распределение:

Wнорм (x)

 

 

а - матожидание

сигма - СКО

8.1 Изменение закона распределения вероятностей СВ при ее функциональном преобразовании. Числовые характеристики функции СВ.

Если каждое значение y случайной величины η возникает как реакция на соответствующее значение x воздействия x: y = f(x), то случайные величины x и η связаны функциональной зависимостью η = f(x).

При функциональном преобразовании ДСВ x возникающая величин η тоже оказывается ДСВ

НСВ: Если для каждого возможного значения выходной СВ η обратная функция оказывается конечнозначной, то закон распределения η определяется соотношением

Wη (y) = , (6.1.1)

где суммирование осуществляется по всем ветвям обратной функции.

Универсальная формула, определяющая ПР результата функционального преобразования СВ:

Wη (y) = +

+

 

8.2кон

Числовые характеристики функционально преобразованной случайной величины

могут быть получены минуя этап нахождения её закона распределения вероятностей:

(6.1.4)

η=з

ξ=o

9.1 Функция и плотность распределения вероятностей значений системы двух случайных величин. Зависимые и нез-ые СВ.

Функцией распределения вероятностей (ФРВ) системы случайных величин x и η называют функцию F(x 0, y 0), опред-щую вероятность одновременного выполнения двух неравенств

Fx η(x 0, y 0 ) = P{ x ≤ x 0, η ≤ y 0 }.ФР является безразмерной неубывающей функцией всех своих аргументов и принимает значения от нуля до единицы.

Плотностью распределения вероятностей (ПРВ) системы случайных величин x и η называют функцию Wxη(x, y), характеризующую вероятность принятия в одном и том же опыте величиной x значений, близких к аргументу x, а величиной η значений, близких к аргументу y. Численно она определяется отношением вероятности попадания точек с координатами (x, η) в бесконечно малый прямоугольник, лежащий около точки (x, y), к площади этого прямоугольника и связана с ФРВ соотношением

W(x, y)=

Эта функция неотрицательна и имеет размерность, обратную произведению размерностей величин x и η.

9.2кон

Свойство нормировки для плотности распределения вероятностей системы случайных величин приобретает вид

= 1

 

Две СВ наз независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая.

Для нез СВ:

Fx η(x 0, y 0) = Fx (x 0) · Fη(y 0) = P{ x ≤ x 0} · P{ η ≤ y 0 }

или Wx η(x 0, y 0) = Wx (x 0) · Wη(y 0)

 

10.1 Числовые характеристики для системы случайных величин. Ковариация, корреляция, коэффициент корреляции величин, а также математическое ожидание и дисперсия для каждой из СВ, входящих в систему.

смешанный начальный момент порядка k,r m k r x, η } =

Порядка 1,1 называют еще корреляцией величин x и η

Bxη = m11{ x, η } = .

Смешанный центральный момент порядка k,r (1.1-ковариация)

μ k r {x, η} =

Нормированным аналогом этой хар-ки является коэфф корреляции меж величинами x и η, определяемый соотношением

rxη = .(3) (7.1.10)

 

10.2кон

Коэфф корреляции хар-ет степень лин взаимосвязи м-ду величинами x и η, вход в систему. Для любых СВ

| rxη | ≤ 1, причем rxη=±1 соответствует жесткой функциональной связи (η = k · x + b).

Значение 0 ≤ | rxη | ≤ 1 свидетельствует о наличии мягкой вероятностной взаимосвязи меж величинами, а rxη = 0 говорит о том, что линейная взаимосвязь меж величинами x и η отсутствует. Подобные величины называют некоррелированными.

Wx(x)=

 

 
 


Wη(y)=

 

 

Mx=

 

 

Dx=

11. Плотность распределения вероятностей полярных координат двумерной СВ, декартовы координаты которой распределены по нормальному закону и обладают одинаковой дисперсией.

ρ=sqrt(ξ12+ ξ22)= f(ξ1,ξ2)

θ=arctg(ξ21)

 

 

, ,

Для независимых ξ1и ξ2 :

 

 

, ,

 

14. Предельные теоремы теории вероятностей (неравенство Чебышева, центральная предельная теорема Ляпунова).

Это совокупность утверждений, конкретизирующих численное содержание закона больших чисел. Неравенство Чебышева:

ε2 выносить за интеграл

 

, правило трех сигм, ЦПТЛ:

Пусть есть бесконечная последовательность независимых неодинаково распределённых СВ, имеющих Mξ и СКО σ.

Тогда для любого действительного числа х существует предел:

где Ф(х) – функция станд норм распределения.

Вn-сумма n СКО(сигм)

12. Числовые характеристики (математическое ожидание и дисперсия) полярных координат системы двух СВ, декартовы координаты которой распределены по нормальному закону и обладают одинаковой дисперсией и нулевым матожиданием.

Для нулевых матожиданий(а=0, b=0) имеем:

Следовательно, расстояние ρ распределено по закону Рэлея с матожиданием

и дисперсией По_свойству_нормировки и вычисляя интеграл находим, что φ распределен равномерно от 0 до 2π. Матожидание = π. Дисперсия = (4π)2/12

15.1 Случайные процессы (СП) и их вероятностное описание. Числовые характеристики случайных процессов.

СП – это численное выражение некоторого явления, протекающего во времени случайным образом. Функции, отражающие развитие процесса в конкретном опыте, наз его реализациями. Таким образом, СП ξ(t) можно представлять себе как совокупность всех его возможных реализаций ξ(1)(t)…. ξ(n)(t)

СП, свойства которых изменяются во времени произвольным образом, наз нестационарными.

-||-||- не зависят от момента начала отсчета времени наз стационарными. СП, состоящие лишь из однотипных реализаций, наз эргодическими.

Одномерная функция распределения характеризует вероятность наблюдения реализаций СП, проходящих в заданный момент времени t ниже заданного порога x:

У стационарных процессов подобная вероятность остается неизменной вдоль всей временной оси:

. Для эргодических эта вероятность проявляет себя в виде среднего времени, которое каждая из реализаций данного СП проводит ниже уровня x

 

13. Законы распределения вероятностей функции (суммы, разности, произведения и частного) двух СВ.

Пусть известны: Wξ1ξ2(x1,x2) и η=f(ξ1,ξ2)

x1=y1

x2=φ2(y1,y2)

=

 

 

1)η=ξ2+ξ1 2) η=ξ2-ξ1

y2=x2+x1=x2+y1 y2=x2-x1=x2-y1

x2=y2-y1=φ2(y1,y2) x2=y2+y1=φ2(y1,y2)

dφ2/dy2=1 dφ2/dy2=1

подставить все в формулу↑ в ф-ле только y1и y2

3) η=ξ2∙ξ1 4) η=ξ2/ξ1

y2=x2∙x1=x2∙y1 y2=x2/x1=x2/y1

x2= φ2(y1,y2)=y2/y1 x2= φ2(y1,y2)=y2∙y1

dφ2/dy2=1/y1 dφ2/dy2=y1

 

15.2кон Одномерная ПВ характеризует возможность наблюдения реализаций СП, в заданный момент времени t принимающих значения близкие к аргументу x и определяется отношением вероятности попадания значений реализации процесса ξ(t) в бесконечно малую окрестность аргумента x к ширине этой окрестности

И вновь для стационарных процессов аргумент t в может быть опущен. Для эргод СП ПВ показ отношение частоты наблюдения значений из интервала [ x; x + Δ x ] к ширине интервала Δ x

Матожидание СП:

Для эрг процессов эта константа совпадает со средним по времени значением – постоянной составляющейлюбой из реализаций

Дисперсия:

Для эргодических она совпадает со средней мощностью переменно составляющей реализаций

25. Аддитивная смесь регулярного гармонического сигнала и узкополосного нормального СП.

Узкополосными называют СП, ширина спектра которых существенно превышает его центр-ую час­тоту. η-сопряж ξ по Гильберту (фильтр с ИХ=1/(π∙t)

Огибающей и фазой СП ξ(t) называют процессы, опред-мые соотношениями.Для выделения огибающей

случайных процессов

используют амплитудный детектор.

Идеальным АД называют устройство, которое в от­вет на воздействие узкополосного СП ξ(t) формирует на своем выходе его огибающую A(t). Если на идеальный АД подать смесь детерминированного гарм сигнала и узкополосногонормального шума

то огибающая будет иметь обобщенное релеевское распределение.

Io-модифицированная функция Бесселя.

26. Частотный метод определения спектральной плотности мощности и корреляционной функции случайного процесса на выходе линейной цепи.

Частотный метод предполагает известной амплитудно-частотную характеристику цепи и устанавливает соответствие между спектральными плотностями мощности процессов на входе и выходе цепи

. (107)

Корреляционные свойства реакции цепи могут быть рассчитаны по Sη(f) в соответствии с теоремой Винера-Хинчина:

28. Шумовая полоса пропускания линейной цепи. Связь шумовой полосы с полосой пропускания по ослаблению коэффициента передачи.

Шумовая ПП линейной цепи используется при воздействии на цепь белого шума или процесса, спектр которого существенно шире величины ПП цепи. Она представляет собой ПП идеального фильтра, который обладает коэффициентом передачи равным максимальному коэффициенту передачи анализируемой цепи и обеспечивает на выходе ту же мощность реакции, что и анализируемая цепь. ШПП:

. (110)

Ширина шумовой полосы линейной цепи, как правило, пропорциональна полосе пропускания по уровню 0,707. Для RC-цепочек и колебательных контуров, в частности, соотношение между этими двумя параметрами составляет

.

27. Временной метод определения спектральной плотности мощности и корреляционной функции случайного процесса на выходе линейной цепи.

При использовании временного метода анализа свойства цепи определяются корреляционной функцией ее импульсной характеристики

где – АЧХ, а g(τ) – импульсная характеристика цепи. Согласно временн о му методу соответствие между корреля­ционными функциями воздействия и реакции цепи имеет вид

. (109)

Спектральные свойства реакции цепи могут быть рассчитаны по Bη(τ) в соответствии с теоремой Винера-Хинчина:

16.1 Многомерные функции распределения и плотности распределения вероятностей случайных процессов и их свойства.

Двумерная ФР позв узнать связь между значениями функции ξ (t) при двух произволь­ных моментах времени t1, и t 2.

Дифференцирование ДФР по переменным х1 и х2 дает двухмерную плотность распределения вероятностей.

 

 

Аналогичным образом можно найти вероятность того, что слу­чайная функция ξ(t) в моменты времени tl, t2,...tn будет находиться ниже соответствующих уровней x,t х2….хn

 

Аналогично МПР.

Связь меж n-мерной ФР и ПР:

 

16.2кон n-мерная ФР— не убывающая по каждому из ее аргументов, т. е.

Из ФР высшего порядка всегда можно получить функцию распределения низшего порядка.

Свойство положительности

Свойство нормировки:

Свойство симметрии:

т. е. ПРВ являются симметрич­ными относительно своих аргументов и не изменяются при любой перестановке моментов наблюдения t1; t2,...; tn.

 

17. Строго стационарные случайные процессы и процессы, стационарные в широком смысле. Признаки стационарности случайных процессов.

СП наз строго стационарным, если ПР п-го порядка не зави­сит от сдвига всех точек наблюдения tl, t2,.... in вдоль оси времени на одинаковую величину t0:

Это такой процесс, статистический характер ко­торого не изменяется во времени. У стац процессов одномерная ПР, матожидание и дисперсия не зав от времени, а двумерная ПР зав только от разности моментов наблюдения τ=t2-t1

СП наз стац в широком смысле, если его корфункция - B(τ) зав только от разности моментов наблюдения τ.

18. Эргодические случайные процессы и экспериментальные способы оценки их числовых и вероятностных характеристик.

Эргодические процессы состоят только из однотипных реализаций.

У эргодических процессов матожидание и дисперсия не зав от момента начала отсчета.

СП наз Э по отношению к матожиданию, если его матожидание совпадает с пост составляющей любой реализации процесса.

 
 


Mξ≡ξi(t)=

 

СП наз Э по отношению к корфункции, если справедливо:

Математическое ожидание М легко определить с помощью при­боров магнитоэлектрической системы, измеряющих постоянные величины.

Дисперсию о2 можно определить при помощи термоэлектриче­ских либо тепловых приборов, так как она пропорционального средней мощности.

 

19. Нормальный эргодический случайный процесс, его числовые характеристики.

Нормальным называется процесс с одномерной плотностью распределения:

a – матожидание, σ – СКО

Эргодические процессы состоят только из однотипных реализаций.

У эргодических процессов матожидание и дисперсия не зав от момента начала отсчета.

Матожидание совпадает с пост составляющей любой реализации процесса.

 
 


Mξ≡ξi(t)=

 

 

Дисперсия – с переменной составляющей.

 

20.1 Корреляционная функция эргодического СП; ее свойства и методы экспериментального измерения. Понятие интервала корреляции СП.

Свойства этой функции:

Зависимость между ξ (t) и ξ (t + τ) при возрастании τ ослабевает, а при τ→∞ эти значения
становятся независимыми.

Значение корфункции в нуле равно дисперсии.

B(0)=Dξ

Абсолютное значение корреляционной функции не может превышать ее значения в нуле.

Из-за независимости ПРВ относительно начала отсчета времени, она является четной.

Корфункция суммы независимых СП равна сумме корреляционных функций слагаемых.

Bξ+η(τ)= Bξ(τ)+ Bη(τ)

Отношение R(τ)= Bξ(τ)/ Bξ(0) наз нормированной корфункцией. Интервал корреляции:

 

23. Белый шум. Его энергетические и корреляционные характеристики.

БШ называется случайный процесс, спектральная плотность мощности которого остается постоянной на всех частотах Sξ(f) = N0. Корреляционная функция такого процесса: , т.е. его сколь угодно близко расположенные отсчеты не коррелированы. Иначе говоря, значение белого шума невозможно предсказать в момент t2, даже сколь угодно близкий к отсчету ξ(t 1). БШ – это абстрактная математическая модель и в реальности не встречается, т.к. он должен был бы обладать бесконечной средней мощностью.

 

20.2кон

Корфункцию В (т) определяют в коррелометрах.. СП ξ(t) через конденсатор С подается одновременно на умножитель и на линию задержки. Кон­денсатор позволяет убрать постоянную составляющую процесса. В линии задержки сигнал задер­живается на время

τ1;τ2-;...; τn и подается на перемножитель функций ξ (t) и ξ(t— τ). Произведение с выхода умножителя поступает на интегратор, который выполняет операцию интегрирования. На выходе интегратора мы получаем корреляционную функцию В(т).

 

24. Узкополосный нормальный эргодический процесс. (Прохождение узкополосного нормального процесса через линейный амплитудный детектор). Узкополосными называют СП, ширина спектра которых существенно превышает его центр-ую час­тоту. η-сопряж ξ по Гильберту (фильтр с ИХ=1/(π∙t)

Огибающей и фазой СП ξ(t) называют процессы, опред-мые соотношениями:

 

Для нормального СП с нулевым матожиданием

 

Фаза равномерна от 0 до 2π. Огибающая имеет релеевский закон распределения с параметром σ, равным эфф значению исходного процесса.

 

MA=σ∙√(π/2) DA2∙(2-π/2)

29. Плотность вероятности процесса на выходе нелинейной безынерционной цепи.

В безынерционной цепи значение на выходе определяется лишь текущим значением процесса на входе.

 
 

 


Wξ (x)

 

Wη (y) = ,

 

η=a∙ξ (a учитывает сопротивление нагрузки)

x1=φ1(y)=-sqrt(y/a) x2=φ2(y)=+sqrt(y/a)

|d φ1/dy|= d φ2/dy|=1/2sqrt(a∙y)

 

 

30. Числовые характеристики СП на выходе нелинейной безынерционной цепи.

 

=

 

 
 


=Mξ2

 

 

=> Mξ=

 

38. Векторное представление сигнала.

Чтобы одновременно существующие сигналы не мешали друг другу, они должны отличаться. Чтоб проверить мешают ли они, сигналы в представляются в виде точек в пространстве.Они должны быть разнесены друг от друга.

Расстояние между двумя разными сигналами(определяет мощность сигнала):

Угол между векторами этих сигналов,

угол определяет ВКФ сигналов.

Удаление сигнала от начала координат:

Минимальная размерность геом пространства, позволяющая охватить все сигналы, используемые РТС наз базой этого ансамбля. База – это наименьшее кол-во ненулевых и взаимно независимых спектр составляющих, позв-их представить каждый сигнал этого ансамбля.

если B>10, то сигнал сложный.

22.1СПМ и Корфункция эргодич СП, их св-ва и связь между ними.

1.Вид и размерность

Кор ф –я: двусторонняя, чётная, (, )

СПМ: двусторонняя, чётная, ( /Гц, /Гц)

2.Расчёт для эргодических сл. процессов

или для периодических сигналов

Ковариационная функция

 

3.Взаимосвязь

4.Ограничения

21.2Кон

4.Полная средняя мощность реализаций случайного про­цесса ξ(t) может быть определена путем интегрирования спектральной плотности мощности вдоль всей оси частот

5. Спектральная плотность мощности подчиняется теореме Винера-Хинчина.

.

Практической Ш спектра СП ξ(t) называют в-ну

. (97)

Смысл в том, что если взять процесс η(t) c прямоуг сп-ром, Ш которого в области полож частот равна Ш f, а макс значение совпадает с максимумом Sξ(f), то процессы ξ(t) и η(t) будут обладать одинаковыми средними мощностями (рис. 30).

21.1 СПМ эргод СП. Экспкрим измерен СПМ СП. Понятие ширины спектра СП.

Спектральная плотность мощности характеризует среднее распределение мощности реализаций вдоль оси частот.

Свойства СПМ:

1.Sξ(f) является четной (двухсторонней) функцией частоты f и принимает неотрицательные действительные значения.

2.Sξ(f) характеризует мощность, приходящуюся на каждый герц оси частот, и для напряжений имеет размерность В2/Гц, а для токов – А2/Гц.

3.Если реализации процесса ξ(t) обладают дискретными спектральными составляющими, то спектральная плотность мощ­ности на этих частотах выражается δ-функциями. В частности, для процессов с ненулевым математическим ожиданием

 

СПМ экспериментально определяется с помощью узкополосного фильтра. Или с помощью коррелометра находится корфункция, а затем она интегрируется и получаем СПМ.

22.2кон

5.Для сигналов с пост сост

содержит

,Si-мощность состав.

6.Для периодических

Кор: периодическая

7.связь со средней мощностью

Кор:

Спм:

 

31+32. Оптимальное выделение сигналов неизвестной формы в условиях действия помехи с произвольной формой спектральной плотности мощности. Коэффициент передачи оптимального фильтра. Пусть на вход устройства обработки на фоне аддитивного шума поступает сигнал неизв формы. Обработку смеси сигнала и шума, направленную на максимально точное восстановление формы этого полезного сигнала, называют оптимальной фильтрацией сигналов неизвестной формы. Погрешность выделения полезного сигнала обеспечивает фильтр с нулевой ФЧХ и АЧХ, определяемой выражением:

Минимальная среднеквадратическая погрешность характеризуется средней мощностью сигнала ошибки:

 

33+34.1 Предельно достижимое отношение сигнал/шум на выходе линейной цепи при оптимальном обнаружении сигнала известной формы в условиях действия белого шума (согласованная фильтрация).

Применительно к белому шуму подобным оптимальным устройством является согласованный фильтр, представляющий собой
линейное аналоговое устройство.

Комплексный коэффициент передачи согласованного фильтра может быть рассчитан по формуле:

СФ в наибольшей степени выделяет те спектральные составляющие сигнала, которые сильнее отличаются от составляющих шума. Это приводит к максимизации сигнал/шум.

Обеспечиваемое СФ отношение сиг­нал/шум не зависит от формы обнаруживаемого сигнала, а опре­деляется лишь его энергией и спектральной плотностью мощно­сти помехи. Соотношение сигнал/шум по мощности в равно

33+34.2кон Импульсная характеристика:

где U(t) - обнаруживаемый сигнал; t0 - момент времени, в кото­рый обеспечивается максимум отношения сигнал/шум (должен совпадать с моментом окончания сигнала или выбираться позже него); А - произвольная константа (свойства фильтра не зави­сят от А, так как изменение этого коэффициента одинаково уве­личивает как интенсивность полезного сигнала, так и средне-квадратическое значение шума на выходе фильтра).

 

Из выражения следует, что импульсная характеристика согласованного фильтра c точностью по постоянной является зеркальным отображением сигнала s(t) относительно прямой t=t0 /2.

 

35. Проблема синхронизации при когерентном обнаружении сигнала известной формы. Некогерентное обнаружение сигналов, его достоинства и недостатки.

Если приемник и передатчик движутся, и/или находится на большом расстоянии, то мы можем ошибиться с выбором момента времени для оптимального обнаружения сигнала. Для решения этой проблемы есть два пути – построение системы синхронизации приемника и передатчика(когерентный прием, она более дорогая) или принимаем решение на основе огибающей(это некогерентный прием). Но контраст сигн/шум уменьшается,(поэтому придется ув мощность или уменьшать дальность), хотя некогерентные системы гораздо проще.

36. Оптимальное обнаружение сигналов известной формы в условиях действия помехи с произвольной формой спектральной плотности мощности. Оптимальный фильтр и его комплексный коэффициент передачи.

При обнаружении сигналов известной формы на фоне помех оптимальным является фильтр, обеспечивающий на выходе фильтра при приходе обнаруживаемого сигнала наибольшее соотношение сигнал/шум в заранее выбранный момент времени. Оптимальным для обнаружения сигналов оказывается фильтр с комплексным коэффициентом передачи:

= A · ·

Обеспечиваемое им отношение сигнал/шум составляет:

q2 =

37. Квазиоптимальные фильтры; их достоинства и недостатки в сравнении с согласованными фильтрами.

Это фильтры, обеспечивающие близкие к идеальным показатели качества при существенном упрощении конструкции фильтра.

В ряде случаев ОФ и СФ оказываются трудно реализуемыми. Убедимся на примере что вместо ОФ можно использовать другие, на выходе которых получается незначительное уменьшение отношения сигнал/шум по сравнению с оптимальным. Сигнал на выходе RC-цепи на спаде будет иметь вид:

39+40.1 Простые и сложн сигналы.

Простые – исп в аналоговых средствах передачи информации. Достоинства – легко формировать, передавать и принимать. Нед – взаимопомехи.

Сложные – недостатки – их сложнее формировать и обрабатывать. НО возможно достичь сколь угодно высокого качества или скорости передачи. Возможно существование многих передатчиков и приемников в одной полосе за счет хитрой формы каждого сигнала. Эмитостойкость, криптостойкость.

Методы формирования сложных сигналов.

1)формирование сложных видеосигналов

 

вых

 

0

   
   
   
   
   
   

За 7 тактов вернулось в исход сост.

M-послед

L-разрядов регистра

 

 

39+40.2кон

-длина формируемой последовательности

послед разнополярных имп

Желательно чтобы сигнал имел автокорреляционную ф-ю АКФ с узким и высоким пиком.

Приложение

Типы
комбинаций

Характе­ристики
набора
элементов

Число элементов, в расстановке

Учет взаимного рас­­- положения элементов

Формула
для расчета числа
различимых
комби­наций
(разных расстановок)

 

Переста­новки

n разно­типных элементов

(все n эле­ментов – различимые)

n

да

 

k

да

 

Размещения

 

k

нет

 

Сочетания

 

Переста­новки
с повто­рениями

n1 эл-тов
первого типа;
n2 эл-тов
второго типа;
…nm эл-тов
m-го типа;
n1+n2+…+nm = n

n

да

 

 

 

 

 


Дата добавления: 2015-11-05; просмотров: 73 | Нарушение авторских прав




<== предыдущая лекция | следующая лекция ==>
Tworzenie kampanii PublicRelations - schemat | Types of morphemes (allomorphs)

mybiblioteka.su - 2015-2024 год. (0.201 сек.)