Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

1.Понятие случайного эксперимента, множества его исходов. Примеры.



1.Понятие случайного эксперимента, множества его исходов. Примеры.

Под экспериментом понимают выполнение некоторого комплекса условий. Например, стрельба из лука, подбрасывание монеты.

Каждому эксперименту можно поставить в соответствие множество элементарных исходов.

Множество всех исходов, соответствующих эксперименту, образует пространство элементарных исходов. Его обозначают Ω. Ω= {ω1, ω2…ω } где ω−элементарные исходы

Случайным експериментом называется испытание, исход которого нельзя предугадать, или говорят экс-перимент с двумя и более исходами. (Подбрасывание игрального кубика.)


 

2.Понятие события. Равенство, сумма событий и ее свойства.

Событием называется подмножество пространства элементарных исходов.

Эксперимент– игра в шахматы. Событие– выигрыш, ничейный исход или проигрыш

События обозначаются большими буквами латинского или греческого алфавита А, В, С

Равенство А=В События называются равновозможными, если по условию эксперимента нет оснований считать одно более возможным, чем любое другое.

Пример В урне10 одинаковых шаров: 5 белых и5 черных. Нау-дачу извлекается шар. Здесь события«появится белый шар» и«появится черный шар» равновозможны.

Суммой нескольких событий называется событие, состоящее в наступлении хотя бы одного из них,либо оьа вместе в результате испытания

Турист хочет и имеет возможность посетить2 города. Обозначим события: А= {турист посетил город А}, В= {турист посетил го-род В}. Событие А+В заключается в том, что турист посетил только один из городов А и В или он посетил их оба.

Свойства: 1)А+В=В+А 2)(А+В)+С=А+(В+С) 3)А+А=А 4)А+Ø=А 5)А+Ω=Ω


 

3.Понятие события. Произведение и разность событий, их свойства. Понятие несовместности событий и разбиения.

Событием называется подмножество пространства элементарных исходов.

Эксперимент– игра в шахматы. Событие– выигрыш, ничейный исход или проигрыш

События обозначаются большими буквами латинского или греческого алфавита А, В, С

Произведением нескольких событий называетсясобытие, состоящее в совместном наступлении всех этих событий в результате испытания.

Пусть имеются следующие события: А = {из колоды

карт вынута дама}, В ={из колоды карт вынута карта бубновой масти}. Оче-видно, AB ⋅ есть событие{вынута дама бубновой масти}

Свойства: 1)АВ=ВА 2)(АВ)С=А(ВС) 3)АА=А 4)АØ=Ø 5)АΩ=А 6)А(В+С)=АВ+АС



Разностью событий А и В называется событие, в котором в результате испытания наступает событие А, но не наступает собы-тие В.(С=А-В)

События А и В называются несовместными, если их произведение есть невозможное событие АВ=∅.

СобытияH1, H2,…Hn образуют полную группу событий (или разбиение пространства Ω), если они попарно несовместны и в сумме дают все пространство элементарных исходов, то есть

1) Hi+Hj =∅; 2) ∑Hi= Ω.

Пример1.14. Стрелок произвел выстрел по мишени. Обязательно произойдет одно из следующих двух событий: попадание, промах. Эти два несовместных события образуют полную группу.


 

4.Противоположные события, их свойства.

Событие =Ω−А называется противоположным событием к событию А (или дополнением)

Свойства 1. А ⋅ =∅ 2. А+ =Ω.

Пример.Стрелок стреляет в мешень А={попадет в цель}, ={не попадет в цель}


 

5.Статистическое определение вероятности события. Ее свойства.

Пусть есть эксперимент Ω, в результате которого наступает событиеА. Под относительной частотой появления события А будем понимать p *(A)=k(A)/n, n− число повторений эксперимента, k (A) − число появления события А.

Если существует коненый предел относительной частоты появлений события А

lim p *(A)= p (A) - статистическая вероятность.

n →∞

Пример. Вероятность выпадения герба р(Г)=1/2,решки – р(Р)=1/2

Свойства 1) p*(∅)=0 2)р*(Ω)=1 3)р*(А)=[0;1]


 

6.Классическое определение вероятности, ее свойства.

Вероятностью Р (А) появления события A называется отношение числа исходов,благоприятствующих наступлению этого события, к общему числу всех равновозможных исходов испытания Р (А) = ,где m− число благоприятствующих событию А исходов, а n−число всех исходов испытания.

Cвойства: 1)Р(Ø)=0 2)Р(Ω)=1 3)для любого АсΩ Р(А)є[0;1]

Пример Какова вероятность появления нечетного числа очков при одном бросании игральной кости?

Решение. Обозначим А= {выпадение нечетного числа очков}. Благоприятствующими исходами будут цифры { 1, 3, 5 } m= 3, ко всем исходам относятся цифры { 1, 2, 3, 4, 5, 6 }, n=6. Тогда искомая вероятность

P (A)= m/ n=1/3


 

7.Теорема сложения и следствия из нее.

Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их произведения: P (A+В)=Р(А)+(В)-Р(АВ)

Доказательство Р(А+В)= , = P (A+В)=Р(А)+(В)-Р(АВ),что т.д

Пример. В электрическую цепь последовательно включены две лампочки. Вероятность того, что лампочки перегорят, если напряжение в сети превысит номинальное, соответственно равны0,4 и0,7. Найти вероятность того, что при повышенном напряжении тока в цепи не будет.

Решение. Событие{тока в цепи не будет} является суммой событий A= {перегорит первая лампочка}, B= {перегорит вторая лампочка},так как события А и В совместны,то без события АВ={перегорят две лампочки}.

Р(А+В)=0,4+0,7-0,4*0,7=0,82

Следствия: 1)Р(А+В+С)=Р(А)+Р(В)+Р(С)-Р(АВ)-Р(АС)-Р(ВС)+Р(АВС) 2)Если события А и В несовместны(А+В)≠Ø,то Р(А+В)=Р(А)+Р(В) 3)Р(А)=1-Р(Ā)


 

8.Условная вероятность, ее свойства.

Условной вероятностью Р(А/В) называют вероятность события А, вычисленную в предположении, что событие В уже произошло:

Р(А/В)= ,Р(В)≠0 – безусловная вероятность,аналогично Р(В/А)= ,Р(А)≠0 – безусловная вероятность

Свойства:1)Р(А/В)≥0 2)Р(Ø/В)=0 3)Р(Ω/В)=1 4)Если А и В несовместны(А+В≠Ø),то Р((А+В)/С)=Р(А/С)+Р(В/С)

Пример. В урне 6 белых и4 черных шаров. Наудачу вынимают один за другим два шара, причем первый шар, который оказался белого цвета, в урну не возвращается. Найти вероятность того, что второй шар тоже белого цвета.

Решение. Пусть событие А={первый шар – белый}, событие В= {второй шар– белый}. Вероятность события В зависит от того, произошло или не произошло событие А. Так, если первым вынут белый шар, то в урне осталось9 шаров, среди которых5 белых, поэтому Р(В/А)=5/9


 

9.Теорема умножения событий и следствия из нее.

Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило:

Р(АВ)=Р(А)*Р(В/А)=Р(В)*Р(А/В)

Пример. В урне 6 белых и4 черных шаров. Наудачу вынимают один за другим два шара, причем первый шар, который оказался белого цвета, в урну не возвращается. Найти вероятность того, что 2 шара белого цвета.

Решение. Пусть событие А={первый шар – белый}, событие В= {второй шар– белый}. Вероятность события В зависит от того, произошло или не произошло событие А. Так, если первым вынут белый шар(Р(А)=6/10), то в урне осталось9 шаров, среди которых5 белых, поэтому Р(В/А)=5/9

Р(АВ)=Р(А)*Р(В/А)=6/10*5/9=1/3


 

10.Понятие независимости событий. Свойство независимости. Теорема умножения для независимых событий.

События А и В называются независимыми, если условная вероятность равна безусловной:

P (А/В) = Р(А) или Р(В/А)=Р(В)

Теорема Лемма (о взаимной независимости событий). Если событие A не зависит от события B, то и событие B не зависит от события A.

Пример. Монета брошена два раза. Вероятность появления герба в первом испытании(событие А) не зависит от появления или непоявления герба во втором испытании(событие В). В свою очередь выпадение герба во втором испытании не зависит от результата первого испытания. Таким обра-зом события А и В– независимые.

Свойства:1)если Аи В – независимы,то будут независимы а)А и б)Ā и В в)Ā и

2) Вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий:P (A B)= P (A)*Р(В)- теорема умножения для независимых событий

3)Для того,чтобы А и В были независымыми,необходимо и достаточно,чтобы P(AB)= P(A)*Р(В)

ПРИМЕР

Два студента читают книгу. Первый студент дочитает книгу с вероятностью – 0,6; второй – 0,8. Найти вероятность того, что книга будет прочитана каждым из студентов.

Решение. Вероятность того, что книга будет прочитана каждым из студентов не зависит от результата отдельно взятого студента, поэтому события А (первый студент дочитал книгу) и B (второй студент дочитал книгу) независимы и совместны. Искомую вероятность находим по формуле P(AB) = P(A)*P(B).Вероятность события АB (оба студента дочитали книгу):P (AB) = P (A) * P (B) = 0,6 * 0,8 = 0,48.

4)Говорят,что А,В,С – независимы в совокупности,если Р(АВ)=Р(А)*Р(В), Р(АС)=Р(А)*Р(С), Р(ВС)=Р(В)*Р(С), Р(АВС)=Р(А)*Р(В)*Р(С)


 

11.Формула полной вероятности.

Вероятность события А, которое может наступить

вместе с одним из событий H1,H2,…Hn образующих полную группу, равна сумме произведений вероятностей каждого из событий H1,H2,…Hn соответствующую условную вероятность события А: Р(А)=∑Р(Hi)*P(A|Hi),Нi-гипотезы.

Пример. В первом ящике содержится5 деталей, из которых3 детали стандартные, во втором– 6 деталей, из которых5 – стандартные. Из наудачу взятого ящика берут деталь. Какова вероятность, что эта деталь– стандартная?

Решение. Пусть событие А = {вынута стандартная деталь}. Возможны две гипотезы: H1={выбран первый ящик}, H2={выбран второй ящик}.

Так как выбор каждого ящика– события равновозможные, то P(H1)= P(H2) = 1/2.

Найдем условные вероятности события А при наступлении каждой из гипотез:

P(А/Н1)=3/5,Р(А/Н2)=5/6

По формуле полной вероятности:Р(А)=1/2*3/5+1/2*5/6=43/60


 

12.Теорема Байеса.

Если в результате испытания событие A, вероятность которого была вычислена по формуле полной вероятности, наступило, то вероятности гипотез можно переоценить по формуле Байеса:

Р(Нi/А)= .

ВероятностиР(Hi) называют априорными, а вероятности Р(Hi/А)− апостериорными вероятностями гипотез.

Пример: Группа из 12 стрелков включает в себя трёх мастеров спорта, четырёх кандидатов в мастера и пятерых перворазрядников. Мастер спорта может попасть в мишень с вероятностью 0,9, кандидат в мастера – с вероятностью 0,85, перворазрядник – с вероятностью 0,75. Наудачу выбранный стрелок сделал выстрел, мишень была поражена (событие A). Какова вероятность того, что этот стрелок является мастером спорта?

Неизвестно, какой стрелок сделал выстрел. Имеются гипотезы: H1 – стрелял мастер спорта, H2 – стрелял кандидат в мастера, H3 – стрелял перворазрядник. По условию, P(H1)=3/12, P(H2)=4/12, P(H3)=5/12. Кроме того, даны вероятности попадания для стрелков каждой группы: P(A/H1)=0,9, P(A/H2)=0,85, P(A/H3)=0,75. Таким образом,

P(A)=P(A/H1)P(H1) + P(A/H2)P(H2) + P(A/H3)P(H3) = (0, 9⋅3+0, 85⋅4 + 0, 75⋅5)/12 ≈ 0,821.

Тогда, по формуле Р(Нi/А)= = =0,274


 

13.Понятие схемы Бернулли. Формула Бернулли.

Предположим, что проводятся независимые испытания и в каждом из них может наступить два исхода – успех с вероятностью р или неудача с вероятностью q (p+q=1). Такую последовательность испытаний называют схемой Бернулли.

Эксперимент с 2-мя исходами называется экспериментом типа Бернулли.

А – событие произошло Р(А)=р

– событие не произошло р()=1-Р(А)=1-р=q

p+q=1 k={0,1,2…n}

- вероятность появления события ровно k раз при n независимых испытаниях, p - вероятность появления события при одном испытании.

Пр. Вероятность нормального приживления саженца плодового дерева p = 0,8. Найти вероятности, что:

1) из 10 саженцев приживется ровно 8;

Решение.

1. Ясно, что приживления отдельных саженцев можно считать независимыми, поэтому ситуация соответствует схеме Бернулли. Тогда по формуле Бернулли получаем


 

14.Наивероятнейшее число появления события А в схеме Бернулли.

Число k0, при котором вероятность появления события А в п независимых испытаниях постоянна и =р, называется наивероятнейшим числом.

np−q≤k0< np+p,

Св-ва k0:

[np+p]-[np-q]=np+p-np+q=p+q=1

[np+p], целое, то [np-q]- целое

Если [np-q] – дробное, то [np+p] тоже дробное

Пр. n=10 p=1/2 q=1/2

Найти наивероятнейшее число выпадений герба

10*1/2-1/2≤ k0≤10*1/2+1/2 4,5≤ k0≤5,5 k0=5


 

15.Следствие из локальной теоремы Муавра-Лапласа. Пример. Свойства функции Гаусса.

Пусть событие А может произойти в любом из n повторных независимых испытаний с постоянной вероятностью р отличной от 0 и 1. пусть событие А не редкое, а количество испытаний достаточно велико, т.е. выполняются условия Муавра-Лапласа:n≥100,npq≥20 тогда справедлива локальная формула Муавра-Лапласа.

- вероятность появления события ровно k раз при n независимых испытаниях,

p - вероятность появления события при одном испытании, q =1− p.

= - функция Гаусса

Свойства : 1)затабулирована 2)четная 3)быстро стремится к 0. при х≥4

Пример: Вероятность того, что посеянное семя взойдет равна 0,85. найти вероятность того, что ровно 213 из 250 семян взойдет.

Решение: n = 250 > 100; k = 213; p = 0,85; q = 0,15;


 

16.Теорема Пуассона. Пример.

Пусть количество испытаний n достаточно велико, а вероятность р мала, т.е. выполняются условия Пуассона:n≥100,λ≤10, тогда справедлива формула Пуассона

Если число экспериментов достаточно велико, а вероятность появления события А постоянно стремится к 0, то вероятность того, что наступит k раз:

,

Пример: Вероятность изготовления стандартной детали равна 0,995. Найти вероятность того, что среди 1000 деталей будет более 3-х браков.

Решение: n = 1000 ≥ 100; k > 3; p = 0,005; q = 0,995;

λ=n*p=1000*0,005=5<10


 

17. Интегральная теорема МУАВРА-ЛАПЛАСА. СВОЙСТВА ФУНКЦИИ Ф(Х). ПРИМЕР

Пусть событие А может произойти в любом из n повторных независимых испытаниях с постоянной вероятностью р отличной от 0 и 1. Пусть количество испытаний велико, а события не редкие, т. е. выполняются условия Муавра-Лапласа. Тогда вероятность того, что количество успехов заключено в некотором интервале определяется интегральной функцией Муавра-Лапласа.

,

Ф(х)=

Св-ва:

1. затабулирована

2. Нечетная Ф(-х)=-Ф(х)

3. при х≥5, Ф(х)≈0,5

 

Пр: Вероятность того, что деталь не пройдет контроль равна 0,2. Найти вероятность того, что среди 400 деталей число не прошедших контроль заключено в пределах от 70 до 100.

 

 

Применим формулу 3 и подставим полученные данные.

 


 

18.Понятие случайной величины. Основные типы случайных величин. Пример.

Случайная величина – числовая величина, которая принимает те или иные значения, в зависимости от случая.

Случайная величина:

• Дискретная – случ. велич., которая принимает конечное или счетное число значений.

• непрерывная – случ. велич., значение которой сплошь заполняет определенный числовой промежуток.

• смешанная – случ. велич., которая не является ни дискретной, ни непрерывной.

Примеры:

бросание монеты: А – герб; В – решка;

выстрел из ружья или пистолета: А – попадание; В – промах;

 


 

19.Закон распределения дискретной с.в. Полигон.

Для того, чтобы задать дискретную случ. велич., нужно знать значения, которые принимает величина х1,х2… и вероятности с которыми эти значения принимаются: рi=Р()

Множество пар (xi, pi) составляют закон распределения дискретной случайной величины.

x1

x2

xn

pi

p1

p2

pn

- закон распределения

Полегоном называется ломаная линия, содиняющая точки с координатами (xi, pi).

Пр: монета брошена 2 раза. Случ. велич. определяет выпадение герба. Составить закон распределения случ. велич и построить полегон.

     

pi

Р1=Р( =0)= = Р2=Р( =1)= = Р3=Р( =2)= =

Рконтр= + =1

Построим полигон

 

 


 

20.Математическое ожидание, дисперсия и среднее квадратическое отклонение дискретной с.в.

Математическим ожиданием дискретной случ. велич. называется число, которое = сумме произведений значений случайной величины на соответствующие вероятности, т.е.:

- ряд должен быть абсолютно сходящимся.

Если ряд расходится или сходится условно, то мат. ожид. не существует.

Свойства математического ожидания.

1)М(С)=С 2)М(С*X)=C*M(X) 3)M(X±Y)=M(X)±M(Y)

4)если X и Y – независимые случайные величины,то M(X*Y)=M(X)*M(Y)

Дисперсия определяет разброс значений случ. велич вокруг математического ожидания

Дисперсия – число неотрицательное.

Свойства дисперсии.

D(X)≥0

D(C)=0

D(C*X)=C2*D(X)

если X и Y – независимые случайные величины,то D(X±Y)=D(X)+D(Y)

Среднее квадратическое отклонение.

характеризует средний разброс в тех же единицах, что и сама случайная величина.Число неотрицательное

Пример № 1:

     

0,04

0,32

0,64

 

 


21. Начальные и центральные моменты дискретной с.в.

Начальным моментом порядка K случайной величины Х называется математическое ожидание величины ХK:

V0=1

V1=M(Х)

Центральным моментом порядка K случайной величины Х называется математическое ожидание K-Й степени отклонения:

μ 0=1

μ1 = 0

μ 2= D(X)


 

22. Бернулевская с.в., ее математическое ожидание и дисперсия.

Дискретная случайная величина – бернулиевская с параметрами (n,р), если она принимает значения от 1до n с вероятностями, кот. вычисляются по формуле Бернули p(k)=(ξ=k) = Cn k pk qn-k

   

i

n-1

n

pi

qn

npqn-1

np n-1q

pn

 

Mξ = np

Dξ = npq


 

23. Пуассоновская с.в., ее математическое ожидание и дисперсия

Дискретная случайная величина - пуассоновская с параметром λ, если она принимает значения бесконечное, но счетное множество значений с вероятностями

P(k) = P (ξ=k) = λk/k! *e-λ

λ=np

Mξ = λ

Dξ = λ

     

pi


 

25. Закон распределения непрерывной с.в. Его свойства.

Случайная величина, возможные значения которой непрерывно заполняют некоторый промежуток, называется непрерывной случайной величиной.

Функция распределения F(x) определяет вероятность того, что случайная величина примет значение меньше, чем фиксированное x.

1. F(+∞)=1 1

F(-∞)=0 0

F(x)=[0,1]

2. F(x0)- непрерывна слева

3. F(x)- неубывающая

Если х1<x2, то F(x1) F(x2)

4) P(x1 ξ < x2) = F(x2) − F(x1) – вероятность попадания величины в заданном интервале

5) F(x) непрерывна в т.x0 или вблизи её, то P(ξ=x0)=0

Графически функция распределения выглядит следующим образом:

 

Свойства:

1.P(x1

2.Функция распределения является универсальной

Пример. Случайная величина Х задана таблицей распределения:

 

Х

- 1

     

Р

0,1

0,3

0,4

0,2

 

Составить функцию распределения F(x) случайной величины Х и построить ее график.

Решение. Если х-1, то F(x)=P(X<x)=0;

если –1<x2, то F(x)=P(X<x)=P(X=-1)=0;

если 2<х3, то F(x)=P(X=-1)+P(X=2)=0,1+0,3=0,4;

если 3<x5, то F(x)=P(X=-1)+P(X=2)+P(X=3)=0,1+0,3+0,4=0,8;

если х>5, то F(x)=P(X=-1)+P(X=2)+P(X=3)+ Р(Х=5)=1

Построим график.

Но для непрерывной случайной величины вероятность каждого отдельного ее значения равна 0. Это следует из свойства 4 функции распределения: р(Х = а) = F(a) – F(a) = 0. Поэтому для такой случайной величины имеет смысл говорить только о вероятности ее попадания в некоторый интервал. Вторым способом задания закона распределения непрерывной случайной величины является так называемая плотность распределения (плотность вероятности, дифферен-циальная функция). Случайная величина называется непрерывной, если она может принимать любые значения внутри определенного интервала, который иногда имеет резко выраженные границы, а иногда – нет. К непрерывным случайным величинам относятся, например, масса тела и рост взрослых людей, масса тела и объем мозга. составить таблицу, в которой были бы перечислены все ее возможные значения, или построить многоугольник распределения нельзя. Кроме того, вероятность какого-либо ее конкретного значения очень мала (близка к 0). Закон распределения вероятностей такой величины должен позволить найти вероятность попадания ее значения в любой заданный интервал (х1, х2), лежащий внутри (а,b).


 

26. Вероятность попадания непрерывной с.в. в заданный интервал, выраженная через функцию распределения

- равномерная

P(α<ξ<β)=e-αλ - e-βλ- показательная

- нормальная


 

27. Функция распределения дискретной с.в

Функцией распределения случайной величины Х называется функция F(x), выражающая для каждого х вероятность того, что случайная величина Х примет значение, меньшее х:

Свойства интегральной функции распределения:

 

1.

2.

3.

4.

5. непрерывна слева

6. она непрерывна в точке Х0 или вблизи нее, если P (ξ=Х0)=0

7. она является универсальной

Если закон распределения дискретной случайной величины Х задан в виде таблицы:

x

x1

x2

х3

хn

p

р1

р2

р3

...

рn

 

то функция распределения F(x) определяется формулой:

0 при х≤ x1,

р1 при x1< х≤ x2,

F(x)= р1 + р2 при x2< х≤ х3

… … …

1 при х> хn.

 


 


29. Числовые характеристики непрерывной с.в

Модой М0 дискретной случайной величины называется ее наиболее вероятное значение. Для непрерывной случайной величины мода – такое значение случайной величины, при которой плотность распределения имеет максимум(F(x) принимает макс значение). Если распределение имеет минимум, но не имеет максимума, то оно называется антимодальным.

Медианой MD случайной величины Х называется такое ее значение, относительно которого равновероятно получение большего или меньшего значения случайной величины.

Нач.момент

центральный момент


 

31. теоремы о математическом ожидании

Математическое ожидание постоянной величины равно самой постоянной: М(С) = С.

Постоянный множитель можно выносить за знак математического ожидания: М(СХ) = СМ(Х).

Математическое ожидание произведения двух независимых случайных величин равно произведению математических ожиданий сомножителей

M(XY) = M(X)·M(Y).

Математическое ожидание суммы (разности) двух случайных величин равно сумме их математических ожиданий слагаемых. Математическое ожидание разности двух случайных величин равно разности их математических ожиданий слагаемых.

M(X+Y) = M(X) + M(Y); M(X-Y) = M(X)-M(Y)


 

32. теоремы о дисперсии

Дисперсия ровна разности между математическим ожиданием квадрата случайной величины X и квадратом ее математического ожидания:

D(Х)= М(Х2)-(М(Х))2

Дисперсия постоянной величины равна нулю: D (С)=0

Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат: D(CX)=C2 ·D(X).

Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин: D (X + Y) = D (X) + D (У)

Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий этих величин.

Дисперсия суммы постоянной величины и случайной равна дисперсии случайной величины:

Дисперсия разности двух независимых случайных величин равна сумме их дисперсий: D (X — Y) = D (X) + D (У)


 

33. Равномерно распределенная с.в. Ее плотность и функция распределения. Вероятность попадания в заданный интервал

Непрерывная случайная величина Х имеет равномерное распределение на отрезке [a, b], если ее плотность имеет следующий вид:

откуда с=1/(b-a).

 

Графики функций f(x) и F(x) имеют вид:


 

34. Математическое ожидание и дисперсия равномерно распределенной с.в.


 

35. Показательно распределенная с.в., ее математическое ожидание и дисперсия

Непрерывная случайная величина Х, функция плотности которой задается выражением

называется случайной величиной, имеющей показательное, или экспоненциальное, распределение. Здесь параметр λ постоянная положительная величина.

Математическое ожидание = 1 / λ

Стандартное отклонение = 1 / λ

Дисперсия = 1 / λ2

P(α<ξ<β)=e-αλ-e-βλ


 

36. Нормально распределенная с.в., ее закон распределения, математическое ожидание и дисперсия

Непрерывная случайная величина Х имеет нормальное распределение (распределена по нормальному закону), если плотность распределения вероятности f(x) имеет вид

где а—некоторые постоянные, называемые параметрами нормального распределения.

Св-ва функции f(x):

1. Областью определения функции f(x) является вся числовая ось.

2°. Функция f{x) может принимать только положительные значения, т. е. f(x}>0.

3°. Предел функции f(x) при неограниченном возрастании |х| равен нулю, т. е. ось ОХ является горизонтальной асимптотой графика функции.

4°. Функция f{x) имеет в точке х = a максимум, равный

5°. График функции f(x) симметричен относительно прямой х = а.

 

Функция плотности нормального распределения f(x) с параметрами а=0, s =1 называется плотностью стандартной нормальной случайной величины и ее график имеет вид:


 

37. Вероятность попадания нормальной с.в. в заданный интервал

P( =

 

найдем вероятность того, что модуль отклонения нормального распределения величины Х от ее центра распределения а меньше 3σ. Имеем

Р(|x – a| < 3 s) =P(а–3 s< X< а+3 s)= Ф(3) – Ф(–3) = 2Ф(3)»0,9973. Значение Ф(3) получено по таблице функции Лапласа.

Принято считать событие практически достоверным, если его вероятность близка к единице, и практически невозможным, если его вероятность близка к нулю. Мы получили так называемое правило трех сигм: хотя нормальная случайная величина распределена на всей оси х, интервал ее практически возможных значений есть (a–3σ, a+3σ).


 

38. Системы случайных величин, их закон распределения

Системой случайных величин (случайным вектором, многомерной случайной величиной) называется любая упорядоченная совокупность случайных величин Х ={X1, …, Xn}. Случайные величины{X1, …, Xn}, входящие в систему могут быть как непрерывными, так и дискретными.

Двухмерная случайная величина (Х,У) является дискретной, если множества значений ее компонент X={x1, …, xn} и Y={y1, …, ym} представляют собой счетные множества.

pij = P(X =xi, Y = yj),i=1..n, j=1..m.

Матрица распределения системы двух случайных величин записывается в виде:

Сумма всех вероятностей pij, стоящих в матрице распределения вероятностей равна единице как сумма вероятностей полной группы событий:

Зная матрицу распределения системы двух дискретных случайных величин (X,Y), можно найти закон распределения отдельных случайных величин, входящих в систему:


 

39. Свойства закона распределения двумерной дискретной с.в.

Св-ва закона распределения: pij>=0; условия нормировки: Σ pij=1; pij, pij – маржинальне вероятности; Σjpij= pi или Σipij= pj


 

42. Свойства коэффициента корреляции

Коэффициента корелляции называется число:

ч=ч(x,y)= К xy/Gx Gy,kxy=Mxy-MxMy

Свойства корелляции:

y a˃0

 
 


 

 
 


x

1)|ч|≤ 1

2) ч = 1 корелляция положительна и линейная, y=аx+b

меры линейности случайных величин

3) ч = -1 отрицательная корелляция (а˂0)

ч = аx-b связь линейна

y

(а˂0)

 

x

4) Если случайные величины x и y независимы, то коэффициент корелляции равен 0, ч=0

Вывод:
Если на практике при вычислении коэффициента корелляции получается число ч≈1, то связь получается линейная, если число близко к 0, то связь будет нелинейной или отсутствует вообще.

 


 

 

43.Цели и задачи математической статистики. Понятие выборки и ее свойства
Мат.статистика-наука, которая изучает методы сбора,обработки различных результатов наблюдений, а так же прогнозирование и определение законов распределения.
Задачи:1.Сбор и первичная обработка наблюдаемых значений;2.Оценка основных характеристик требуемых по исследованию (Например:Мх;Дх);3.Проверка статистических гипотез.
Выборочной совокупностью(выборкой)называется часть объектов отобранных случайным образом из генеральной совокупности. Выборка должна обладать свойствами репрезентативности.
Генеральная совокупность-совокупность всех значений СВ(случайной величины)подвергшихся изучению.

N – число объектов ген.совокупности

n – число объектов выборки

Репрезентативность – свойство выборки воспроизводить характеристики генеральной совокупности. Одна и та же выборка может быть репрезентативной и нерепрезентативной для разных генеральных совокупностей.

Выборки бывают:Повторные?Безповторные?Простая?Типическая?Механическая?Серийная


Пр:2;4;5;9;


 

44.Нахождение закона распределения дискретной случайной величины по его выборке.

Пусть наблюдается дискретная СВ на которой производят некоторый эксперимент и сделав замеры получают Х1,х2,х3…хn где n-число появлений варианта.
n1+n2+n2+…+nk=n
Pi*=ni/n –относительная частота появления варианта.(частости)
тогда законом распределения дискретной СВ будет:

 

хi

X1

xn

ni

N1

nk

 

хi

X1

xn

Ni/n

N1/n

Nk/n

 


 

45. Эмпирическая функция распределения ее свойства.
Пусть наблюдается непрерывная СВ над которой производят некоторый эксперимент и сделав замеры получают (х0;х1)(х1;х2)…(хk-1;xk)
где х0=х начальное
х0=х1-h/2 h-шаг
хmax-xmin размах выборки
h= (xmax - xmin) /(1+log2n)= (xmax - xmin)/(1+3.22lgn)

Вариационный ряд можно представить с помощью эмперической функции распределения

Эмпирической функцией распределения (функцией распределения выборки) называют функцию F*(x), определяющую для каждого значения x относительную частоту события

где nx – число вариант, меньших x; n – объем выборки.

Эмпирическая функция обладает всеми свойствами F(x):

1) ее значения принадлежат отрезку [0, 1];

2) неубывающая;

3) если хi -наименьшая варианта, то

если x k - наибольшая варианта, то

 

46.Числовые характеристики о выборочном законе распределения.
Средняя выборочная
Мх=средней выборочной(X̅)
средняя выборочная=1/n Σxi*ni
средней выборочной называется сумма всех значений деленная на их количество
Дисперсия-среднее арифметическое квадратов наблюдаемых значений от среднего арифметического
Дх= X̅2-(X̅)2

3) среднеквадратическое отклонение

4) мода – Mo = xi если pi* - max

Мода (Мо) представляет собой значение признака, встречающееся в выборке наиболее часто.

5)Медианой (Ме) называется такое значение признака X, когда ровно половина значений экспериментальных данных меньше ее, а вторая половина — больше.

6) Применяется так называемый коэффициент асимметрии, который является безразмерной величиной и определяется как

.

Если , то распределение симметрично относительно математического ожидания, если , то преобладают положительные отклонения от математического ожидания, если — отрицательные.

7)Об остроте вершины кривой распределения судят по коэффициенту эксцесса:

.

Если , то распределение имеет острый пик (по сравнению с нормальным распределением), если (минимальное значение ), то распределение имеет плосковершинную форму

Пример

x

       

n

       

n=50

x =(20+30+30+20)/50=2

x2=(20+60+90+80)/50=5

D*= 5-4=1

Mo=1

Me=2.5


 

49.Основыне требования предъявляемые к оценке параметров
Задача нахождения неизвестных параметров называется оценкой.
Свойства оценок:
1.Оценка должна быть не смещенная
М(σ)= σ
Среднее выборочное является не смещенной оценкой
смещенная оценка теоритической дисперсии
2.Состоятельность
Параметр должен бать состоятельным тесть он должен сходиться по вероятности.
lim P(| σ*- σ |< ξ)=1

при n→∞
3.Оценка должна быть эффективной
Эффективная оценка имеет наименьшую дисперсию(Дх*)

 


 

50.Метод моментов получения оценок параметров
Пусть ξ~ f{x,Ө1, Ө2,…, Өn}

X={x1,x2…xn}

По наблюдаемым значемниям посчитаем 2 выборочных момента и сравним с теоретическим

Решая систему получим неизвестные параметры

Замечание

Если ξ~ f{x,Ө1, Ө2,…, Өn} то вычисляются либо начальные либо центральные моменты

Решая систему получим неизвестные параметры

Пример:

ξ~ P(ξ=k)=

проведем эксперимент и сделаем выборку объема n

а – событие

P(A)=1

X={1100…1}

k-число появлений события А

Сделаем оценку х методом моментов

P=K/n

 


 

51. метод максимального правдоподобия

Пусть ξ~ f{x,Ө1, Ө2,…, Өn}

Делается выборка X={x1,x2…xn} объема n

А)дискретная случ.вел

Функция правдоподобия L(x1,x2…xn1, Ө2)=P(x)

Зависит от выборки и неизвестных параметров, опред.вероятность того,что появится выборка Х.Дискрет случ велич.задается значениями и вероятностями (xi;P(Ө1, Ө2))

L(x1,x2…xn1, Ө2)=P(x)= P(ξ =x1)* P(ξ =x2)….* P(ξ =xn)= P11, Ө2)* P21, Ө2)*…* Pn1, Ө2) =П Pi1, Ө2)

Б)непрерывная случ велич

ξ~ f{x,Ө1, Ө2,…, Өn} X(x1,x2…xn)

L(x1,x2…xn1, Ө2)= f(x1,Ө1, Ө2)* f(x2,Ө1, Ө2)* …* f(xn,Ө1, Ө2)* =П f(xn,Ө1, Ө2)

Параметры,Ө1, Ө2 должны бать определены так чтобы вероятность была максимальна

L(x1,x2…xn1, Ө2=П f(xn,Ө1, Ө2)-max

 

Замечание

Так как функция Lдифференцир., то для упрощения дифференц. Нужно произведение перевести в сумму, для этого функцию логарифмируем

Пример: ξ~ P(ξ=k)=

L(x,p)=p*p*p*q*q……=pkqn-k

lnL = ln(pkqn-k)

P=k/n

28. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ И ЕЁ СВОЙСТВА.

Случайная величина называется абсолютно непрерывной, если интегральная функция распределения непрерывна, практически во всех случаях существует производная

- плотность распределения вероятностей

f(x)=

F(x+

F(x+ -элементарная вероятность

 

Свойства плотности распределения:

1. f (x) 0.

2. P(ξ є [

P(ξ є [

3.F(x)= P{ξ<x}=

F(x)= – интегральная функция распределения

3. Условие нормировки:

S=1

Пример. Задана плотность вероятности случайной величины Х

Найти вероятность того, что в результате испытания Х примет значение, принадлежащие интервалу (0,5; 1).

Решение: Искомая вероятность

.

 


Дата добавления: 2015-11-04; просмотров: 187 | Нарушение авторских прав




<== предыдущая лекция | следующая лекция ==>
1. Which of the following represents the vector sum of vector Q and vector R? 6 страница | 1. Закон сохранения массы-энергии. Закон Авогадро. Атомные и молярные массы. Моль

mybiblioteka.su - 2015-2024 год. (0.186 сек.)