Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

1. Классическое определение вероятности: Если n-общее число элементарных событий и все они равновозможные, то вероятность события А:



1. Классическое определение вероятности: Если n-общее число элементарных событий и все они равновозможные, то вероятность события А:

,

где mA- число исходов, благоприятствующих появлению события А.

Теория сложных событий позволяет по вероятностям простых событий определять вероятности сложных. Она базируется на теоремах сложения и умножения вероятностей.

1) Суммой (объединением) двух событий А и В называется новое событие А+В, заключающееся в проявлении хотя бы одного из этих событий.

2) Произведением (пересечением) двух событий А и В называется новое событие АВ, заключающееся в одновременном проявлении обоих событий. А*В=АВ, АА=А, АВА=АВ.

3) Событие А влечет за собой появление события В, если в результате наступления события А всякий раз наступает событие В. АÌВ

А=В: АÌВ, ВÌА

2. Эксперимент удовлетворяет условиям «геометрического определения вероятности», если его исходы можно изобразить точками некоторой области в так, что вероятность попадания точки в любую часть не зависит от формы или расположения внутри , а зависит лишь от меры области (и, следовательно, пропорциональна этой мере):

«Мерой» мы пока будем называть длину, площадь, объем и т.д.

Если для точки, брошенной в область , выполнены условия геометрического определения вероятности, то говорят, что точка равномерно распределена в области .

Пример: Точка наудачу бросается на отрезок [0,1]. Вероятность точке попасть в точку равна нулю, так как мера множества, состоящего из одной точки («длина точки»), есть 0. Вместе с тем попадание в точку не является невозможным событием — это один из элементарных исходов эксперимента.

 

3. Теорема сложения вероятностей.

 

Вероятность суммы несовместных событий равна сумме вероятностей событий:

Р(А+В+С+…) = Р(А) + Р(В) + Р(С) +…

Следствие. Если события A1+A2+…+An - полная группа событий, то сумма их вероятностей равна 1.

P(A+ ) = P(A) + P() = 1

Вероятность наступления двух совместных событий равна:

Р(А+В) = Р(А) + Р(В) - Р(АВ)

4. Теорема умножения вероятностей. Условные вероятности.

Опыт повторяется n раз, mB раз наступает событие В, mАВ раз наряду с событием В наступает событие А.

hn(B) = hn(AB) =

Рассмотрим относительную частоту наступления события А, когда событие В уже наступило:

- условная вероятность события А по событию В – вероятность события А, когда событие В уже наступило.



 

5. Формула полной вероятности.

Вероятность события В, которое может произойти совместно только с одним из событий Н1, Н2, …Нn, образующих полную группу событий, вычисляется по формуле:

События А1, А2, …Аn называют гипотезами.

6. Теорема гипотез (формула Байеса).

Если до опыта вероятности гипотез были Р(Н1), Р(Н2)…Р(НN), а в результате опыта произошло событие А, то условные вероятности гипотез находятся по формуле:

 

7. Повторение испытаний

Формула Бернулли

где - вероятность появления события A ровно k раз при n независимых испытаниях; p - вероятность появления события A при каждом испытании.

 

8. Общая теорема о повторении опытов

В отличие от частной теоремы она применяется когда вероятность появления каждого из событий не равны между собой

F(A1)≠F(A2) ≠F(A3) ≠…

В этих случаях вероятности комбинаций приходится расписывать подробно. Так, вероятность появления одного любого из трех событий приходится вычислять по формуле:

При большом количестве n событий число комбинаций и, следовательно, число слагаемых существенно возрастает.

Для упрощения вычислений возможно применение производящей функции:

,

где pi=F(Ai) – вероятность появления i-го события

qi=1-F(Ai) – вероятность отсутствия i-го события

П - символ произведения

Для n=3 производящая функция равняется

При увеличении n количество сомножителей увеличивается. Результатом вычисления произведения является многочлен вида

j = a0Z0+ a1Z+ a2Z2+ a3Z3+ … + anZn

где а0, а1, … аn – коэффициенты при Z, представляющие числа из комбинаций qi и pi.

Каждый коэффициент численно равен вероятности появления такого количества событий, число которого равняется показателю степени Z. Так при отсутствии любого события показатель степени равняется 0, а вероятность равняется

При одновременном появлении всех n событий показатель степени равняется n, а вероятность равняется

Вероятность появления одного любого события из А1, А2, …, Аn будет равняться , а вероятность появления одновременно двух событий будет равняться Fn2=a2 и т.д.

Применение производящей функции позволяет формализовать вычисление вероятностей появления событий и избежать применения более громоздкого математического аппарата теорем умножения и сложения

 

9. Локальная теорема Лапласа. Если вероятность появления события в каждом испытании постоянна и отлична от нуля и единицы, то вероятность того, что событие появится в испытаниях ровно раз, приближенно равна (тем точнее, чем больше ) значению функции

при

Имеются таблицы, в которых помещены значения функции

соответствующие положительным значениям аргумента . Для отрицательных значений аргумента пользуются теми же таблицами, так как функция четна, т. е. .

Итак, вероятность того, что событие появится в независимых испытаниях ровно раз, приближенно равна

где

 

10. Предельная интегральная теорема Муавра-Лапласа.

В условиях предыдущей теоремы вероятность того, что событие А в серии из n испытаний наступит не менее k1 раз и не более k2 раз:

- функция Лапласа

Следствие:

 

11. Закон распределения дискретной случайной величины

Для задания дискретной случайной величины недостаточно перечислить все ее возможные значения, нужно указать еще и их вероятность.

Законом распределения дискретной случайной величины называют соответствие между возможными значениями случайной величины и вероятностями их появления.

Закон распределения можно задать таблично, аналитически (в виде формулы) или графически (в виде многоугольника распределения).

Рассмотрим случайную величину X, которая принимает значения x1, x2, x3... xn с некоторой вероятностью pi, где i = 1.. n. Сумма вероятностей pi равна 1.

Таблица соответствия значений случайной величины и их вероятностей вида

x1

x2

x3

...

xn

...

p1

p2

p3

 

pn

 

 

 

12. Поток событий — последовательность событий, которые наступают в случайные моменты времени.

Поток событий называется стационарным, если вероятность попадания n событий на интервале времени (t,t+ ) зависит от и не зависит от t. Это означает, что интенсивность потока событий не зависит от времени. Такие потоки событий часто встречаются на практике, об их стационарности строго можно говорить только на ограниченном интервале времени. Распространение этого участка до бесконечности - удобный прием.

Поток событий называется потоком без последействия, если для любых двух непересекающихся промежутков времени число событий попадающих в один из них не зависит от того, сколько событий попало в другой. Это означает, что события, образующие поток появляются независимо друг от друга, т.е. поток есть марковский процесс.

Поток событий называется ординарным, если вероятность осуществления на бесконечно малом отрезке времени t двух и более событий (i=2,3,... пренебрежимо малы по сравнению с вероятностью одного события

Поток событий называется простейшим, если он стационарен, однороден и не имеет последействия. Для такого потока вероятность появления на интервале m событий определяется формулой Пуассона -средняя интенсивность потока.

Для простейшего потока интервал t между соседними событиями имеет показательное распределение: . Если рассматривать бесконечно малый временной интервал, то с учетом ординарности пуассоновского потока
Поток событий называется рекуррентным или потоком "Пальма", если он стационарен, ординарен, а интервалы времени между событиями представляют собой независимые случайные величины с одинаковым произвольным распределением.

13. Математическое ожидание (МО)

 

М(х), МО(х), mx, m

 

Основные свойства МО:

1. М(х) СВ Х Þ Хmin£М(х)£Хmax

2. М(С)=С МО постоянной величины есть величина постоянная

3. М(Х±У)=М(Х) ±М(У)

4. М(Х×У)=М(х) ×М(у) Þ М(Сх)=СМ(х) – МО произведения двух независимых СВ

5. М(аХ+вУ)=аМ(Х)+вМ(У)

6. М(Х-m)=0 – МО СВ Х от её МО.

 

МО основных СВ

Дискретные Случайные Величины

1. Биноминальные СВ МО(Х)=np

2. Пуассоновские СВ МО(Х)=l

3. Бернуллиевы СВ МО(Х)=р

4. Равномерно распред. СВ

 

Непрерывные Случайные Величины

1. Равномерно распределенная СВ

2. Нормально распределенная СВ MO(X)=m

3. Экспоненциально распределенная СВ

 

14. Мода — это наиболее часто встречающийся вариант ряда. Мода применяется, например, при определении размера одежды, обуви, пользующейся наибольшим спросом у покупателей. Модой для дискретного ряда является варианта, обладающая наибольшей частотой. При вычислении моды для интервального вариационного ряда необходимо сначала определить модальный интервал (по максимальной частоте), а затем — значение модальной величины признака по формуле:

где:

— значение моды

— нижняя граница модального интервала

— величина интервала

— частота модального интервала

— частота интервала, предшествующего модальному

— частота интервала, следующего за модальным

 

 

Медиана — это значение признака, которое лежит в основе ранжированного ряда и делит этот ряд на две равные по численности части.

Для определения медианы в дискретном ряду при наличии частот сначала вычисляют полусумму частот , а затем определяют, какое значение варианта приходится на нее. (Если отсортированный ряд содержит нечетное число признаков, то номер медианы вычисляют по формуле:

Ме = (n(число признаков в совокупности) + 1)/2,

в случае четного числа признаков медиана будет равна средней из двух признаков находящихся в середине ряда).

При вычислении медианы для интервального вариационного ряда сначала определяют медианный интервал, в пределах которого находится медиана, а затем — значение медианы по формуле:

где:

— искомая медиана

— нижняя граница интервала, который содержит медиану

— величина интервала

— сумма частот или число членов ряда

- сумма накопленных частот интервалов, предшествующих медианному

— частота медианного интервала

15. Начальные и центральные моменты

Кроме характеристик положения — средних, типичных значений случайной величины, — употребляется еще ряд характеристик, каждая из которых описывает то или иное свойство распределения. В качестве таких характеристик чаще всего применяются так называемые моменты.
Понятие момента широко применяется в механике для описания распределения масс (статические моменты, моменты инерции и т. д.). Cовершенно теми же приемами пользуются в теории вероятностей для описания основных свойств распределения случайной величины. Чаще всего применяются на практике моменты двух видов: начальные и центральные.
Начальным моментом s -го порядка прерывной случайной величины Х

 

16. Неравенство Чебышева.:

Для любой СВ с ограниченными первыми двумя моментами (есть МО и D) и для любого e>0:

17.

Требуется только знание дисперсии СВ при любом законе распределения.

 

18. Теорема Чебышева

При X1, X2, …, Xn – последовательность независимых СВ. Для любого e>0 и n®¥:

Из теоремы следует, что среднее арифметичес­кое случайных величин при возрастании их числа проявляет свойство устойчивости, т. е. стремится по вероятности к неслучайной величине, которой является среднее арифметическое математических ожиданий этих величин, т.е. вероятность отклонения по абсолютной величине среднего арифметического случайных величин от среднего арифметического их математических ожиданий меньше чем на e при неограниченном возрастании n стремится к 1, т.е. становится практически достоверным событием.

19. Закон Больших Чисел устанавливает связь между абстрактными моделями теории вероятностей и основными ее понятиями и средними значениями, полученными при статистической обработке выборки ограниченного объема из генеральной совокупности. P, F(x), M(x), D(x)

ЗБЧ в форме Бернулли. m – число успехов в серии из n последовательных испытаний Бернулли. P – вероятность успеха в каждом отдельном испытании. e>0:

ЗБЧ носит чисто качественный характер. В тех же условиях неравенство Чебышева позволяет получить количественную характеристику оценки вероятности.

 

Характеристическая функция fX (t) случайной величиныХ определяется как математическое ожидание величины eitX. Это определение для случайных величин, имеющих плотность вероятности pX (x), приводит к формуле

.

Например, для случайной величины, имеющей нормальное распределение с параметрами а и s, Характеристическая функция равна

 

20. Как уже отмечалось, нормальные распределения в настоящее время часто используют в вероятностных моделях в различных прикладных областях. В чем причина такой широкой распространенности этого двухпараметрического семейства распределений? Она проясняется следующей теоремой.

Центральная предельная теорема (для разнораспределенных слагаемых). Пусть X1, X2,…, Xn,… - независимые случайные величины с математическими ожиданиями М(X1), М(X2),…, М(X n), … и дисперсиями D(X1), D(X2),…, D(X n), … соответственно. Пусть

Тогда при справедливости некоторых условий, обеспечивающих малость вклада любого из слагаемых в Un,

21. Функция распределения случайной величины

того, что случайная величина X примет значение, меньшее, чем х, где х — произвольное действительное число: F(x) = Р{Х ≤ х} = F(x) — неубывающая функция; О ≤ F(x) ≤ 1. Ф. р. в. полностью задает случайную величину. Если X — дискретная случайная величина, принимающая значения х1, x2... с вероятностями p1,p2,..., то ее функция распределения будет: F(x) = ∑рk; она разрывна и возрастает скачками в точках хk. Если X — непрерывная случайная величина, то у нее существует платность распределения вероятностей f(x) и Ф. р. в. будет:

Если x - дискретная случайная величина, принимающая значения x1 < x2 < … < xi < … с вероятностями p1 < p2 < … < pi < …, то таблица вида

x1

x2

xi

p1

p2

pi

называется распределением дискретной случайной величины.

Функция распределения случайной величины, с таким распределением, имеет вид

У дискретной случайной величины функция распределения ступенчатая.

22. Пусть имеется непрерывная случайная величина с функцией распределения , которую мы предположим непрерывной и дифференцируемой. Вычислим вероятность попадания этой случайной величины на участок от до :

,

т.е. приращение функции распределения на этом участке. Рассмотрим отношение этой вероятности к длине участка, т.е. среднюю вероятность, приходящуюся на единицу длины на этом участке, и будем приближать к нулю. В пределе получим производную от функции распределения:

. (5.4.1)

Введем обозначение:

. (5.4.2)

Функция - производная функции распределения – характеризует как бы плотность, с которой распределяются значения случайной величины в данной точке. Эта функция называется плотностью распределения (иначе – «плотность вероятности») непрерывной случайной величины .

Термины «плотность распределения», «плотность вероятности» становятся особенно наглядными при пользовании механической интерпретацией распределения; в этой интерпретации функция буквально характеризует плотность распределения масс по оси абсцисс (так называемую «линейную плотность»). Кривая, изображающая плотность распределения случайной величины, называется кривой распределения (рис. 5.4.1).

Плотность распределения, так же как и функция распределения, есть одна из форм закона распределения. В противоположность функции распределения эта форма не является универсальной: она существует только для непрерывных случайных величин.

23. Числовые характеристики непрерывных случайных величин.

Математическое ожидание непрерывной случайной величины Х, возможные значения которой принадлежат всей оси Ох, определяется равенством

Где f (x) дифференциальная функция. Предполагается, что интеграл сходится абсолютно.

В частности, если возможные значения принадлежат интервалу (a, b), то

О. Модой М0(Х) непрерывной случайной величины называют то ее возможное значение, которому соответствует максимум дифференциальной функции.

О. Медианой Me(X) непрерывной случайной величины называют то ее возможное значение, которое определяется равенством

Р (Х < Me(X))=P(X> Me(X)).

О. Дисперсия непрерывной случайной величины Х, возможные значения которой принадлежат всей оси Ох, определяется равенством

Или равносильным равенством

В частности, если возможные значения принадлежат интервалу (a, b), то

24. Свойства математического ожидания.
1) Математическое ожидание постоянной величины равно самой величине:
М(С) = С
2) Постоянный множитель можно выносить за знак математического ожидания:
М(СХ) = С·М(Х)
3) Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых:
М(Х1 + Х2 + …+ Хn) = М(Х1) + М(Х2) +... + М(Хn)
4) Математическое ожидание произведения взаимно независимых случайных величин равно произведению математических ожиданий сомножителей:
М(Х1 · Х2 ·... · Хn) = М(Х1) · М(Х2) ·... · М(Хn)

Свойства дисперсии.
1) Дисперсия постоянной величины равна нулю: D(С) = 0
2) Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D(СХ) = С2 · D(Х)
3) Дисперсия суммы (разности) независимых случайных величин равна сумме дисперсий слагаемых: D(Х1 ± Х2 ±... ± Хn) = D(Х1) + D(Х2) +... + D(Хn)

25. Нормальное распределение.

Говорят, что случайная величина нормально распределена или подчиняется закону распределения Гаусса, если ее плотность распределения имеет вид

(28)


где a - любое действительное число, а >0. Смысл параметров a и будет установлен в дальнейшем (см. §4, п. 2). Исходя из связи между плотностью распределения и функцией распределения F(x) [см. формулу (22)], имеем


График функции симметричен относительно прямой x=a. Несложные исследования показывают, что функция достигает максимума при x=a, а ее график имеет точки перегиба при и . При график функции асимптотически приближается к оси Ox. Можно показать, что при увеличении кривая плотности распределения становится более пологой. Наоборот, при уменьшении график плотности распределения сжимается к оси симметрии. При a=0 осью симметрии является ось Oy. На рис. 11 изображены два графика функции y= . График I соответствует значениям a=0, =1, а график II - значениям a=0, =1/2.

26. Правило «трех сигма».

В теории вероятностей квадратичное отклонение σx случайной величины x (от ее математического ожидания) определяется как квадратный корень из дисперсии Dx и называют также стандартным отклонением величины x. Для любой случайной величины x с математическим ожиданием mx и квадратичным отклонением σx вероятность отклонения x от mx, больших по абсолютной величине k·σx, k > 0, не превосходит 1/k2 (неравенство Чебышева). В случае нормального распределения указанная вероятность при k = 3 равна 0.0027. В практических задачах, приводящих к нормальному распределению, чаще всего пренебрегают возможностью отклонения от среднего, большего 3·σx.

27. закону равномерной плотности. [5

Приведем пример случайной величины, распределенной с равномерной вероятностью.

Поезда метрополитена идут с интервалом 2 мин. Пассажир выходит на платформу в некоторый момент времени. Время Т,в течение которого ему придется ждать поезда, представляет собой СВ, распределенную с равномерной плотностью на участке (0, 2) минут.

Рассмотрим СВ X, подчиненную закону равномерной плотности на участке от а до в (см. рисунок 5.6). Плотность этой величины f (x) постоянна и равна с на отрезке (а, в); вне этого отрезка она равна нулю:

(5.29)

Так как площадь, ограниченная кривой распределения, равна единице: c (в-а)=1. Отсюда получаем: c=1/(в-а).

Поэтому плотность распределения f (x) примет вид:

(5.30)

Рисунок 5.6 — График равномерной плотности распределения

Эта формула и выражает закон равномерного распределения вероятностей (закон равномерной плотности) на участке (а, в).

Напишем выражение для функции распределения F (x), которая выражается площадью, ограниченной кривой распределения и осью абсциссы, лежащей левее точки х (рисунок 5.6):

(5.31)

График функции распределения F (x) приведен на рисунке 5.7.

Основные числовые характеристики СВ X на участке от а до в:

— математическое ожидание величины X:

Рисунок 5.7 — Функция распределения

— дисперсия величины X:

— среднее квадратическое отклонение:

Найдем вероятность попадания СВ X распределенной по закону равномерной плотности, на участок (х 1, х 2), представляющий собой часть участка (а, в) (рисунок 5.8).

Рисунок 5.8 — Вероятность попадания величины X на участок(х 1, х 2)

Геометрически, как это видно из рисунка 5.8, вероятность представляет собой заштрихованную площадь и равна:

 

28. Закон Пуассона.

Рассмотрим прерывную случайную величину , которая может принимать только целые, неотрицательные значения:

,

причем последовательность этих значений теоретически не ограничена.

Говорят, что случайная величина распределена по закону Пуассона, если вероятность того, что она примет определенное значение , выражается формулой

, (5.9.1)

где а – некоторая положительная величина, называемая параметром закона Пуассона.

Ряд распределения случайной величины , распределенной по закону Пуассона, имеет вид:

Убедимся, прежде всего, что последовательность вероятностей, задаваемая формулой (5.9.1), может представлять собой ряд распределения, т.е. что сумма всех вероятностей равна единице. Имеем:

Но

,

откуда

.

На рис. 5.9.1 показаны многоугольники распределения случайной величины , распределенной по закону Пуассона, соответствующие различным значениям параметра . В таблице 8 приложения приведены значения для различных .

Рис. 5.9.1.

Определим основные характеристики – математическое ожидание и дисперсию – случайной величины , распределенной по закону Пуассона. По определению математического ожидания

.

Первый член суммы (соответствующий ) равен нулю, следовательно, суммирование можно начать с :

Обозначим ; тогда

.

29. Функция одного случайного аргумента.

предварительно заметим, что далее вместо того, чтобы говорить «закон распределения вероятностей», мы будем часто говорить кратко — «распределение».

Если каждому возможному значению случайной вели­чины X соответствует одно возможное значение случайной величины К, то К называют функцией случайного аргумен­та X:

Далее показано, как найти распределение функции по известному распределению дискретного н непрерывного аргумента.

a) Пусть аргумент X—дискретная случайная величина.

Если различным возможным значениям аргумента X соответствуют различные возможные значения функ­ции Y, то вероятности соответствующих значений X и Y между собой равны.

Б) Если разным значениям X могут соответствовать
одинаковые значения Y, то вероятности значений аргумента,
при которых функция принимает одно и то же значение,
складываются.

30. функции двух случайных величин

Задача определения закона распределения функции нескольких случайных аргументов значительно сложнее аналогичной задачи для функции одного аргумента. Здесь мы изложим общий метод решения этой задачи для наиболее простого случая функции двух аргументов.

Имеется система двух непрерывных случайных величин с плотностью распределения . Случайная величина связана с и функциональной зависимостью:

.

Требуется найти закон распределения величины .

Для решения задачи воспользуемся геометрической интерпретацией аналогичной той, которую мы применяли в случае одного аргумента. Функция изобразится уже не кривой, а поверхностью (рис. 12.4.1).

Рис. 12.4.1.

Найдем функцию распределения величины :

. (12.4.1)

Проведем плоскость , параллельную плоскости , на расстоянии от нее. Эта плоскость пересечет поверхность по некоторой кривой . Спроектируем кривую на плоскость . Эта проекция, уравнение которой , разделит плоскость на две области; для одной из них высота поверхности над плоскостью будет меньше, а для другой - больше . Обозначим ту область, для которой эта высота меньше . Чтобы выполнялось неравенство (12.4.1), случайная точка , очевидно, должна попасть в область ; следовательно,

. (12.4.2)

В выражение (12.4.2) величина входит неявно, через пределы интегрирования.

Дифференцируя по , получим плотность распределения величины :

.

 

31. Законом распределения двумерной дискретной случайной величины называется множество всевозможных ее значений с указанием вероятностей одновременного выполнения равенств и .

Обычно этот закон записывают в виде таблицы

 




























 

где , . Отметим, что сумма всех вероятностей, указанных в таблице, равна 1: .

Как видно из таблицы, составляющая принимает значения . При этом

. (1)

Поскольку события , из которых составлена сумма в правой части равенства (1), попарно не совместны, то

,

то есть сумме всех вероятностей, указанных в ой строке. Следовательно, закон распеределения составляющей имеет вид

 











 

Аналогичным образом, есть все значения составляющей , сумме всех вероятностей, стоящих в ом столбце. Следовательно, закон распределения составляющей имеет вид

 











 

Математическое ожидание и дисперсия составляющих и находятся по формулам


.

Предположим, что составляющая приняла значение . Обозначим через условную вероятность того, что примет значение при условии, что . Очевидно,

,

и тем самым

.

Под условным законом распределения при условии, что , понимают закон распределения












 

Аналогично, условная вероятность того, что примет значение при условии, что , находится по формуле

и соответствующий условный закон распределения имеет вид












 

32. Статистическое распределение выборки:

x1 — наблюдается n1 раз

x2 — n2

xk — nk

xi

x1

x2

……

xk

P*i

n1

n2

……

nk

ni - частота

-относительная частота

Замечание: В теории вероятности под распределениями понимают соответствие между возможными значениями случ.величины и их вер-тями. А в мат.статистике — соответствие между наблюдаемыми вариантами и их частотами.

Эмпирическая функция распределения:

nx-число наблюдений, при которых наблюдалось значение признака варианты меньше, чем х

n-общее число наблюдений (объём выборки)

x<x

-частота события, когда x<x

Эмперической функцией распределения случ.величины x наз.функцию F*ξ(x), определяющую для каждого значения x относительную частоту событий:

Недостатки:

Невысокая наглядность (визуально сложно определить закон распределения сл.величины x)

Гистограмма и полигон относит.частот:

Полигоном частот наз.ломаную, отрезки к-ой соединяют xi и ni.

Площадь гистограммы частот =сумме всех частот, то есть объёму выборки.

33. Числовые характеристики статистического распределения.

Аналогичные числовые характеристики существуют и для статистических распределений. Каждой числовой характеристике случайной величины соответствует ее статистическая аналогия. Для основной характеристики положения — математического ожидания случайной величины – такой является среднее арифметическое наблюденных значений случайной величины:

, (7.4.1)

где — случайной величины, наблюденное -м опыте, - число опытов.

Подобные статистические аналогии существуют для всех числовых характеристик. Условимся в дальнейшем эти статистические аналогии обозначать теми же буквами, что и соответствующие числовые характеристики, но и снабжать их значком *.

Рассмотрим, например, дисперсию случайной величины. Она представляет собой математическое ожидание случайной величины :

. (7.4.2)

Если в этом выражении заменить математическое ожидание его статистической аналогией – средним арифметическим, мы получим статистическую дисперсию случайной величины :

, (7.4.3)

где - статистическое среднее.

Аналогично определяются статистические начальные и центральные моменты любых порядков:

(7.4.4)

 

34. Критерий согласия Пирсона χ2 – один из основных, который можно представить как сумму отношений квадратов расхождений между теоретическими (fТ) и эмпирическими (f) частотами к теоретическим частотам:

k–число групп, на которые разбито эмпирическое распределение,

fi–наблюдаемая частота признака в i-й группе,

fT–теоретическая частота.

Для распределения χ2 составлены таблицы, где указано критическое значение критерия согласия χ2 для выбранного уровня значимости α и степеней свободы df (или ν).
Уровень значимости α – вероятность ошибочного отклонения выдвинутой гипотезы, т.е. вероятность того, что будет отвергнута правильная гипотеза. Р – статистическая достоверность принятия верной гипотезы. В статистике чаще всего пользуются тремя уровнями значимости:

α=0,10, тогда Р=0,90 (в 10 случаях из 100)

α=0,05, тогда Р=0,95 (в 5 случаях из 100)

α=0,01, тогда Р=0,99 (в 1 случае из 100) может быть отвергнута правильная гипотеза

Число степеней свободы df определяется как число групп в ряду распределения минус число связей: df = k –z. Под числом связей понимается число показателей эмпирического ряда, использованных при вычислении теоретических частот, т.е. показателей, связывающих эмпирические и теоретические частоты. Например, при выравнивании по кривой нормального распределения имеется три связи. Поэтому при выравнивании покривой нормального распределения число степеней свободы определяется как df =k–3. Для оценки существенности, расче


Дата добавления: 2015-08-29; просмотров: 23 | Нарушение авторских прав




<== предыдущая лекция | следующая лекция ==>
расслабляющий на все тело | Земельные ресурсы как средство

mybiblioteka.su - 2015-2024 год. (0.152 сек.)