Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

1.1. Случайным называют событие, которое при осуществлении совокупности условий S может либо произойти, либо не произойти. Случайное событие, которое никогда не реализуется в результате случайного



1.1. Случайным называют событие, которое при осуществлении совокупности условий S может либо произойти, либо не произойти. Случайное событие, которое никогда не реализуется в результате случайного эксперимента, называется невозможным.. Случайное событие, которое всегда реализуется в результате случайного эксперимента, называется достоверным.

1.2. События А и В, связанные с некоторым опытом, называются совместными, если существует испытание, при котором реализуются оба события. События А и В, связанные с некоторым опытом, называются несовместными, если не существует испытания, при котором реализуются оба события. По́лной гру́ппой собы́тий называется система случайных событий такая, что в результате произведенного случайного эксперимента непременно произойдет одно из них. Сумма вероятностей всех событий в группе всегда равна 1. Противоположные события - два события А и В называются противоположными, если в данном испытании они несовместимы и одно из них обязательно происходит.

1.3. Размещениями множества из различных элементов по элементов называются комбинации, которые составлены из данных элементов по элементов и отличаются либо самими элементами, либо порядком элементов. Перестановкой множества из элементов называется расположение элементов в определенном порядке. Сочетаниями из различных элементов по элементов называются комбинации, которые составлены из данных элементов по элементов и отличаются хотя бы одним элементом (иначе говоря, -элементные подмножества данного множества из элементов).

1.4. Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу. Число, к которому стремится устойчивая относительная частота, называется статистической вероятностью этого события.

1.5. Два события называются независимыми, если появление одного из них не изменяет вероятность появления другого. События называются зависимыми, если одно из них влияет на вероятность появления другого. Вероятность одного события , вычисленная в предположении осуществления другого события , называется условной вероятностью события и обозначается .

1.6. Суммой событий А и В называется третье событие А + В, которое наступает тогда и только тогда, когда наступает хотя бы одно из событий: А или В. Произведением событий А и В называется третье событие АВ, которое наступает тогда и только тогда, когда оба события: А и В. Теорема сложения вероятностей формулируется следующим образом. Вероятность суммы двух несовместимых событий равна сумме вероятностей этих событий: Теорема умножения вероятностей формулируется следующим образом.Вероятность произведения двух событий равна произведению вероятностей одного из них на условную вероятность другого, вычисленную при условии, что первое имело место: .



1.7. Формула полной вероятности позволяет вычислить вероятность интересующего события через условные вероятности этого события в предположении неких гипотез, а также вероятностей этих гипотез.

Формула Бернулли — формула в теории вероятностей, позволяющая находить вероятность появления события A при независимых испытаниях. Формула Бернулли позволяет избавиться от большого числа вычислений — сложения и умножения вероятностей — при достаточно большом количестве испытаний. Названа в честь выдающегося швейцарского математика Якоба Бернулли, выведшего формулу. Теорема: Если Вероятность p наступления события Α в каждом испытании постоянна, то вероятность того, что событие A наступит k раз в n независимых испытаниях, равна: , где .
Теорема Байеса (или формула Байеса) — одна из основных теорем теории вероятностей, которая позволяет определить вероятность того, что произошло какое-либо событие (гипотеза) при наличии лишь косвенных тому подтверждений (данных), которые могут быть неточны. Названа в честь её автора, преп. Томаса Байеса (посвящённая ей работа «An Essay towards solving a Problem in the Doctrine of Chances» впервые опубликована в 1763 году,[1] через 2 года после смерти автора). Полученную по формуле вероятность можно далее уточнять, принимая во внимание данные новых наблюдений.Психологические эксперименты[2] показали, что люди, при оценках вероятности, игнорируют различие априорных вероятностей (ошибка обоснования оценки (англ.)русск.), и потому результаты по формуле Байеса и правильные результаты могут сильно отличаться от ожидаемых.
,

где

— вероятность события A;

— вероятность события A при наступлении события B;

— вероятность наступления события B при истинности события A;

— вероятность наступления события B.

1.8. Случайная величина — это величина, которая принимает в результате опыта одно из множества значений, причём появление того или иного значения этой величины до её измерения нельзя точно предсказать.
Случайная величина называется дискретной случайной величиной, если она принимает не более чем счетное число значений.
Случайную величину назовем непрерывной, если ее функция распределения непрерывна.

1.9. Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Закон распределения может иметь разные формы.
Функцией распределения случайной величины X называется функция F(x), выражающая для каждого x вероятность того, чтослучайная величина X примет значение, меньшее x

F(x) = P(X < x).
Свойства функции распределения

1) значения функции распределения принадлежат отрезку [0, 1].

2) F(x) – неубывающая функция.

при

3) Вероятность того, что случайная величина примет значение, заключенное в интервале (a, b), равна приращению функции распределения на этом интервале.

4) На минус бесконечности функция распределения равна нулю, на плюс бесконечности функция распределения равна единице.

5) Вероятность того, что непрерывная случайная величина Х примет одно определенное значение, равна нулю.

1.10 Математи́ческое ожида́ние — среднее значение случайной величины, распределение вероятностей случайной величины.
Математическое ожидание дискретной случайной величины есть сумма произведений всех её возможных значений на их вероятности:
M(X) = x1p1 + x2p2 +... + xnpn

Свойства математического ожидания.
1) Математическое ожидание постоянной величины равно самой величине:
М(С) = С
2) Постоянный множитель можно выносить за знак математического ожидания:
М(СХ) = С·М(Х)
3) Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых:
М(Х1 + Х2 + …+ Хn) = М(Х1) + М(Х2) +... + М(Хn)
4) Математическое ожидание произведения взаимно независимых случайных величин равно произведению математических ожиданий сомножителей:
М(Х1 · Х2 ·... · Хn) = М(Х1) · М(Х2) ·... · М(Хn)

 

1.11 Диспе́рсия случа́йной величины́ — мера разброса данной случайной величины, то есть её отклонения от математического ожидания.
1) Дисперсия постоянной величины равна нулю.
2) Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат.
3) Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин.
4) Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин.

1.12 Математическое ожидание M[X] числа появлений события A в n независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании: M[X] = np.

Дисперсия числа появлений события A в n независимых испытаниях, в каждом из которых вероятность p появления события постоянна, равна произведению числа испытаний на вероятности появления и непоявления события в одном испытании:

D[X] = npq.

1.13 Начальным моментом k-го порядка α k случайной величины Х называется математическое ожидание величины Хk, т.е. α k = М(Хk).
Начальный момент первого порядка – это математическое ожидание случайной величины.
Центральным моментом k-го порядка μ k случайной величины Х называется математическое ожидание величины (ХМ(Х)) k, т.е. μ k = М(ХМ(Х)) k.
Центральный момент второго порядка – это дисперсия случайной величины.

Для дискретной случайной величины начальный момент выражается суммой α k = , а центральный – суммой μ k = где рi = p(X = xi).

 

1.14 Функцией распределения случайной величины Х называется функция F(x), выражающая для каждого х вероятность того, что случайная величина Х примет значение, меньшее х: .

Функцию F(x) называют интегральной функцией распределения или интегральным законом распределения.

Способ задания непрерывной случайной величины с помощью функции распределения не является единственным. Необходимо определить некоторую функцию, отражающую вероятности попадания случайной точки в различные участки области возможных значений непрерывной случайной величины. Т. е. представить некоторую замену вероятностям pi для дискретной случайной величины в непрерывном случае.

Такой функцией является плотность распределения вероятностей. Плотностью вероятности (плотностью распределения, дифференциальной функцией) случайной величины Х называется функция f(x), являющаяся первой производной интегральной функции распределения:

.

Про случайную величину Х говорят, что она имеет распределение (распределена) с плотностью f(x) на определенном участке оси абсцисс.

Квантиль в математической статистике — такое число, что заданная случайная величина не превышает его лишь с фиксированной вероятностью. - квантиль (или квантиль порядка ) — числовая характеристика закона распределения случайной величины; такое число, что данная случайная величина попадает левее его с вероятностью, не превосходящей .

 

1.15 Математическим ожиданием непрерывной случайной величины Х, для которой функция f(x) является плотностью вероятности, называется величина несобственного интеграла , если он сходится абсолютно.

Дисперсией называется значение несобственного интеграла

. если он сходится.

Модой дискретной случайной величины, обозначаемой Мо, называется ее наиболее вероятное значение, а модой непрерывной случайной величины – значение, при котором плотность вероятности максимальна.

Медианой непрерывной случайной величины Х называется такое ее значение Ме, для которого одинаково вероятно, окажется ли случайная величина меньше или больше Ме, т.е. Р(Х < Ме) = Р(X > Ме)

Из определения медианы следует, что Р(Х < Ме) = 0,5, т.е. F (Ме) = 0,5. Геометрически медиану можно истолковывать как абсциссу, в которой ордината φ(x) делит пополам площадь, ограниченную кривой распределения.

 

1.16 Непрерывная случайная величина Х имеет равномерное распределение на отрезке [ a, b ], если ее плотность имеет следующий вид:

Непрерывная случайная величина Х, функция плотности которой задается выражением

называется случайной величиной, имеющей показательное, или экспоненциальное, распределение. Здесь параметр λ постоянная положительная величина.

 

1.17 Случайная величина Х имеет нормальное распределение (или распределение по закону Гаусса), если ее плотность вероятности имеет вид:
где параметры а – любое действительное число и σ >0.
График дифференциальной функции нормального распределения называют нормальной кривой (кривой Гаусса). Нормальная кривая (рис. 2.12) симметрична относительно прямой х = а, имеет максимальную ординату , а в точках х = а ± σ – перегиб.

Нормальный закон распределения случайной величины в интегральной форме имеет вид

Полагая в интеграле , получим
,

где . Первое слагаемое равно 1/2. Второе слагаемое
называется функцией Лапласа, а также интегралом вероятности.

 

Величина As = μ3 / σ3 называется коэффициентом асимметрии. Эксцессом Еk называется величина Еk = μ4 / σ4 – 3. Коэффициенты асимметрии и эксцесса для нормального распределения равны нулю: As = Ex = 0.

 

1.18 Функцией распределения двухмерной случайной величины называется вероятность совместного выполнения двух событий {Х < х} и {Y < у}:

F x(, y)= < p({X x}⋅{Y < y}).

Свойства двухмерной функции распределения:

1. 0 ≤ F(x, y) ≤ 1.

2. F(x, +∞) = FX(x); F(+∞, y) = FY(у); F(+∞,+∞) = 1.

3. F(-∞, y) = F(x, -∞) = F(-∞, -∞) = 0.

4. F(x1, y) ≤ F(x2, y), если x2 > x1;

F(x, y1) ≤ F(x, y2), если y2 > y1.

Функция распределения может задаваться для непрерывных и дискретных случайных величин.

Условным законом распределения называется распределение одной случайной величины, найденное при условии, что другая случайная величина приняла определенное значение.

 

1.19 Условное математическое ожидание в теории вероятностей — это среднее значение случайной величины относительно условного распределения.

 

1.20 Ковариация - числовая характеристика совместного распределения двух случайных величин, равная математич. ожиданию произведения отклонений случайных величин от их математич. ожиданий. Ковариация определяется для случайных величин Х 1 и Х 2 с конечными дисперсиями и обычно обозначается cov (X1, Х 2). Таким образом,

Если величины Х 1 и Х 2 независимы, то cov (X1, X2)=0. Ковариация служит характеристикой взаимозависимости случайных величин, с помощью ковариации определяется корреляции коэффициент.

Корреляцияэто статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции:

 

1.21 Линейная регрессия — используемая в статистике регрессионная модель зависимости одной переменной y от другой или нескольких других переменных x с линейной функцией зависимости.

 

1.22 Закон больших чисел в теории вероятностей утверждает, что эмпирическое среднее (среднее арифметическое) достаточно большой конечной выборки из фиксированного распределения близко к теоретическому среднему (математическому ожиданию) этого распределения. Центральные предельные теоремы — класс теорем в теории вероятностей, утверждающих, что сумма достаточно большого количества слабо зависимых случайных величин, имеющих примерно одинаковые масштабы (ни одно из слагаемых не доминирует, не вносит в сумму определяющего вклада), имеет распределение, близкое к нормальному.

 

 


Дата добавления: 2015-08-28; просмотров: 88 | Нарушение авторских прав




<== предыдущая лекция | следующая лекция ==>
1. Расчет теплового эффекта, направленности процесса и равновесия по термохимическим данным | Молодежный парламент кадуйского муниципального района

mybiblioteka.su - 2015-2024 год. (0.018 сек.)