Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Математическое ожидание и дисперсия

Читайте также:
  1. БЕЗОПАСНОСТЬ-ОЖИДАНИЕ
  2. Взаимоотношения с мужчинами: ожидание осуществления
  3. Закулисное ожидание
  4. Математическое моделирование объектов и устройств автоматизации в САПР Требования к математическим моделям
  5. Математическое моделирование процесса движения
  6. МАТЕМАТИЧЕСКОЕ ПРОГНОЗИРОВАНИЕ

Рассмотрим такое понятие в теории вероятностей как математическое ожидание. Математическое ожидание играет роль характеристики положения случайной величины в генеральной совокупности, и поэтому его иногда называют генеральным средним арифметическим значением случайной величины или центром группирования значений случайной величины в генеральной совокупности.

Рассмотрим случайную величину X, которая может принимать дискретные положения x1,х2,х3,.., хi,.... хn с соответствующими вероятностями p1,р2,р3,…pi,…,pn. Нам требуется охарактеризовать каким-то числом положение значения случайной величины на оси абсцисс с учетом того, что эти значения имеют различные вероятности. Для этой цели воспользуемся формулой для средней взвешенной, где каждое значение хi при усреднении должно учитываться с «весом», пропорциональным вероятности этого значения. Тогда генеральное среднее арифметическое значение случайной вели- чины X, которое обозначим М(х), может быть подсчитано по формуле

 


 

x p + x p + + x p


n

å xi pi


M (x) =


 

n
1 1 2 2


...


n n = i =1,


 

(8.1)


p 1 +

 

n


p 2 +... + pn


å pi

i =1


или, учитывая, что


å pi = 1,

i =1


 


n

M (x) = å xipi

i =1


 

(8.2)


Вычисленная выборочная средняя всегда будет содержать элемент случайности, в то время как математическое ожидание, представляющее среднее значение случайной величины в генеральной совокупности, является величиной постоянной для данной генеральной совокупности. При боль- шом количестве наблюдаемых значений выборочная средняя приближается к математическому ожиданию.

Дисперсию случайной величины X в генеральной совокупности, которую будем обозначать через σ 2, подсчитывают по следующим формулам:

для случая, когда значения хi в генеральной совокупности не повторяются,

n 2


å[ M (x) - xi ]

2 (x) = i =1

n


 

(8.3)


 

для случая, когда значения хi повторяются,


n 2

å[ M (x) - xi ]


× mi


где


 

n

n = å mi

i =1


2 (x) = i =1

n


 

(8.4)


Кроме характеристик положения и рассеивания нам в дальнейшем придется столкнуться с рядом характеристик, каждая из которых описывает то или иное свойство распределения. В качестве этих характеристик чаще всего применяются так называемые центральные моменты.

Практический интерес представляют второй, третий и четвертый центральные моменты. Второй центральный момент представляет собой не что иное, как дисперсию.

Третий центральный момент служит для характеристики асимметрии распределения:


n

 
å mi (x - xi)


=
M
i =1

З n

å mi

i =1


(8.5)


Если распределение симметрично относительно его среднего значения, то взвешенные по соответствующим частотам кубические отклонения значений случайной величины, равноотстоящие от средней арифметической, отличаются только знаками и их сумма равна нулю. Если же распределение асимметрично, то значения параметра, лежащие по одну сторону от средней арифметической, дадут большие кубические отклонения, чем значения, лежащие по другую сторону. Знаки этих отклонений различны. Разность между суммами положительных и отрицательных слагаемых будет отличаться от нуля, являясь положительной или отрицательной. Соответственно этому знак М3 указывает на отрицательную или положительную асимметрию.

Чтобы получить меру асимметрии в виде отвлеченного числа, позволяющего сравнивать разнородные распределения, третий момент М3 делят на куб стандартного отклонения σ 3. Полученная величина, обозначаемая А, носит название асим- метрии или косости распределения:

А = М3 / σ 3 (8.6)

Величина асимметрии дает нам представление о большей или меньшей асимметрии, а знак указывает на ее направление: если А>0, то средняя лежит справа от моды (правосторонняя асимметрия); если А<0, то средняя лежит слева от моды (левосторонняя асимметрия).

Кроме значения А за меру асимметрии иногда принимают число

 

а=(x -Мо)/ σ, (8.7)

которое часто называют коэффициентом асимметрии Особенностью симметричных рядов является равенство

трех характеристик — средней арифметической, моды и


 

медианы: x = Мо = Ме. Поэтому а для симметричных распределений равно нулю.

Четвертый центральный момент М 4 служит для характеристики так называемой крутости, т. е. островершинности или плосковершинности распределения. Это свойство распределения описывается с помощью так называемого эксцесса.

Эксцесс случайной величины X вычисляется по формуле

Эк=М4 / σ 4 -3. (8.8)

Число 3 вычитается из отношения М4 / σ 4 потому, что для весьма важного и широко распространенного в природе гауссовского закона распределения, с которым мы подробно познакомимся в дальнейшем, М4 / σ 4 = 3. Поэтому для гауссовского распределения эксцесс равен нулю. Кривые, более островершинные по сравнению с ним, обладают

положительным эксцессом; кривые более плосковершинные — отрицательным эксцессом.

 

9. Основные законы распределения случайной величины

В общем случае для определения вероятности того, что случайная величина X примет некоторое заранее заданное значение (или окажется меньше его), необходимо знать закон распределения случайной величины. Ввиду того что случайные величины могут быть как дискретными, так и непрерывными, распределения их вероятностей будут описываться соответст- венно законами распределения дискретных и непрерывных случайных величин [1].


 

Рис. 9.1. Равновероятное (прямоугольное) распределение

 

Законы распределения для дискретных случайных величин, применяемые при контроле выпускаемой продукции, подробно рассмотрены в [2], поэтому в данном разделе рассмотрим законы распределения для непрерывных случайных величин, причем только те, которые необходимы для понимания последующего материала.

Равновероятный закон. Простейшим распределением для непрерывной случайной величины Х является равновероятный (равномерный, прямоугольный) закон распределения (рис. 9.1).

Случайная величина X распределена по равновероятному закону, если плотность вероятности

 

ì 0 при x < b

ï


f (x) = í1/(с - b) приb £ x £ c


(9.1)


 
î
ï при x > c

Плотность вероятности f(x) иногда называют дифференциальной функцией распределения. Ее физический смысл рассмотрим несколько позже. Нетрудно убедиться в том, что площадь под кривой распределения равна единице. Действительно,


¥ c 1

b
ò f (x) dx = ò c - b dx = 1


(9.2)


Кроме плотности вероятности для непрерывных распределений используется также интегральная функция распределения F(x), которая в общем виде выглядит следующим образом:


X

F (x) = ò


f (x) dx


(9.3)


Для равновероятного закона распределения интегральная функция

 

(9.4)

Физический смысл интегральной функции распределения состоит в том, что она представляет собой вероятность попадания случайной величины х в интервал от -∞ до X, где X — определенное, наперед заданное число.

Гауссовский закон распределения. На практике часто приходится иметь дело с распределениями, которые незначительно отличаются от гауссовского. Широкое распространение гауссовского закона распределения находит теоретическое объяснение в центральной предельнойтеореме, смысл которой заключается в следующем. Предположим, что параметр качества Y исследуемого объекта зависит от к действующих на него независимых между собой (или слабо зависимых) факторов Х1, Х2, Х3,..., Хк, образующих в каждый момент времени совокупность случайных независимых (или слабо зависимых) случайных величин х1, х2, х3,..., хк, одновременно воздействующих на качество изделия. Если число этих независимых случайных величин велико (приближаясь в пределе к бесконечности) и среди них отсутствуют случайные величины с резко отличающимися от других случайных величин средними


квадратичными отклонениями (или, как говорят в этом случае, отсутствуют превалирующие факторы), то в соответствии с центральной предельной теоремой распределение значений параметра качества будет стремиться к гауссовскому закону. При этом каждая из воздействующих на качество объекта случайных величин может подчиняться каким угодно законам распределения. Существуют три условия центральной предельной теоремы: случайные величины должны быть независимыми (или слабо зависимыми), их число должно стремиться к бесконечности, среди случайных величин должны отсутствовать превалирующие.

Можно утверждать, что если технологический процесс такого сложного производства, как выпуск современных ЭС, отлажен и контролируем, то распределение значений параметра качества на каждой технологической операции будет близко к гауссовскому. Это можно проверить, набрав достаточную статистику. Особенно часто встречается гауссовский закон при измерениях. Такие случайные величины, как ошибки измерений, могут быть представлены как сумма большого числа сравнительно малых слагаемых — элементарных ошибок, каждая из которых вызвана действием отдельной величины, не зависящей от остальных. Каким бы законам распределения ни были подчинены отдельные элементарные ошибки, особенности этих распределений в сумме большого числа слагаемых нивелируются и сумма оказывается подчиненной закону, близкому к гауссовскому. Основное ограничение, налагаемое на суммируемые ошибки, состоит в том, чтобы все они в общей сумме равномерно играли относительно малую роль, т. е. должно выполняться третье условие центральной предельной теоремы. Если это условие не выполняется и, например, одна из случайных ошибок окажется по своему влиянию на сумму слагаемых ошибок резко превалирующей над всеми другими, то закон распределения этой превалирующей ошибки наложит свое


влияние на сумму и определит в основных чертах ее закон распределения.

2 2
Гауссовский закон распределения характеризуется плотностью вероятности


f (x) =


1 e -[ x - M (x)] /(2 )


 

(9.5)


 

 

Для определенного распределения М(х) и σ — величины постоянные. Они являются параметрами гауссовского

распределения. Графически функция (2.13) представлена на рис. 9.2. Поясним с помощью этого рисунка физический смысл плотности вероятности f(x). Предположим, что случайная величина х представляет собой время работы изделия до отказа (время безотказной работы). Зададимся вполне определенным значением времени отказа изделия, равным а, и поставим вопрос следующим образом: какова вероятность того, что данное изделие откажет именно в момент времени x=a?

Рис. 9.2. Кривая распределения случайной величины, подчиняющаяся гауссовскому закону


Поставленный таким образом вопрос является некорректным в теории вероятностей. И поэтому ответ будет однозначным: вероятность того, что отказ произойдет в определенный момент времени х = а, равна нулю. Если же вблизи а взять малый интервал, то вероятность того, что случайная величина х попадет в этот интервал, уже не будет равна нулю, а будет равна:

P[a≤ x ≤ a + ΔX]=f(a) ΔХ (9.6) При малых ΔХ правая часть уравнения (2.14) представляет собой площадь прямоугольника со сторонами f(а) и ΔХ. Если обе части уравнения (2.14) разделить на ΔХ, то получим вероятность, приходящуюся на единицу длины, т. е. плотность вероятности (аналогично тому, что плотность

вещества — это масса на единицу объема)


f (a) =


P [ a £


x £ a + D X ]

D X


(9.7)


в этом и заключается физический смысл плотности вероятности.

Вернемся опять к кривой гауссовского закона распределения, приведенной на рис. 9.2. Как видно, кривая распределения имеет характерную колоколообразную форму.


Максимальная ордината кривой, равная


1/ (


2 ),


соответствует точке х=М(х)— центру распределения. Точка перегиба кривой располагается на расстоянии ±σ от центра распределения (как показано на рис. 9.2). По мере удаления от точки М(х) плотность распределения уменьшается, и при х→± ∞ кривая асимптотически приближается к оси абсцисс.

Если при изменении центра группировки М(х) кривая распределения будет смещаться вдоль оси абсцисс, не изменяя своей формы, то при изменении σ кривая распределения меняет свою форму.

Максимальная ордината кривой распределения обратно пропорциональна σ. Так как площадь под кривой всегда должна оставаться равной единице, то при увеличении σ


кривая опускается вниз, одновременно растягиваясь вдоль оси абсцисс. Напротив, при уменьшении σ кривая вытягивается вверх, одновременно сжимаясь с боков.

Если рассмотреть частный случай, когда М(х) равно нулю, а σ равно единице, то, обозначив плотность вероятности через f0(x), уравнение (2.13) можно записать в следующем виде:

- x 2 /2


f 0 (x) =(1/) e


(9.8)


Функция (2.14) легко табулируется и для нее не представляет труда составить таблицы. С помощью таблицы для

f0 (х) нетрудно вычислить f(x), когда σ не равна единице, а М(х) отлично от нуля. Действительно, из (9.3) и (9.6) имеем

 

 

(9.9)

 

Интегральная функция распределения для случая гауссовского закона

(9.10)

С помощью формулы (2.18) определяется вероятность того, что случайная величина х будет меньше некоторого значения X. Если же требуется найти вероятность того, что случайная величина х, имеющая гауссовский закон распределения, будет лежать в каких-либо пределах от х1 до х2, необходимо соответственно изменить пределы интегрирования в выражении (9.10), т. е.


1 x 2


ì [ X - M (x)]2ü


Bep { x 1 £ x £ x 2}=


2 òexpí-


2 2


ý dx


(9.11)


 
x î þ

 

Произведя в (2.19) замену переменной интегрирования X на α =[X—M(x)]/σ, которую называют нормированием, и учитывая, что Х= ασ ± М(х), а dx = σ dα, получаем

 


1 2


ì


Bep { x 1 £ x £ x 2}=òexpí-


ý d


(9.12)


î
þ
2 2

 

Новые нормированные пределы интегрирования α1 и α2заменили пределы х1 и х2. Представив правую часть выражения (2.20) в виде суммы двух интегралов, получим

 

1 0 ì 2 ü


Bep { x 1 £ x £ x 2 } =


ò exp í-


ý d +

2


 
î þ

 


1 2


ì 2 ü


+ ò exp í-


ý d =


2 0


î 2 þ


 


1 2


ì 2 ü


1 1


ì 2 ü


= ò expí-


ý d - ò expí-


ý d


2 0


î 2 þ


2 0


î 2 þ


 


 

где


= x 1 - M (x);

1 2


= x 2 - M (x)


Знак перед первым слагаемым изменился вследствие изменения пределов интегрирования α1 - 0 на 0 – α2.

Функция

 


Ф () =


1   2

ò exp{-


} d


 

(9.13)


0 2

 

называется нормированной функцией Лапласа или интегралом вероятности. Для этой функции имеется в приложении. Таблица построена для положительных значений, но, учитывая, что функция Ф(α) нечетная, т. е. Ф(-α)= -Ф(α), для отрицательных значений α табличный результат следует брать со знаком минус. В некоторых случаях следует брать функцию

 

Ф1(α)=2Ф(α). (9.14)

 

Таким образом, для получения Ф1(α) достаточно удвоить значение Ф(α), взятое из приложения.

Площадь под кривой Гаусса равна 1, или 100% всех значений случайной величины в генеральной совокупности. Величина площади, заключенной между одно-, двух- и трехсигмовыми границами, найденными при подстановке в (9.14) значений Ф(а), взятых из приложения для σ, соответственно равного 1, 2 и 3, приведена табл. 9.1.

Таблица 9.1

Величина площади под кривой Гаусса

при различных границах изменения случайной величины

Границы изменения случайной величины X Площадь под кривой Гаусса
Односигмовые [М(х) — σ; М(х) + σ] Двухсигмовые [М(х) —2σ; М(х) +2σ] Трехсигмовые [М(х) - 3σ; М(х) + 3σ ] 0,6827 0,9545 0,9973

Приведенные в табл. 9.1 данные можно истолковать следующим образом. Если 68,27%, т. е. 2/3, наблюдаемых значений случайной величины лежит между границами М(х) — σ и М(х) + σ, то 31,73% всех наблюдений следует ожидать за этими границами (соответствующими точками перегиба кривой Гаусса), а именно: 15,865% — за границей М(х)— σ; 15,865% — за границей М(х)+ σ в силу симметричности гауссовского распределения. Как уже отмечалось ранее, односигмовые границы соответствуют точкам перегиба кривой

Гаусса.

Между трехсигмовыми границами [М(х) - 3σ; М(х) + 3σ] находится 99,73% всех наблюдений, т. е. практически все значения. Только 0,27% значений лежит за этими границами, а именно 0,135% — за границей М (х) -Зσ; 0,135% — за границей М(х) + Зσ. Это означает, что при проведении 10 000 наблюдений в среднем 27 наблюдений будет лежать за трехсигмовыми границами или при 270 наблюдениях — одно. Поэтому, зная стандартное отклонение и математическое ожидание случайной величины, подчиняющейся гауссовскому закону распределения, можно ориентировочно указать интервал ее практически возможных минимальных и макси- мальных значений. И если какое-либо значение появляется за пределами трехсигмового участка, то его можно считать чисто случайным. Так как вероятность появления такого события очень мала, а именно 1/270, следует считать, что рассматриваемое событие является практически невозможным. Такой способ оценки диапазона возможных значений случайной величины известен в математической статистике под названием правила трех сигм.

На практике участок, лежащий внутри трехсигмовых границ, называют областью статистического допуска параметра качества соответствующего изделия или процесса его изготовления.

Таким образом, следует отметить, что если распределение значений параметра качества близко к


гауссовскому, то это означает, что технологический процесс отлажен и контролируем. Поэтому часто приходится использовать различные критерии для проверки соответствия экспериментального (т.е. полученного при измерении параметра качества изделий в выборке) закона распределения случайной величины гауссовскому.

ЛЕКЦИЯ 4


Дата добавления: 2015-07-07; просмотров: 232 | Нарушение авторских прав


Читайте в этой же книге: Общие сведения о качестве изделия и возможность его оценки | Cемь инструментов статистического контроля качества | Диаграмма разброса (поле корреляции) | Диаграмма Парето | Причинно-следственная диаграмма | Состав контрольной карты | Построение контрольных карт |
<== предыдущая страница | следующая страница ==>
Дискретное и непрерывное изменение параметра качества| Статистическая проверка гипотез. Критерий Пирсона

mybiblioteka.su - 2015-2024 год. (0.036 сек.)