Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Корреляционный анализ

Читайте также:
  1. E) биохимические анализы крови.
  2. FAST (Методика быстрого анализа решения)
  3. I. Анализ задания
  4. II. Анализ повести.
  5. PEST – анализ
  6. PEST-анализ
  7. SWOT- анализ

Основной целью изучения причинно-следственной зависимости является выявление связей, закономерностей и тенденций развития. Причинно-следственная зависимость выражает соотношение между аргументом (причиной) и функцией (следствием).

Различают две основные формы причинных зависимостей: статистическую и функциональную. При функциональной зависимости каждому возможному значению аргумента поставлено в однозначное соответствие определенное значение функции, т.е. y= f(x).

Такого рода однозначные (функциональные) связи между переменными величинами встречаются редко. Например, между ростом (длиной тела) и массой человека существует положительная связь: более высокие индивиды имеют обычно и большую массу, чем индивиды низкого роста. То же наблюдается и в отношении качественных признаков: блондины, как правило, имеют голубые, а брюнеты — карие глаза. Однако из этого правила имеются исключения, когда сравнительно низкорослые индивиды оказываются тяжелее высокорослых, и среди населения, хотя и нечасто, встречаются кареглазые блондины и голубоглазые брюнеты. Причина таких “исключений” в том, что каждый признак является функцией многих переменных. На его величине сказывается влияние не только генетических факторов. В этих случаях зависимость между признаками приобретает не функциональный, а статистический характер. Статистическая связь состоит в том, что одна случайная переменная реагирует на изменение другой изменением своего закона распределения. Такого рода зависимость между переменными величинами называется корреляционной или корреляцией (термин “корреляция” происходит от лат. correlatio — соотношение, связь).

Статистические связи между переменными исследуются методами корреляционного и регрессионного анализа. Корреляционный анализ основан на использовании вероятностных моделей, описывающих поведение исследуемых признаков в некоторой генеральной совокупности, из которой получены экспериментальные значения xi и yi.

Основная задача корреляционного анализа - выявление связи между случайными переменными путем точечной и интервальных оценок. Метод корреляции применяется для того, чтобы при сложном взаимодействии посторонних влияний выяснить какой должна была быть зависимость между величинами, если бы посторонние факторы не изменялись и своим изменением не искажали основную зависимость.

Теория корреляции решает три основные задачи:

§ определение корреляционных уравнений связи между двумя и более случайными величинами;

§ определение тесноты связи и вероятности получаемых характеристик;

§ обоснование методики проведения исследований по выявлению корреляционных связей.

Показателями тесноты связи между двумя случайными наблюдениями х и y является коэффициент корреляции:

,

, . и - соответствующие средние квадратичные отклонения, n - количество независимых наблюдений, - частота появления определенной варианты

где ,

где .

Коэффициент корреляции не изменяется при изменении начала отсчета и масштаба измерения величин х и y. Он удовлетворяет неравенству . Знак «+» указывает насвязь прямую (увеличение или уменьшение одного признака сопровождается аналогичным изменением другого признака), знак «–» – на связь обратную (увеличение или уменьшение одного признака сопровождается противоположным по направлению изменением другого признака).Если r = ±1, то между величинами существует тесная линейная связь, если r=0, нет линейной корреляционной зависимости (но может быть нелинейная).

Для оценки тесноты связи используются специальные шкалы. В таблице №6 приводится шкала Чеддока.

 

Таблица №6

Количественные критерии оценки тесноты связи (шкала Чеддока)

Величина коэффициента корреляции   0,1-0,3 0,3-0,5 0,5-0,7 0,7-0,9 0,9-1,0
сила связи слабая умеренная заметная высокая весьма высокая

 

Коэффициенты корреляции рассчитываются для выборочных данных и являются случайными величинами. После вычисления r возникает необходимость проверки гипотезы о значимости полученной оценки и распространении полученных результатов на генеральную совокупность. Для этого приходится допускать некоторую ошибку, которую можно оценить с помощью средней квадратичной ошибки или определенных критериев.

Для вычисления обычного коэффициента корреляции необходимо, чтобы исходные данные были выражены достаточно точно. Существуют такие количественные признаки, которые с трудом можно представить в виде точечных оценок. Кроме того, распределение одного из этих признаков или обоих может быть неравномерным. Чаще всего такие данные приходится обрабатывать социологам, психологам. В этом случае в статистике используются порядковые шкалы, и для исследования связи используются ранговые коэффициенты корреляции. Порядковый номер каждого признака в упорядоченной совокупности называется рангом. В основном используются два коэффициента ранговой корреляции – Спирмена и Кендала. Для расчета коэффициента ранговой корреляции Спирмена используется формула:

,

где - разница между рангами двух качественных признаков.

Пример. Проверялась психологическая подготовка к обучению в школе 10 детей по двум показателям в виде тестов. В итоге были получены следующие данные:

Тест I: 95, 90, 86, 84, 75, 70, 62, 60, 57, 50,

Тест II: 92, 93, 83, 80, 55, 60, 45, 72, 62, 70.

Найти выборочный коэффициент ранговой корреляции Спирмена между оценками по тестам.


Дата добавления: 2015-08-05; просмотров: 95 | Нарушение авторских прав


Читайте в этой же книге: Теория вероятностей - это раздел математики, в котором изучаются случайные явления (события) с устойчивой частостью и выявляются закономерности при массовом их повторении. | СТАТИСТИЧЕСКИЕ ГИПОТЕЗЫ | Критерий χ 2 (хи квадрат - критерий К.Пирсона). | Решение. | РЕГРЕССИОННЫЙ АНАЛИЗ 1 страница | РЕГРЕССИОННЫЙ АНАЛИЗ 2 страница | РЕГРЕССИОННЫЙ АНАЛИЗ 3 страница | РЕГРЕССИОННЫЙ АНАЛИЗ 4 страница | РЕГРЕССИОННЫЙ АНАЛИЗ 5 страница | Критические точки распределения Стьюдента |
<== предыдущая страница | следующая страница ==>
Решение.| Решение.

mybiblioteka.su - 2015-2024 год. (0.008 сек.)