Читайте также:
|
|
Дисперсионный анализ схематически можно подразделить на несколько категорий. Это деление осуществляется в зависимости от того, сколько, во-первых, факторов принимает участие в рассмотрении, во-вторых, - сколько переменных подвержены действию факторов, и, в-третьих, - от того, как соотносятся друг с другом выборки значений.
При наличии одного фактора, влияние которого исследуется, дисперсионный анализ именуется однофакторным и распадается на две разновидности:
— анализ несвязанных (различных) выборок. Например, одна группа респондентов решает задачу в условиях тишины, вторая, находясь в шумной комнате. (В этом случае, к слову, нулевая гипотеза звучала бы так: «среднее время решения задач такого-то типа будет одинаково в тишине и в условиях шумного помещения, то есть не зависит от фактора шума».);
- анализ связанных выборок, например, двух замеров, проведенных на одной и той же группе респондентов в разных условиях. Тот же пример: в первый раз задача решалась в тишине, второй - сходная задача - в условиях шумовых помех. (На практике к подобным опытам следует подходить с осторожностью, поскольку в действие может вступить неучтенный фактор «научаемость», влияние которого исследователь рискует приписать изменению условий, а именно, - шуму.)
В случае, если исследуется одновременное воздействие двух или более факторов, мы имеем дело с многофакторным дисперсионным анализом, который также можно подразделить по типу выборки.
Если же воздействию факторов подвержено несколько переменных, - речь идет о многомерном анализе.
Основное замечание. Дисперсионный анализ следует применять тогда, когда известно (установлено), что распределение результативного признака является нормальным.
Методы факторного анализа направлены на выделение из заданного множества переменных подмножеств переменных, тесно связанных (коррелирующих) между собой. Переменные, входящие в одно подмножество и коррелирующие между собой, но в значительной степени независимые от переменных из других подмножеств, образуют факторы.
Цель факторного анализа - идентифицировать явно не наблюдаемые факторы с помощью множества наблюдаемых переменных.
В основе парадигмы использования факторного анализа лежит предположение о том, что выделяемые факторы отражают глубинные процессы (латентные, не наблюдаемые, не измеряемые), являющиеся причиной корреляций первичных (наблюдаемых, измеряемых) переменных. Другими словами, факторы (глубинные параметры) детерминируют (определяют) первичные наблюдаемые переменные и могут быть использованы для объяснения комплексных явлений. Наблюдаемые корреляции между первичными переменными возникают из-за того, что их детерминируют одни и те же факторы.
Задачу факторного анализа нельзя решить однозначно. Равенства основной модели факторного анализа не поддаются непосредственной проверке, так как р исходных признаков задается через (р+т) других переменных - простых и специфических факторов. Поэтому представление корреляционное матрицы факторами, как говорят, ее факторизацию, можно произвести бесконечно большим числом способов. Если удалось произвести факторизацию корреляционной матрицы с помощью некоторой матрицы факторных нагрузок F, то любое линейное ортогональное преобразование F (ортогональное вращение) приведет к такой же факторизации.
Существующие программы вычисления нагрузок начинают работать с т =1 (однофакторная модель). Затем проверяется, насколько корреляционная матрица, восстановленная по однофакторной модели в соответствии с основным соотношением факторного анализа, отличается от корреляционной матрицы исходных данных. Если однофакторная модель признается неудовлетворительной, то испытывается модель с т=2 и т.д. до тех пор, пока при некотором m не будет достигнута адекватность или число факторов в модели не превысит максимально допустимое. В последнем случае говорят, что адекватной модели факторного анализа не существует.
Если факторная модель существует, то производится вращение полученной системы общих факторов, так как значения факторных нагрузок и нагрузок на факторы есть лишь одно из возможных решений основной модели. Вращение факторов может производиться разными способами. Наиболее часто оно осуществляется так, чтобы как можно большее число факторных нагрузок стало нулями и каждый фактор, по возможности, описывал группу сильно коррелированных признаков. Факторы можно вращать до тех пор, пока не получатся результаты, поддающиеся содержательной интерпретации. Можно, например, потребовать, чтобы один фактор был нагружен преимущественно признаками одного типа, а другой - признаками другого типа. Или, скажем, можно потребовать, чтобы исчезли какие-то трудно интерпретируемые нагрузки с отрицательными знаками. Нередко исследователи идут дальше и рассматривают прямоугольную систему факторов как частный случай косоугольной, то есть ради содержания жертвуют условием некоррелированности факторов. В завершение всей процедуры факторного анализа с помощью математических преобразований выражают факторы/" через исходные признаки, то есть получают в явном виде параметры линейной диагностической модели.
Известно большое количество методов факторного анализа (ротаций, максимального правдоподобия и др.). Нередко в одном и том же пакете программ анализа данных реализовано сразу несколько версий таких методов.
Регрессионный анализ представляет собой вычисления на основе статистической информации с целью математической оценки усредненной связи между зависимой переменной и некоторой независимой переменной или переменными. Простая регрессия предполагает одну независимую переменную, множественная же регрессия предполагает две и более переменных.
Регрессионный анализ описывает или оценивает величину какой-либо переменной (зависимой переменной на основе изменения одной или более других переменных - независимых или каузальных).
Регрессионный анализ может быть использован при попытке предсказания или оценки величины зависимой переменной. По следующей формуле рассчитывается простая линейная регрессия: у = а + bx, где:
у - зависимая переменная;
х - независимая переменная;
а - постоянная величина или точка пересечения постоянной линии регрессии переменной у, отражающая величину у при Ъ = 0;
b - наклон линии регрессии (коэффициент пропорциональности изменений у при изменении х).
Для нахождения оптимального прохождения линии на графике регрессионного управления используется метод наименьших квадратов. Этот метод позволяет расположить линию регрессии между точками, отражающими величины отдельных наблюдений таким образом, что возведенная в квадрат сумма разницы, взятая по вертикали между значением линии регрессии и значением отдельного наблюдения, минимальна.
Дата добавления: 2015-10-21; просмотров: 108 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Квазиэксперимента льны en лапы | | | Деятельность экспереминтатора и поведение испытуемых |