Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Короткий огляд множинної регресії

Читайте также:
  1. Догляд за пензлями та щітками.
  2. З погляду Мей Касахари
  3. Загальна характеристика оперативно розшукових заходів:арешт,огляд і виїмка кореспонденції.
  4. Загальний огляд
  5. Ім. Б. Хмельницького для проходження медичного огляду
  6. Короткий адрес
  7. Короткий жакет в стиле ампир

1. Багатофакторна лінійна регресія є звичайним продовженням простої лінійної регресії, яка розглядалась у попередніх розділах. У багатофакторній регресії ми припускаємо, що на залежну змінну у може впливати більше, ніж один фактор. Наприклад, обсяг продажу компанії може залежати як від ціни товару, так і від кількості грошей, затрачених на рекламу і т.ін.

2. Основні припущення у випадку багатофакторної лінійної регресії:

а) випадкова величина є нормально розподіленою з математичним сподіванням нуль та постійною дисперсією;

б) значення випадкової величини не залежать від значень р незалежних змінних, які входять у модель;

в) випадкові величини є є незалежними одна від одної;

г) фактори мають бути лінійно незалежними між собою. Якщо вони лінійно залежні, ми маємо мультиколінеарність.

3. У багатофакторній регресії, як і в простій лінійній регресії, невідомі параметри розраховуються за методом найменших квадратів, який полягає в мінімізації суми квадратів помилок.

4. Ефект кожного фактора або кожної незалежної змінної на залежну змінну обчислюється частковими регресійними коефіцієнтами (параметрами). Частковий регресійний коефіцієнт показує, наскільки зміниться значення залежної змінної при зміні на одиницю значення відповідного фактора за умови, що значення інших факторів залишаються постійними.

5. Коефіцієнт детермінації R2 є неспадна функція від кількості пояснювальних змінних або регресорів у моделі. При збільшенні кількості регресорів R2 майже неминуче зростає і ніколи не спадає.

6. За допомогою F-тесту можна перевірити значимість усіх параметрів одночасно, а за допомогою t-тесту — кожного параметра окремо. Пригадайте, що F- та t-тести були еквівалентними в моделі простої лінійної регресії, але якщо є більш ніж одна незалежна змінна, ці тести не є еквівалентними.


Дата добавления: 2015-07-24; просмотров: 112 | Нарушение авторских прав


Читайте в этой же книге: Равновесные составы фаз идеальной системы | Процесс ректификации бинарной смеси | Ректификационная колонна | Колонна однократной ректификации | Двукратная ректификация | Особенности теплообменника в криогенных системах | И виды теплообменных поверхностей | Эффективность теплообменников | Теплоизоляция криогенных систем | Библиографический список |
<== предыдущая страница | следующая страница ==>
Короткий огляд нелінійної регресії| Особового складу чергового караулу ДПРЧ-12

mybiblioteka.su - 2015-2024 год. (0.005 сек.)