Читайте также: |
|
1. Багатофакторна лінійна регресія є звичайним продовженням простої лінійної регресії, яка розглядалась у попередніх розділах. У багатофакторній регресії ми припускаємо, що на залежну змінну у може впливати більше, ніж один фактор. Наприклад, обсяг продажу компанії може залежати як від ціни товару, так і від кількості грошей, затрачених на рекламу і т.ін.
2. Основні припущення у випадку багатофакторної лінійної регресії:
а) випадкова величина є нормально розподіленою з математичним сподіванням нуль та постійною дисперсією;
б) значення випадкової величини не залежать від значень р незалежних змінних, які входять у модель;
в) випадкові величини є є незалежними одна від одної;
г) фактори мають бути лінійно незалежними між собою. Якщо вони лінійно залежні, ми маємо мультиколінеарність.
3. У багатофакторній регресії, як і в простій лінійній регресії, невідомі параметри розраховуються за методом найменших квадратів, який полягає в мінімізації суми квадратів помилок.
4. Ефект кожного фактора або кожної незалежної змінної на залежну змінну обчислюється частковими регресійними коефіцієнтами (параметрами). Частковий регресійний коефіцієнт показує, наскільки зміниться значення залежної змінної при зміні на одиницю значення відповідного фактора за умови, що значення інших факторів залишаються постійними.
5. Коефіцієнт детермінації R2 є неспадна функція від кількості пояснювальних змінних або регресорів у моделі. При збільшенні кількості регресорів R2 майже неминуче зростає і ніколи не спадає.
6. За допомогою F-тесту можна перевірити значимість усіх параметрів одночасно, а за допомогою t-тесту — кожного параметра окремо. Пригадайте, що F- та t-тести були еквівалентними в моделі простої лінійної регресії, але якщо є більш ніж одна незалежна змінна, ці тести не є еквівалентними.
Дата добавления: 2015-07-24; просмотров: 112 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Короткий огляд нелінійної регресії | | | Особового складу чергового караулу ДПРЧ-12 |