ТЕМА  4.  МУЛЬТИКОЛІНЕАРНІСТЬ

4.1 Поняття  мультиколінеарності та її вплив на оцінки параметрів моделі.

Однією з умов примінення методу найменших квадратів для обробки різних експериментальних даних є відсутність мультиколінеарності між незалежними змінними.

В економетричну модель з багатьма змінними включають велике число факторів, які впливають на результативний показник. Серед цих факторів  необхідно відібрати найбільш суттєві та виключити з моделі несуттєві. При цьому виключенню з моделі підлягають ті фактори, які при парному корелюванні між собою дають високий лінійний коефіцієнт кореляції, який по абсолютній величині  перевищує  0,85 (r>0,85). Наявність такого лінійного зв’язку  між двома факторами називається колінеарністю, а між декількома факторами—мультиколінеарністю. Таким чином термін "мультиколінеарність" означає, що в багатофакторній регресійній моделі дві або більше незалежних змінних (факторів) пов’язані  між собою лінійною залежністю, тобто мають високій ступінь кореляції  .

Термін "мультиколінеарність" вперше впровадив Р.Фріш. Явище мультиколінеарності детально дослідили Фріш, Клейн, Тінтнер.

Регресійне рівняння задовільно описує рух залежної змінної, коли коефіцієнт множинної кореляції досить високий, а кореляція між незалежними факторами незначна. Мультиколінеарність незалежних змінних веде до зміщення оцінок параметрів і, отже, до неможливості коректної інтерпретації результатів.

Таким чином, наявність мультиколінеарності негативно впливає на кількісні характеристики економетричної моделі або робить її побудову взагалі неможливою. Так, якщо два колінеарні вектори змінюються в одному напрямку, то майже неможливо оцінити окремий вплив кожного з них на результативний показник, оскільки кожний з цих факторів виступає лінійною комбінацією інших факторів. Наприклад, вплив на продуктивність праці таких факторів як рівень  механізації та рівень енергоозброєності праці, оскільки ці фактори є колінеарними. Причиною мультиколінеарності є наявність трендів у динамічних рядах та використання в економетричних моделях лагових значень змінних. Наприклад, при економічному зростанні більшість базових макроекономічних показників таких як доход, споживання, накопичення, інвестиції, зайнятість мають тенденцію до зростання з деяким лагом. Все це свідчить що в економіці взагалі важко уникнути певного рівня залежності між показниками, тобто колінеарності.

Першим наслідком мультиколінеарності є велика  дисперсія і коваріація оцінок параметрів, обчислених за методом найменших квадратів. При наближенні коефіцієнта кореляції до свого граничного значення дисперсії параметрів зростають із значною швидкістю; так при  =0,999  у 50 разів перевищують своє значення за умови, якщо немає мультиколінеарності  .

Другим практичним наслідком є збільшення інтервалу довіри. Оскільки збільшення коефіцієнта кореляції призводить до збільшення значень середньоквадратичних відхилень параметрів, то збільшується  також інтервал довіри для них. За наявності високої мультиколінеарності ( )  інтервал довіри в 500 разів більший, ніж коли її немає 

Третім практичним наслідком мультиколінеарності є незалежність  —статистики. Щоб оцінити, чи значимо параметри багатофакторної регресії відрізняються від нуля використовують  —статистику Стьюдента, тобто знаходять відхилення   і порівнюють його з табличним значенням  .  У випадку мультиколінеарності  нескінченно зростає, а значення  прямує до нуля.

Мультиколінеарність незалежних змінних призводить до зміщення оцінок параметрів моделі, через що з їх допомогою не можна зробити коректні висновки про результати взаємозв’язку  залежної і незалежних змінних. У випадку, коли між незалежними змінними існує функціональний взаємозв’язок , то оцінити вплив цих змінних на залежну  змінну  взагалі неможливо. Тоді для оцінювання параметрів моделі метод найменших квадратів не придатний, оскільки матриця  буде виродженою.

Тому при побудові багатофакторних економетричних моделей потрібно мати інформацію,  що між незалежними змінними (факторами) не існує мультиколінеарності.

Мультиколінеарність не є проблемою, якщо єдиною метою регресійного аналізу є прогнозування;  при цьому значення  2 є високим, а параметри регресії -- значимими, оскільки  —статистика висока. Чим вище значення  2 ,  тим точніший прогноз.

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47  Наверх ↑