4.3 Метод Феррара—Глобера

Феррар і Глобер для оцінки мультиколінеарності запропонували інші статистики. При допомозі цих статистик перевіряється мультиколінеарність не тільки всього набору незалежних факторів, але кожної із пар. Мультиколінеарність всього рівняння встановлюється при допомозі величини  2  (критерія Пірсона), розрахованої на основі оцінок взаємної кореляційної матриці незалежних змінних. Для перевірки мультиколінеарності кожної із незалежних змінних обчислюються статистики  .

Алгоритм метода Феррара—Глобера

1. Нормалізація змінних.

Позначимо вектори незалежних змінних окремого регресійного рівняння через . елементи нормалізованих векторів обчислюємо за формулою:

  , (4.4),

де  —число спостережень для кожного вектора;

 —число незалежних змінних;

 - середня арифметична вектора  ;

  - стандартна похибка змінної  ;

  (4.5).

Позначимо матрицю, складену з нормалізованих векторів через Х*.

2. Розрахунок кореляційної матриці. Взаємна кореляційна матриця оцінюється із співвідношення:

  (4.6),

  -матриця, транспонована до матриці  .

Ця матриця коефіцієнтів парної кореляції. Вона симетрична і має розмір  .

3. Розрахунок визначника кореляційної матриці та значення  . Якщо позначити визначник кореляційної матриці через  ,

то

 (4.7).

Ця величина порівнюється із табличним  значенням  - квадрат критерія Пірсона для  ступенів вільності та рівнем значимості  . Якщо  , то можна зробити висновок, що в масиві змінних існує мультиколінеарність.

4. Розрахунок матриці оберненої до  :

  (4 .8).

5. Розрахунок  --  статистик.  Величина   розраховується  за  формулою:

 , (4.9),

 де  - діагональні елементи матриці  . Значення  порівнюється з критичними величинами  - критерія при  і   ступенями вільності. Якщо  , то ні одна із незалежних змінних не мультиколінеарна з іншими.

Коефіцієнт детермінації для кожної змінної  розраховується як:

 (4.10).

6.Знаходження  часткових  коефіцієнтів  кореляції.

Ці коефіцієнти розраховуються при допомозі поза діагональних елементів оберненої кореляції матриці 

 (4.11).

де -  номер рядка а  - номер стовпця, оберненої кореляційної матриці  .

7. Розрахунок  —статистики

  (4.12).

Наведені розрахунки можна інтерпретувати наступним чином:

а) значення елементів матриці  дають нам першу інформацію  про  мультиколінеарність  незалежних факторів. Не діагональні елементи  матриці дорівнюють коефіцієнтам кореляції для кожної із пар незалежних факторів і вони повинні бути меньшими коефіцієнта множинної кореляції для всього рівняння;

б) мірою загальної мультиколінеарності є величина  2 . Цей  показник не повинен перебільшувати табличного значення  при заданому рівні значимості  і  ступенях вільності;

в) величина  показує, які змінні мультиколінеарні. Якщо деякі із  більше табличних значень  —статистики при  і  ступенях вільності, то відповідні їм незалежні фактори мультиколінеарні;

г) при допомозі значень   можна уточнити, які із пар незалежних факторів мультиколінеарні. Якщо деякі   перебільшують табличне значення критерія Стьюдента при  ступенях вільності, то мультиколінеарність спостерігається між парою змінних   і  .

Приклад. Для побудови лінійної економетричної моделі відібрані такі показники :

витрати на споживання  , рівень доходів  , збережень  та заробітної плати  . Необхідно дослідити  ці показники на наявність мультиколінеарності по алгоритму Феррара—Глобера . Дані приведені в у. г. о.

№ спостере-ження    Споживання

Yi      Рівень доходів

X1i    Збереження

X2i    Заробітна

плата

X3i

1.       25,6      4,6        11,2      29,1

2.       25,2      5,6        13,3      29,3

3.       31,2      6,2        12,8      33,3

4.       33.9      6,9        14,6      30,9

5.       38,8      6,3        14,5      32,8

6.       41,5      7,5        17,0      33,2

7.       47,9      8,6        15,6      35,5

8.       43,2      7,7        17,9      34,6

9.       51,7      8,7        17,1      39,2

10.     42,0      9,50      20,4      31,4

                     71,6      154,4    339,3

Рішення.

1.Нормалізація даних.

Елементи стандартизованих векторів розраховуємо за формулою:

 ,

де  - середнє арифметичне для кожної незалежної змінної:

 =7,16;  ; 

  - дисперсія j - ої незалежної змінної.

 ;  ;  .

Тоді знаменник для стандартизації кожної незалежної змінної буде:

для  :  ,

 :  ,

 :  .

Всі розрахунки по стандартизації змінних х зведені у таблиці:

                                                                                               

-2,56  -4,24     -4,83     60,554  17,978  23,329  -0,558   -0,518   -0,405

-1,56  -2,14     -4,63     20,434  40,58    21,437  -0,34     -0,261   -0,388

-0,96  -2,64     -0,63     00,922  60,97    00,397  -0,209   -0,323   -0,053

-0,26  -0,84     -3,03     00,068  00,706  90,181  -0,057   -0,103   -0,254

-0,86  -0,94     -1,13     00,74    00,884  10,277  -0,187   -0,125   -0,095

00,34  10,56    -0,73     00,116  20,434  00,533  00,074  00,191  -0,061

10,44  00,16    10,57    20,074  00,026  20,465  00,314  00,02    0,132

00,54  20,46    00,67    00,292  60,052  00,449  00,118  00,301  0,056

10,54  10,66    50,27    20,372  20,756  27,773  00,336  0,203    0,442

20,34  40,96    70,47    50,476  24,602  55,801  00,51    0,606    0,626

                                 21,044  66,988  142,641                       

Матриця стандартизованих змінних:

 

2. Находимо кореляційну матрицю:

 

Кожний елемент цієї матриці характеризує тісноту зв’язку  однієї незалежної змінної з іншою. Оскільки діагональні елементи характеризують зв’язок  кожної незалежної з цією змінною, то вони дорівнюють одиниці, але через неточність обчислень числові значення діагональних елементів можуть лише наближатись до одиниці. Якщо так, то вони замінюються одиницями. Інші елементи матриці  трактуються так :

 ;  ; ,

тобто вони є парними коефіцієнтами кореляції незалежних змінних. На основі цих коефіцієнтів можна зробити висновок, що між  іcнує зв’язок . Але ще не можна стверджувати, що цей зв’язок  є явищем мультиколінеарності  і він негативно буде впливати  на  оцінки  параметрів  моделі.

3. Розрахунок визначника кореляційної матриці:

 =0,030

 

 

 . Оскільки  , то можна зробити висновок , що у масі незалежних змінних існує мультиколінеарність.

4. Знаходимо матрицю, обернену до матриці 

 

5. Використовуючи діагональні елементи матриці  , розрахуємо  —критерії:

 ;

 ;

 ;

 

При рівні значимості  і ступенях вільності  і  табличне значення критерія  .

Оскільки  то всі незалежні змінні мультиколінеарні з двома іншими.

6. Розраховуємо часткові коефіцієнти кореляції, використовуючи елементи матриці 

 ,

 

 

 

Часткові коефіцієнти кореляції характеризують тісноту зв’язку  між двома змінними за умови, що третя не впливає на цей зв’язок .

7. Визначимо  —критерії для  часткових коефіцієнтів кореляції.

 ;

 ;

 ;

 .

Табличне значення  критерія при  ступенях свободи і рівнем значимості  дорівнює 1,89.

  , а  . Отже, між змінними 1,2 та 1,3 існує тісний зв’язок  і ці пари змінних є мультиколінеарними. Оскільки фактичне значення  —критерія Стьюдента найбільше для, пари змінних 1,3, то одну із цих змінних доцільно виключити з економетричної моделі (краще  , оскільки рівень зарплати також формує рівень доходів  ).

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46  Наверх ↑