ПОНЯТТЯ МУЛЬТІКОЛІНЕАРНОСТІ. МЕТОДИ ВИЗНАЧЕННЯ ЇЇ.

ТЕМА 3. ПОНЯТТЯ ТА МЕТОДИ ДОСЛІДЖЕННЯ МУЛЬТІКОЛІНЕАРНОСТІ. ГЕТЕРОСКЕДАСТИЧНІСТЬ, МЕТОДИ ВИЗНАЧЕННЯ ТА НАСЛІДКИ.

ПЛАН (ЛОГІКА)ВИКЛАДУ І ЗАСВОЄННЯ МАТЕРІАЛУ

3.1. Поняття мультіколінеарності. Методи визначення її.

3.2. Методи дослідження мультіколінеарності (метод Феррара-Глобера).

3.3. Приклади економетричних задач. Метод головних компонентів.

3.4. Поняття гетероскедастичності. Методи її визначення.

3.5.Перевірка гетероскедастичності на основі критерію m..Параметричний тест Гольдфельда—Квандта.

Однієї з 4 умов, які необхідні для оцінювання параметрів загальної лінійної моделі 1МНК, є умова .

Матриця Х розміром m на n повинно мати ранг m , тобто серед пояснювальних змінних не повинно бути лінійно залежних. На практиці ці змінні найчастіше пов’язані між собою. Ця матриця має розміри п х т і повинна мати ранг т, тобто серед пояснювальних змінних моделі не повинно бути лінійно залежних. Проте оскільки економічні показники, які входять до економетричної моделі як пояснювальні змінні, на практиці дуже часто пов'язані між собою, то це може стати перешкодою для оцінювання параметрів моделі 1МНК та істотно вплинути на якість економетричного моделювання.

Тому в економетричних дослідженнях вельми важливо з'ясувати, чи існують між пояснювальними змінними взаємозв'язки, які називають мультиколінеарністю.

Означення. Мультиколінеарність означає існування тісної лінійної залежності, або сильної кореляції, між двома чи більше пояснювальними змінними,

Вона негативно впливає на кількісні характеристики економетричної моделі або робить її побудову взагалі неможливою.

Так, мультиколінеарність пояснювальних змінних призводить до зміщення оцінок параметрів моделі, через що з їх допомогою не можна зробити коректні висновки про результати взаємозв'язку залежної і пояснювальних змінних. У крайньому разі, коли між пояснювальними змінними існує функціональний зв'язок, оцінити вплив цих змінних на залежну взагалі неможливо. Тоді для оцінювання параметрів моделі метод найменших квадратів не придатний, оскільки матриця (X' Х) буде виродженою.

Нехай зв'язок між пояснювальними змінними не функціональний, проте статистичне істотний. Тоді попри те, що оцінити параметри методом найменших квадратів теоретично можливо, знайдена оцінка може призвести до таких помилкових значень параметрів, що сама модель стане беззмістовною.

Основні наслідки мультиколінеарності.

1. Падає точність оцінювання, яка виявляється так:

а) помилки деяких конкретних оцінок стають занадто великими;

б) ці помилки досить корельовані одна з одною;

в) дисперсії оцінок параметрів різко збільшуються.

2. Оцінки параметрів деяких змінних моделі можуть бути незначущими через наявність їх взаємозв'язку з іншими змінними, а не тому, що вони не впливають на залежну змінну. У такому разі множина вибіркових даних не дає змоги цей вплив виявити.

3. Оцінки параметрів стають досить чутливими до обсягів сукупності спостережень. Збільшення сукупності спостережень іноді може спричинитися до істотних змін в оцінках параметрів.

З огляду на перелічені наслідки мультиколінеарності при побудові економетричної моделі потрібно мати інформацію про те, що між пояснювальними змінними не існує мультиколінеарності.

Ознаки мультиколінеарності

1. Коли серед парних коефіцієнтів кореляції пояснювальних змінних є такі, рівень яких наближається або дорівнює множинному коефіцієнту кореляції, то це означає можливість існування мультиколінеарності. Інформацію про парну залежність може дати симетрична матриця коефіцієнтів парної кореляції або кореляції нульового порядку між пояснювальними змінними:

Проте коли до моделі входять більш як дві пояснювальні змінні, то вивчення питання про мультиколінеарність не може обмежуватись інформацією, що її дає ця матриця. Явище мультиколінеарності в жодному разі не зводиться лише до існування парної кореляції між незалежними змінними.

Більш загальна перевірка передбачає знаходження визначника (детермінанта) матриці r, який називається детермінантом кореляції і позначається . Числові значення детермінанта кореляції задовольняють умову: .

2. Якщо = 0, то існує повна мультиколінеарність, а коли =1, мультиколінеарність відсутня. Чим ближче до нуля, тим певніше можна стверджувати, що між пояснювальними змінними існує мультиколінеарність. Незважаючи на те, що на числове значення впливає дисперсія пояснювальних змінних, цей показник можна вважати точковою мірою рівня мультиколінеарності.

3. Якщо в економетричній моделі знайдено мале значення параметра при високому рівні частинного коефіцієнта детермінації і при цьому F- критерій істотно відрізняється від нуля, то це також свідчить про наявність мультиколінеарності.

4. Коли коефіцієнт частинної детермінації , який обчислено для регресійних залежностей між однією пояснювальною змінною та іншими, має значення, яке близьке до одиниці, то можна говорити про наявність мультиколінеарності.

5. Нехай при побудові економетричної моделі на основі покрокової регресії введення нової пояснювальної змінної істотно змінює оцінку параметрів моделі при незначному підвищенні (або зниженні) коефіцієнтів кореляції чи детермінації. Тоді ця змінна перебуває, очевидно, у лінійній залежності від інших, які було введено до моделі раніше.

Усі ці ознаки мультиколінеарності мають один спільний недолік: ні одна з них чітко не розмежовує випадки, коли мультиколінеарність істотна і коли нею можна знехтувати.

 

3.2. МЕТОДИ ДОСЛІДЖЕННЯ МУЛЬТІКОЛІНЕАРНОСТІ (МЕТОД ФЕРРАРА-ГЛОБЕРА).

Найповніше дослідити мультиколінеарність можна з допомогою алгоритму Фаррара—Глобера. Цей алгоритм має три види статистичних критеріїв, згідно з якими перевіряється мультиколінеарність усього масиву незалежних змінних (- «хі»- квадрат); кожної незалежної змінної з рештою змінних (F- критерій); кожної пари незалежних змінних (t- критерій).

Усі ці критерії при порівнянні з їх критичними значеннями дають і змогу робити конкретні висновки щодо наявності чи відсутності мультиколінеарності незалежних змінних.

Крок 1. Стандартизація (нормалізація) змінних. Позначимо вектори незалежних змінних економетричної моделі

Через Елементи стандартизованих векторів обчислимо за формулами:

1); 2) (3.1)

де n — число спостережень ; т — число пояснювальних змінних, ; середнє арифметичне k-ї пояснювальної змінної; , — дисперсія k ї пояснювальної змінної.

Крок 2. Знаходження кореляційної матриці» виходячи з двох методів нормалізації змінних

1); 2) (3.2)

де X*— матриця стандартизованих незалежних (пояснювальних) змінних, X* —матриця, транспонована до матриці X'.

Крок 3. Визначення критерію («хі»- квадрат):

(3.3)

де |r| — визначник кореляційної матриці r.

Значення цього критерію порівнюється з табличним при ступенях свободи і рівні значущості . Якщо то в масиві пояснювальних змінних існує мультиколінеарність.

Крок 4. Визначення оберненої матриці:

(3.4)

Крок 5. Обчислення F-критеріїв:

(3.5)

де Сkk — діагональні елементи матриці С. Фактичні значення критеріїв порівнюються з табличними при п - т і т - 1 ступенях свободи і рівні значущості . Якщо Fфакт > Fтабл, то відповідна k-та незалежна змінна мультиколінеарна з іншими.

Коефіцієнт детермінації для кожної змінної

(3.6)

Крок 6. Знаходження частинних коефіцієнтів кореляції:

(3.7)

де Сkj елемент матриці С, що міститься в k-му рядку і j-мy стовпці; сkk і Сjj— діагональні елементи матриці С

Крок 7. Обчислення t-критеріїв:

(3.8)

Фактичні значення критеріїв t порівнюються з табличними при n - m ступенях свободи і рівні значущості . Якщо t фaкт >tтабл, томіж незалежними змінними хkі хj існує мультиколінеарність.