Сутність регресійного аналізу.

План

1. Сутність регресійного аналізу.

2. Оцінка параметрів парної лінійної регресії методом найменших квадратів (МНК). Властивості МНК- оцінок.

3. Коефіцієнти кореляції та детермінації.

4. Перевірка моделі на адекватність за критерієм Фішера.

Однією з головних задач економетрії в ринковій економіці є ретельне вивчення кількісних зв’язків між показниками для кращого розуміння господарських явищ і процесів, що в свою чергу дозволяє більш обґрунтовано сформулювати управлінське рішення та дати прогнози на майбутнє. Для вирішення цієї задачі потрібно вміти будувати економетричні моделі.

Зв’язок між різними явищами в економіці складний і різноманітний. На рівень розвитку одного показника можуть впливати багато факторів, рівень впливу яких різний. Ці закономірності потрібно враховувати під час планування, прогнозування і проведення економічного аналізу.

Для вивчення форми зв’язку між показником і факторами на основі статистичних даних використовується регресійний аналіз. Причому, об’єктами дослідження стохастичної залежності соціально – економічних процесів можуть бути різні статистичні показники.

Статистичний показник – узагальнена характеристика певної властивості сукупності, групи.

Наведемо приклади статистичних показників в економіці: обсяг реалізованої продукції; собівартість продукції; прибуток підприємства; суспільний продукт і т.д.

Описати стохастичні залежності між економічними показниками можна за допомогою кореляційно - регресійного аналізу.

Задачею регресійного аналізу є встановлення виду залежностей між змінними та вивчення залежності між ними. Основною задачею кореляційного аналізу є виявлення зв’язку між змінними та оцінка її тісноти та значимості.

Але на застосування кореляційно – регресійного аналізу накладаються такі вимоги:

1. необхідність достатньо великої сукупності спостережень;

2. забезпечення однорідної сукупності спостережень;

3. наявність нормального закону розподілення в сукупності значень показників.

Модель, що описує кореляційно-регресійний зв'язок між економічними показниками називається загальною, яка дійсна для всієї генеральної сукупності спостережень.

У лінійній економетричній моделі має місце лінійний зв'язок між змінними, що характеризують певний економічний процес чи явище. Зауважимо, що лінійні регресійні моделі є найбільш простою, і в переважній більшості випадків - достатньою для практики. Ті з моделей, що використовують метод найменших квадратів (МНК) при оцінці параметрів, називаються класичними і вивчаються у класичній економетрії.

Розглянемо економетричну модель представлену загальною лінійною регресією вигляд якої наступний: , (1)

Де - матриця значень залежної змінної (пояснювальної змінної);

- матриця значень незалежних змінних (пояснюючих змінних);

- матриця параметрів моделі розмірністю (- кількість незалежних змінних, - число спостережень);

- матриця випадкової складової.

Незалежні змінні Х (пояснюючі змінні) найчастіше бувають детерміністичними і вони є наперед заданими змінними, або вхідними показниками для економетричної моделі.

Випадкові складові називаються стохастичними складовими, помилками, залишками. Вони є наслідками помилок спостережень, містять у собі вплив усіх випадкових факторів, а також факторів, які не входять у модель.

Залежні змінні (пояснювальні змінні) є результативними показниками, які залежать від факторів та випадкової складової . Отже, вони також є стохастичними, тобто випадковими. Тому, економетрична модель є стохастичною.

Розглянемо найпростіший вид лінійної регресії: парна лінійна регресійна модель (лінійна однофакторна регресія).

Парною лінійною регресією на називається одностороння стохастична лінійна залежність між випадковими величинами показника і одного фактора , які знаходяться в причинно – наслідкових відношеннях, причому зміна фактора виключає зміну показника.

Загальний вигляд лінійної однофакторної регресії наступний:

, (2)

Де - залежна змінна (пояснювальна змінна);

- незалежна змінна (пояснююча змінна);

- параметри моделі;

- випадкова складова.

Регресія характеризує тенденцію зміни статистичного показника зумовлену впливом зміни фактора . Позначимо оцінки параметрів регресії через . В результаті отримаємо рівняння парної лінійної регресії: . Вона вважається побудованою, якщо визначені .

2.Оцінка параметрів парної лінійної регресії методом найменших квадратів (МНК). Властивості МНК- оцінок.

Для оцінки параметрів регресії використаємо метод найменших квадратів (1 МНК).

Зауваження: Основоположниками методу є математики К. Гаус і П. Лаплас.

Суть методу МНК: Оцінки параметрів моделі мають бути такими, щоб мінімізувати суму квадратів залишків кожного спостереження показника, тобто .

Параметри регресії можна визначити із нормальної системи рівнянь:

(3)

Розв’язавши лінійну систему отримаємо параметри .

Для знаходження оцінок параметрів лінійної однофакторної регресії можна використати функцію «ЛИНЕЙН» в Excel.

Властивості методу МНК.

1. МНК-оцінки є лінійними комбінаціями спостережень .

2. Відхилення МНК-оцінок від істинних значень відповідних параметрів є лінійними комбінаціями помилок

3. В регресійній моделі МНК- оцінки є не зсуненими оцінками відповідних параметрів .

4. (теорема Гауса - Маркова). Із усіх можливих лінійних не зсунених оцінок параметрів регресійної моделі тільки МНК – оцінки є найкращими лінійними не зсуненими оцінками.

5. МНК – оцінки регресійної моделі є обґрунтованими.