Линейная регрессия
Пусть (X, Y) — двумерная случайная величина, где Х и Y — зависимые случайные величины. Оказывается возможным приближенное представление величины Y в виде линейной функции величины X:
где а и b — параметры, подлежащие определению. Обычно эти величины определяются с помощью метода наименьших квадратов (см. п. 8.5).
Определение 5. Функция (18.27) называется наилучшим приближением в смысле метода наименьших квадратов, если математическое ожидание M[Y — g(Х)]2 принимает наименьшее возможное значение. Функцию g(х) называют среднеквадратической регрессией Y на X.
ТЕОРЕМА 4. Линейная средняя квадратическая регрессия Y на Х имеет вид
где rxy определяется формулой (18.25), ту = M(Y) и mx = М(Х) — математические ожидания соответственно случайных величин Y и X.
Коэффициент b = rxуσу / σx называют коэффициентом регрессии Y на Х, а прямую
реализующую линейную зависимость (18.28) случайной величины Y от случайной величины X, называют прямой среднеквадратической регрессии Х на Y. Поскольку зависимость (18.28) является приближенной, то существует погрешность этого приближения, называемая остаточной дисперсией:
Аналогичную форму записи имеет прямая среднеквадратическая регрессия Х на Y:
Пример 3. Найти линейную среднюю квадратическую регрессию и остаточную дисперсию случайной величины Y на случайную величину Х по данным примеров 1 и 2.
Решение. Для двумерной случайной величины (X, Y), приведенной в примере 1, все необходимые числовые характеристики указаны в решении примера 2: mx = 2,03, ту = 1,63, rху = -0,023, σx = = 0,793, σy =
= 0,483. Из уравнения (18.28) получаем искомое соотношение:
Остаточная дисперсия рассчитывается по формуле (18.29):
Для оценки среднеквадратичной погрешности линейной регрессии обычно используют величину ε, в нашем случае она составляет