18.3.3. Линейная регрессия
Пусть (X, Y) — двумерная случайная величина, где Х и Y — зависимые случайные величины. Оказывается возможным приближенное представление величины Y в виде линейной функции величины X:
Где А и B — параметры, подлежащие определению. Обычно эти величины определяются с помощью метода наименьших квадратов (см. п. 8.5).
Определение 5. Функция (18.27) называется Наилучшим приближением в смысле метода наименьших квадратов, если математическое ожидание M[Y — g(Х)]2 принимает наименьшее возможное значение. Функцию G(х) называют Среднеквадратической регрессией Y на X.
ТЕОРЕМА 4. Линейная средняя квадратическая регрессия Y на Х имеет вид
Где rxy определяется формулой (18.25), ту = M(Y) и mx = М(Х) — математические ожидания соответственно случайных величин Y и X.
Коэффициент B = RxУσУ / σx называют Коэффициентом регрессии Y на Х, а прямую
Реализующую линейную зависимость (18.28) случайной величины Y от случайной величины X, называют Прямой среднеквадратической регрессии Х на Y. Поскольку зависимость (18.28) является приближенной, то существует погрешность этого приближения, называемая Остаточной дисперсией:
Аналогичную форму записи имеет прямая среднеквадратическая регрессия Х на Y:
Пример 3. Найти линейную среднюю квадратическую регрессию и остаточную дисперсию случайной величины Y на случайную величину Х по данным примеров 1 и 2.
Решение. Для двумерной случайной величины (X, Y), Приведенной в примере 1, все необходимые числовые характеристики указаны в решении примера 2: Mx = 2,03, Ту = 1,63, Rху = -0,023, σx = = 0,793, σy =
= 0,483. Из уравнения (18.28) получаем искомое соотношение:
Остаточная дисперсия рассчитывается по формуле (18.29):
Для оценки среднеквадратичной погрешности линейной регрессии обычно используют величину ε, в нашем случае она составляет
< Предыдущая | Следующая > |
---|