2.04. Нормальные линейные модели с . несколькими объясняющими переменными
Начиная с этого момента, мы будем предполагать, что
(1) Модель наблюдений имеет вид
Где - значение объясняемой переменной в -м наблюдении;
- известное значение-ой объясняющей переменной в -м наблюдении;
- неизвестный коэффициент при-ой объясняющей переменной;
- случайная составляющая (“ошибка“) в -м наблюдении.
(2) - Случайные величины, Независимые в совокупности, имеющие Одинаковое нормальное распределение N (0,S2) с нулевым математическим ожиданием и дисперсией
(3) Если не оговорено противное, то в число объясняющих переменных Включается переменная, тождественно равная единице, которая объявляется первой Объясняющей переменной, так что
При сделанных предположениях являются Наблюдаемыми значениями Нормально распределенных случайных величин , Которые Независимы в совокупности и для которых
Так что
~
В отличие от , Случайные величины имеют распределения, Отличающиеся сдвигами.
Определенную указанным образом модель наблюдений мы будем называть Нормальной линейной моделью С P Объясняющими переменными. Иначе ее еще называют Нормальной линейной моделью множественной регрессии переменной y на переменные x1, ... , Xp . Термин “множественная” указывает на использование в правой части модели наблюдений Двух и более объясняющих переменных, отличных от постоянной. Термин “регрессия” имеет определенные исторические корни и используется лишь в силу традиции.
Оценивание Неизвестных коэффициентов модели методом наименьших квадратов Состоит в минимизации по всем возможным значениям суммы квадратов
Минимум этой суммы достигается при некотором наборе значений коэффициентов
Так что
Это минимальное значение мы опять обозначаем RSS , так что
И называем Остаточной суммой квадратов.
Коэффициент детерминации R2 Определяется как
Где
Обозначая
(Подобранные - fitted- значения объясняющей переменной по оцененной линейной модели связи), и определяя остаток (Residual) От i-го наблюдения как
Мы получаем:
Обозначая
- Объясненная моделью (Explained) сумма квадратов, Или Регрессионная сумма квадратов, мы так же, как и в случае Простой линейной регрессии с , имеем разложение
Так что
И опять, это разложение справедливо только При наличии постоянной составляющей в модели линейной связи. При этом, также, здесь
Т. е. коэффициент детерминации равен квадрату выборочного коэффициента корреляции между переменными и . Последний называется Множественным коэффициентом корреляции (Multiple-R).
Для поиска значений , Минимизирующих сумму
Следует приравнять нулю частные производные этой суммы (как функции от ) По каждому из аргументов . В результате получаем Систему нормальных уравнений
Или
Это система линейных уравнений с неизвестными . Ее можно решать или методом подстановки или по правилу Крамера с использованием соответствующих определителей. В векторно-матричной форме эта система имеет вид
Где
- матрица значений объясняющих переменных в наблюдениях;
- транспонированная матрица;
и
Соответственно, вектор-столбец значений объясняемой переменной в наблюдениях и вектор-столбец оценок неизвестных коэффициентов. Система нормальных уравнений Имеет единственное решение, если выполнено условие
(4) Матрица XTX невырождена, Т. е. ее Определитель отличен от нуля:
Которое можно заменить условием
(4’) Столбцы матрицы X линейно независимы.
При выполнении этого условия матрица (размера ) имеет обратную к ней матрицу . Умножая в таком случае обе части последнего уравнения слева на матрицу , находим искомое решение системы нормальных уравнений:
Введем дополнительные обозначения
, , , .
Тогда модель наблюдений
Можно представить в матрично-векторной форме
Вектор подобранных значений имеет вид
И вектор остатков равен
Определяющим для всего последующего является то обстоятельство, что в нормальной линейной модели с несколькими объясняющими переменными Оценки Коэффициентов как случайные величины имеют Нормальные распределения (хотя эти случайные величины уже не являются независимыми в совокупности).
Действительно, поскольку , то оценки являются Линейными комбинациями значений , Т. е. имеют вид
Где - коэффициенты, определяемые значениями объясняющих переменных. Поскольку же у нас - Наблюдаемые значения случайных величин , то является Наблюдаемым значением случайной величины которую мы также будем обозначать :
Ранее мы выяснили, что при наших предположениях
~
Поэтому случайные величины также будут нормальными как линейные комбинации независимых нормально распределенных случайных величин.
Можно показать, что математическое ожидание случайной величины равно
( является Несмещенной оценкой Истинного значения коэффициента ), а дисперсия этой случайной величины равна -му диагональному элементу матрицы :
Рассмотренная ранее модель простой линейной регрессии
Вкладывается в модель множественной линейной регрессии с :
, , , .
Матрица имеет вид
Учитывая, что
Находим:
< Предыдущая | Следующая > |
---|