Шанченко Н.И. - Лекции по эконометрике (1094691), страница 11
Текст из файла (страница 11)
p t x .(3.15)12pВеличины βi называются стандартизованными коэффициентами. Их связькоэффициентами множественной регрессии bi задается соотношениямиxyили i bi i (i = 1, 2, …, p).(3.16)bi i xiyПараметр а уравнения (3.6) можно определить из соотношенияa y b1 x1 b2 x 2 ... b p x p .(3.17)Стандартизованные коэффициенты регрессии βi показывают, на сколькосигм (средних квадратических отклонений) изменится в среднем результативный признак y за счет изменения соответствующего фактора на одну сигму принеизмененном значении других факторов, закрепленных на среднем уровне.Система нормальных уравнений МНК (3.10) в стандартизованных переменных принимает вид:ryx1 1 2 rx2 x1 3 rx3 x1 ... p rx p x1 ;ryx2 1rx1x2 2 3 rx3 x2 ... p rx p x2 ;............................................................(3.18)ryx p 1rx1x p 2 rx2 x p 3 rx3 x p ...
p .Стандартизованные коэффициенты регрессии βi сравнимы между собой,что позволяет ранжировать факторы по силе их воздействия на результат.Большее относительное влияние на изменение результативной переменной yоказывает тот фактор, которому соответствует большее по модулю значениекоэффициента βi.Отметим, что в случае парной линейной регрессии стандартизованный коэффициент регрессии β совпадает с линейным коэффициентом корреляции ryx.Для оценки параметров нелинейных уравнений множественной регрессиипредварительно осуществляется преобразование последних в линейную форму(с помощью замены переменных) и МНК применяется для нахождения параметров линейного уравнения множественной регрессии в преобразованных переменных.46В случае внутренне нелинейных зависимостей (которые невозможно привести к линейному виду) для оценки параметров по методу наименьших квадратов приходится применять методы нелинейной оптимизации (п.
2.4).3.5. Качество оценок МНК линейной множественной регрессии.Теорема Гаусса-МарковаВ классическом множественном регрессионном анализе обычно делаютсяследующие предпосылки:1. Математическое ожидание случайного члена εi равно нулю в любом наблюденииМ(εi) = 0.(3.19)2. Дисперсия случайного члена εi постоянна для всех наблюденийD( i ) 2 .(3.20)3.
Значения случайного члена в любых наблюдениях εi и εj не коррелируют между собойCov(εi, εj) = 0 (i ≠ j).(3.21)Это условие с учетом того, что М(εi) = М(εj) = 0 принимает видM(εi, εj) = 0 (i ≠ j).(3.22)4. Случайный член должен быть распределен независимо от объясняющихпеременных xi в одних и тех же наблюденияхCov(xit, εi) = M (xi, εi) = 0,(3.23)где было учтено, что М(εi) = 0.Следует сказать, что последнее условие заведомо выполняется, еслиобъясняющие переменные xit считаются детерминированными величинами.5. Матрица X X является неособенной, т. е.
столбцы матрицы X линейнонезависимы.6. Значения случайного члена εi распределены по нормальному закону.Модель (3.6), удовлетворяющая приведенным предпосылкам 16, называется классической нормальной линейной моделью множественной регрессии.Модель (3.6), удовлетворяющая приведенным предпосылкам 15, называется классической линейной моделью множественной регрессии.Согласно теореме Гаусса-Маркова, при выполнении указанных предпосылок оценки параметров линейной множественной регрессии (3.13), полученныеметодом наименьших квадратов, будут несмещенными и эффективными (т. е.будут иметь наименьшую дисперсию) в классе линейных несмещенных оценок.Нарушение одного из условий Гаусса-Маркова приводит к нарушениюэффективности оценок, т. е.
в классе несмещенных оценок можно найти такие,которые имеют меньшую дисперсию.После построения модели необходимо вычислить значения остатков еi ипроверить выполнение предпосылок 16, так как их нарушение снижает качество модели. Если условия нарушаются, то следует модернизировать модельсоответствующим образом. Эти вопросы будут рассмотрены далее.473.6. Проверка качества уравнения регрессии. F-критерий ФишераКак и в случае парной регрессии для оценки качества полученного множественной уравнения регрессии (3.6) можно использовать коэффициент детерминации, представляющий собой отношение объясненной части D(ŷ) дисперсии переменной у ко всей дисперсии D(y)nR2 D( yˆ )или R 2 D( y ) ( yˆ i y ) 2i 1n ( yi y ),(3.24)2i 1где1 yi y 2 , D( yˆ ) 1 yˆ i y 2 , D(e) Dост 1 yˆ i yi 2 .nnn2Коэффициент детерминации R принимает значения в диапазоне от нулядо единицы 0 ≤ R2 ≤ 1 и показывает, какая часть дисперсии результативногопризнака y объяснена уравнением регрессии.
Чем выше значение R2, тем лучшеданная модель согласуется с данными наблюдений.Оценка статистической значимости уравнения регрессии (а также коэффициента детерминации R2) осуществляется с помощью F-критерия ФишераD( y ) n ( yˆ i y ) 2i 1Fpn ( yˆ i yi )2R2 n p 1,p1 R2(3.25)i 1n p 1где p число независимых переменных в уравнении регрессии (3.6).Согласно F-критерию Фишера, выдвигаемая «нулевая» гипотеза H0 о статистической незначимости уравнения регрессии отвергается при выполненииусловия F > Fкрит, где Fкрит определяется по таблицам F-критерия Фишера (П3,П4) по двум степеням свободы k1 = p, k2 = n p 1 и заданному уровню значимости α.Для оценки тесноты связи факторов с исследуемым признаком, задаваемойпостроенным уравнением регрессии yˆ f ( x1 , x 2 ,..., x p ) , используется коэффициент множественной корреляции RnR R2 1Dост 1D( y) ( yˆi 1ni(yi 1i yi ) 2 y).(3.26)2Коэффициент множественной корреляции R принимает значения вдиапазоне 0 ≤ R ≤ 1.Чем ближе величина R к единице, тем теснее данная связь, тем лучше зависимость yˆ f ( x1 , x 2 ,..., x p ) согласуется с данными наблюдений.
При R = 148(R = 1) связь становится функциональной, т. е. соотношение yˆ f ( x1 , x 2 ,..., x p )точно выполняется для всех наблюдений.Коэффициент множественной корреляции может использоваться как характеристика качества построенного уравнения регрессии yˆ f ( x1 , x 2 ,..., x p ) ,точности построенной модели.Величина коэффициента множественной корреляции не может быть меньше максимального парного индекса корреляции R max ryxi , (i 1, 2, ..., p ) .В случае линейной зависимости (3.6) коэффициент корреляции R связан спарными коэффициентами корреляции r yx соотношением2iR i ryx ,i(3.27)iгде i – стандартизованные коэффициенты регрессии (3.16).Использование коэффициента множественной детерминации R2 для оценки качества модели, обладает тем недостатком, что включение в модель новогофактора (даже несущественного) автоматически увеличивает величину R2.Поэтому при большом количестве факторов предпочтительнее использовать, так называемый, скорректированный, улучшенный (adjusted) коэффициент множественной детерминации R 2 , определяемый соотношениемnR 2 1 ( yˆ i yi ) 2 : (n p 1)i 1n ( yi y ) 2 : (n 1) 1n 1(1 R 2 ) ,n p 1(3.28)i 1где p – число факторов в уравнении регрессии, n – число наблюдений.Чем больше величина p, тем сильнее различия R 2 и R 2 .При использовании R 2 для оценки целесообразности включения фактора вуравнение регрессии следует однако учитывать, что увеличение R 2 при включении нового фактора не обязательно свидетельствует о его значимости, так какзначение увеличивается R 2 всегда, когда t-статистика больше единицы (t>1).При заданном объеме наблюдений и при прочих равных условиях с увеличением числа независимых переменных (параметров) скорректированный коэффициент множественной детерминации убывает.
При небольшом числе наблюдений скорректированная величина коэффициента множественной детерминацииR2 имеет тенденцию переоценивать долю вариации результативного признака,связанную с влиянием факторов, включенных в регрессионную модель.Отметим, что низкое значение коэффициента множественной корреляциии коэффициента множественной детерминации R2 может быть обусловленоследующими причинами:– в регрессионную модель не включены существенные факторы;– неверно выбрана форма аналитической зависимости, не отражающая реальные соотношения между переменными, включенными в модель.493.7.
Точность коэффициентов регрессии. Доверительные интервалыОценки коэффициентов регрессии зависят от используемой выборки значений переменных x и y и являются случайными величинами. Для характеристики точности полученных оценок можно использовать стандартные ошибкикоэффициентов регрессии.Под стандартной ошибкой коэффициента регрессии понимается оценка стандартного отклонения функции плотности вероятности данного коэффициента.Стандартные ошибки коэффициентов регрессии sbi определяются соотношениямиsb sост ( X X ) 1 ii ,(3.29)2где s ост представляет собой несмещенную оценку остаточной дисперсииin2sост( X X ) 1ii ( yˆi 1i yi ) 2n p 1; диагональный элемент матрицы ( X X ) 1 .Величину ( X X ) 1iiможно вычислить как( X X ) Aii,iidet( X X )где Aii алгебраическое дополнение к элементу ii матрицы ( X X ) .Сопоставляя оценки параметров и их стандартные ошибки, можно сделатьвывод о надежности (точности) полученных оценок.Для оценки статистической значимости коэффициентов регрессии применяется t-критерий Стьюдента, основанный на том факте, что отношения1t bi ~bi bis bi(i 1, 2, ..., p )(3.30)являются t-статистиками, т.