Хохлов Ю.С. - ПМСА для эконома (1185346), страница 9
Текст из файла (страница 9)
Здесь она обсуждается с другой точки зрения, что не меняет, конечно,ее математической сути.Чтобы упростить изложение, мы рассмотрим случай,когда мы имеем только два фактора. И так, мы рассматриваем модель измеренийYj = α + β1 Xj1 + β2 Xj2 + εj .(4.14)Нам необходимо проверить гипотезуH0 : β2 = 0 ,против альтернативыH1 : β2 6= 0 .Вначале мы оцениваем уравнение регрессии в полной (длинной) модели без учета проверяемой гипотезы. При этом мыполучим регрессию ŶU R и соответствующую остаточнуюсумму квадратов ESSU R . Затем мы оцениваем уравнение72регрессии в короткой модели, в которой отсутствует фактор X2 .
Это дает нам новую регрессию ŶR и соответствующую ей остаточную сумму квадратов ESSR . Ясно, чтоESSU R < ESSU R . Но при верной гипотезе H0 эти величины должны быть близки. Более того, уменьшение остаточной суммы квадратов за счет учета фактора X2 должнобыть мало по сравнению с общей ошибкой измерений внашей модели, которая измеряется с помощью величиныESSU R .Эти интуитивные рассуждения можно аккуратно обосновать с помощью следующей теоремы.Теорема 4 .
Пусть верна гипотеза H0 . Тогда:1) случайные величины ESSR − ESSU R и ESSU R независимы,2) случайная величинаF = (N − 3)ESSR − ESSU RESSU Rимеет распределение Фишера с (1, N − 3) степенями свободы.Фактически эта теорема уже была доказана выше.Теперь мы можем описать критерий для проверки гипотезы H0 .
По таблицам распределения Фишера для заданного уровня значимости α находим критическую константу F (α), для которой при верной гипотезе H0 имеетместо соотношениеP (F > F (α)) = α .Если реально наблюдаемое значение величины F окажется больше F (α), то мы отвергаем гипотезу H0 и принимаемгипотезу H1 на заданном уровне значимости. В противном73случае мы говорим, что H0 не противоречит экспериментальным данным.Если какой-то фактор оказался незначимым, то его следует удалить и пересчитать модель заново, так как оценкидля параметров в новом модели будут, вообще говоря, другими.
Эту тему мы обсудим позднее подробнее.Объясним полученный результат несколько подробнее.Можно показать, что имеет место следующее тождество:T SS = RSSR + (ESSR − ESSU R ) + ESSU R .Первое слагаемое описывает вклад первого фактора X1(в присутствии X2 ). Второе слагаемое описывает чистыйвклад второго фактора X2 , когда устранено влияние X1 .Третье слагаемое описывает влияние других (неучтенных)факторов. Если второй фактор не влияет, то его чистыйвклад должен быть незначимым на фоне ошибок измерений. Заметим, что это разложение зависит от порядка учета факторов.4.7ПримерВ этом разделе мы рассмотриваем некоторый модельныйпример, который иллюстрирует применение описанных выше процедур. Пусть изучается индекс импорта товаров иуслуг Y в зависимости от индекса валового внутреннегопродукта X1 и отношения индексов цен на импортные товары и валового внутреннего продукта.
Были получены74следующие статистические данные за 9 лет.Y100106107120110116123133137X1100104106111111115120124126X21009911012611310310210398Мы рассматриваем следующую модельYj = α + β1 Xj1 + β2 Xj2 + εj .Применяя МНК, получаем следующие результаты:ySEtα=-49.34 + 1.364 x124.060.143-2.05079.52990.08620.0001+0.114 x20.1430.79430.4573Кроме того, σˆ2 = S 2 = 12.9236, σ̂ = 3.5949. Наблюдаемое значение статистики F = 45.7825, что соответствуетдостигнутому уровню значимости α = 0.0002. Это указывает на сильное совместное линейной влияние факторов.R2 = 0.938502, то есть выбранные факторы объясняют почти 94% изменения величины Y .Анализируя остатки, получаемRSSESSTSSX1X2SS1183.3577.541260.891175.198.16DF26811Mean Sq591.6712.92F-ratio45.78P-value0.00021175.198.1690.930.630.00010.465475Отсюда мы видим, что первый фактор вносит значимыйвклад, второй – незначимый.О значимости вклада факторов можно судить и по величине частного коэффициента корреляции.
В нашем случае ρY X1 .X2 = 0.96852, ρY X2 .X1 = 0.30846, то есть, чистоевлияние первого фактора велико, а второго – нет.Все указывает на то, что второй фактор незначимый иразумно устранить его из модели. Оценивая новую модель,где второй фактор устранен, получаем:ySEtα= -35.05 + 1.345 x115.550.137-2.259.8000.0590.000Причем, R2 = 0.92, F = 96, p = 0.000.4.8Спецификация моделиВсюду ранее мы предполагали, что мы имеем дело с правильной моделью, которая имеет видY =X ·θ+ε ,и набор объясняющих факторов X1 , . . . , Xm (это и естьспецификация модели!) выбран правильно.
Кроме того,предполагается, что выполнены основные ограничения 16 классической линейной модели. Про такую правильнуюили истинную модель мы будем говорить, что она порождает наблюдаемые данные. Но при построении модели вреальной задаче мы не знаем истинного набора объясняющих факторов.
Поэтому часть существенных переменныхможет быть пропущена, а часть несущественных, наоборот, включена в модель. В этом разделе мы посмотрим76как это влияет на оценки параметров. Для простоты рассуждений и обозначений мы будем рассматривать случай,когда на Y могут влиять только два фактора. Но полученные результаты справедливы и в общем случае.4.8.1Исключена существенная переменнаяПредположим, что наблюдаемые данные порождаются процессомYj = α + β1 · Xj1 + β2 · Xj2 + εj ,(4.15)а мы оцениваем (рассматриваем) модельYj = α + β1 · Xj1 + εj .(4.16)Модель (15) будем называть длинной (L), а модель (16) –короткой (S).~0, X~ 1 ), XL = (X~0, X~1, X~ 2) –Обозначим Xj0 ≡ 1, XS = (Xматрицы планов эксперимента в короткой и длинной моделях, θS = (α, β1 )T – вектор параметров в оцениваемой(короткой) модели.
Тогда, применяя МНК, мы получаемоценкуθ̂S = (XST XS )−1 XST Y = ZS · Y .(4.17)В частностиβ̂1,S =SY X1.2SX1В силу (15) и (17)~ 2 · β2 + ε ,Y = XS · θS + X~ 2 · β2 + (X T XS )−1 X T · ε ,θ̂S = θS + (XST XS )−1 XST · XSSи~ 2 · β2 .M (θ̂S ) = θS + (XST XS )−1 XST · XЕсли β2 6= 0, то, вообще говоря, M (θ̂S ) =6 θ, т. е. оценкиполучились смещенными. Исключением является случай,77~ 2 = 0, т.
е. (X~0, X~ 2 ) = (X~0, X~ 2 ) = 0 – факторкогда XST · XX2 ортогонален факторам X0 и X1 . В этом случае оценкипо МНК в короткой и длинной моделях совпадают.ОбозначимŶS = XS · θ̂S = XS · (XST XS )−1 · XST · Y = PS · Y ,~ 2 · β2 + PS⊥ · ε ,eS = Y − Ŷ = (IN − PS ) · Y = PS⊥ · Y = PS⊥ · Xгде PS и PS⊥ есть проекторы в пространстве RN на под~ 0, X~ 1 , и орпространство LS , порожденное векторами X⊥тогональное к нему подпространство LS соответственно.Случайный вектор eS имеет многомерное нормальное рас⊥ ~пределение в L⊥S со средним PS · X2 · β2 и матрицей кова2риаций σ · IN −2 . Возьмем, как обычно, в качестве оценкидисперсии ошибок σ 2 величинуσ̂S2|eS |2.=N −2В силу сказанного (смотри также доказательство предложения 4)M (σˆ2 S ) = σ 2 +N11 X⊥ ~222~ 2 )2j .·|PS ·X2 ·β2 | = σ +β2 ·(PS⊥ ·XN −2N − 2 j=1Если β2 6= 0, то σˆ2 S является смещенной оценкой для σ 2 и,в среднем, она завышена.
Это приводит к тому, что в некоторых статистических процедурах мы можем приходить кложным выводам. Например, значимые факторы признаются незначимыми, т.е. занижается эффект их влияния.Сравним дисперсии оценок для β1 в истинной модели(15) и оцениваемой модели (16). Оценка θ̂S = ZS · Y дляпараметра θS в модели (16) имеет ковариационную матрицу σ 2 · ZS · ZST = σ 2 · (XST · XS )−1 . Так как, по существу,78мы имеем дело с простой линейной регрессией, то (смотрипредложение 2 из главы 3)σ2σ2.D(β̂1 ) = P=2N · SX(Xj1 − X̄1 )21(4.18)jВ длинной модели оценка θ̂L вектора параметров имеетθ̂L = (XLT XL )−1 · XLT · Y ,причем она имеет среднее θL = (α, β1 , β2 )T и матрицу ковариаций σ 2 · (XLT · XL )−1 . Прямым вычислением, используяопределители, отсюда можно получитьσ21D(β̂1 ) = P·,2(Xj1 − X̄1 )2 (1 − rX)1 ,X2(4.19)jгде rX1 ,X2 – выборочный коэффициент корреляции для факторов X1 и X2 .
Сравнение (18) и (19) показывает, что дисперсия оценки для параметра β1 в короткой модели меньше, чем в длинной. Но это не должно вводить в заблуждение, т.к. оценка β̂1,S является смещенной и ее точностьследует оценивать с помощью величины~ 2 )2 · β2 ]2 .M [(β̂1,S − β1 )2 ] = D(β̂1,S ) + [(ZS · X(4.20)Сравнивать величины (19) и (20) непросто и, кроме того,вторая величина зависит от β2 .Таким образом, в короткой модели оценка β1 смещена,но обладает меньшей дисперсией.
Оценка для дисперсииσ 2 всегда смещена в сторону завышения.4.8.2Включена несущественная переменнаяРассмотрим теперь противоположный случай. Истиннаямодель, порождающая данные, естьY = α + β1 · Xj1 + εj ,79(4.21)а мы оцениваем модельY = α + β1 · Xj1 + β2 · Xj2 + εj .(4.22)На самом деле, модель (22) также является истинной, т.к.β2 = 0. Но для ее оценки мы используем другие процедуры. Если построить оценки β̂1,L , β̂2,L и σ̂L2 для модели(22), то M (β̂1,L ) = β1 , M (σ̂L2 ) = σ 2 , т. е. оценки несмещенные.















