Хохлов Ю.С. - ПМСА для эконома (1185346), страница 13
Текст из файла (страница 13)
Для этого есть несколько причин:1) влияние на ошибки факторов, не включенных в модель (неправильная спецификация модели),2) реальная корреляция ошибок.В общем случае задача оценивания уравнения регрессии в присутствии корреляции ошибок является достаточно сложной. Поэтому мы рассматриваем следующий частный случай. Пусть, как и ранее, мы рассматриваем линейную модельY = Xθ + ε ,но теперь ошибки измерений удовлетворяют соотношениюεj = ρ · εj−1 + δj , |ρ| < 1 ,(7.14)где с. в. δj являются независимыми и одинаково распределенными, M (δj ) = 0, D(δj ) = σ 2 . Модель такого типа называется авторегрессией первого порядка. Предположим, чтос.в.
ε0 независима от последовательности {δj }, M (ε0 ) = 0 иD(ε0 ) = σ 2 /(1−ρ2 ). Используя соотношение (14), нетруднопоказать,чтоσ2, Cov(εj , εj+m ) = ρm · σε2 .1 − ρ2(7.15)Последовательность случайных величин {εj }, удовлетворяющая соотношения (15), называется стационарной в широком смысле. Таким образом, для ошибок измерений мыM (εj ) = 0 , D(εj ) = σε2 =107получам следующую матрицу ковариаций:1ρ·Σε = M (εεT ) = σε2 · ρ2ρ·ρ1·ρN −1 ρN −2 ρN −3= σε2 · Ω(ρ) .. . . ρN −1.
. . ρN −2...·...1(7.16)Если в этой ситуации применить обычный МНК, тооценки для параметров θ будут несмещенными и состоятельными, но уже не будут оптимальными. Но самое главная оценка для дисперсии σε2 окажется смещенной вниз и,как следствие, несостоятельной. Это приведет к ошибкампри построении доверительных интервалов и проверке гипотез о параметрах.Если величина параметра ρ известна, то можно применить обобщенный МНК или обычный МНК к новой моделиYj∗ = Yj − ρYj−1 = θ0 (1 − ρ) + θ1 (Xj1 − ρXj−1,1 ) + .
. .+θm (Xjm − ρXj−1,m ) + δj ,(7.17)где j = 2, . . . , N . В качестве начального значения берутY1∗ =qq1 − ρ 2 Y1 =q1 − ρ2 θ0 +q+ 1−1 − ρ2 θ1 Xj1 + . . .ρ2 θm Xjmq+1 − ρ2 ε1 (7.18).Для этой модели выполнены все основные предположения классической линейной модели и применим обычныйМНК. Преобразование (17) называется авторегрессионнымпреобразованием исходной модели. Уравнение (18) гарантирует стационарность ошибок.Но в реальных задачах, как правило, величина ρ неизвестна.
Тогда для оценки параметров нужно применятьболее сложные методы.1087.2.2Оценивание в модели с авторегрессиейСуществует несколько методов оценивания исходной модели (1) в присутствии автокорреляции при незвестном ρ.Мы приведем краткое описание трех из них, которые наиболее часто используются в эконометрической практике.Процедура Кохрейна-Оркатта (Cochrane-Orcutt)1) Применяем обычный МНК к исходной модели (1) инаходим вектор остатков e.2) Рассматриваем модель регрессииej = ρej−1 + uj , j ≥ 2 ,и находим оценку r параметра ρ по обычному МНК.3) Подставляем эту оценку в авторегрессионное преобразование (17-18) и оцениваем остальные параметры в модели (17-18) по обычному МНК.4) Находим новый вектор остатков e = Y − X θ̂, где θ̂ –оценка параметров θ, полученная на предыдущем шаге.5) Далее повторяем шаги 2)-4) пока не будет достигнутанужная точность при оценке ρ.
Можно также фиксироватьчисло итераций.Процедура Хилдрета-Лу (Hildreth-Lu)1) Отрезок (−1, 1) разбивается на мелкую сетку возможных значений ρ.2) Для каждого значения ρ производится авторегрессионное преобразование (17-18).3) Проводится оценка параметров пребразованной системы (при фиксированном ρ).4) Выбирается то значение ρ, при котором остаточнаясумма квадратов будет минимальной.5) В окрестности найденного ρ берется более мелькаясетка и процедура повторяется.109Процедура заканчивается, когда будет достигнута нужная точность или проведено заданное число итераций.Процедура Дарбина (Durbin)1) Пребразованное уравнение (17) записывается в видеYj = θ0 (1 − ρ) + ρYj−1 + θ1 Xj1 − ρθ1 Xj−1,1 ) + . .
.+θm Xjm − ρθm Xj−1,m ) + δj ,(7.19)т. е. Yj−1 включают в число объясняющих факторов.2) Последнее уравнение оценивают по обычному МНКи находят оценки r и γ̂ для параметров ρ и γ = ρθk . Вкачестве оценки для параметра θk берут θˆk = γ̂/r.Можно улучшить оценки θˆk , если подставить найденное значение r в уравнения (17-18) и вновь оценить их пообычному МНК.Замечание. В принципе мы могли бы применить обычный МНК к модели (17-18), рассматривая в качестве искомых параметры ρ, θ0 , . . .
, θm . Но параметры входят в модель нелинейно и мы имеем более сложную задачу нелинейной программирования. Существуют различные методы решения задач такого типа. Описанные выше процедуры есть три примера таких методов.Т. к. полученные оценки являются, по-существу, нелинейными, то исследование их свойств более сложная задача и здесь обсуждаться не будет.7.2.3Критерий Дарбина-УотсонаХотелось бы иметь критерий, с помощью которого можно проверить наличие или отсутствие автокорреляции вошибках измерений. Все критерии такого типа основанына предположении, что если корреляции присутствует в110ошибках, то она должна проявляться и в остатках, полученным после оценки модели.Рассмотрим, как и ранее, следующую модель:Y = Xθ + ε ,причемεj = ρεj−1 + δj ,где δj – н.
о. р. с. в., M (δj ) = 0, D(δj ) = σ 2 , ε0 не зависитот {δj }, M (ε0 ) = 0, D(ε0 ) = σ 2 /(1 − ρ2 ).Мы хотим проверить гипотезуH0 : ρ = 0(– нет корреляции) против альтернативыH1 : ρ > 0(– есть положительная корреляция). Дарбин и Уотсон (Durbin,Watson 1951) предложили использовать следующую статистику для проверки этих гипотез:NPDW =(ej − ej−1 )2j=2NPe2j=1,(7.20)jгде ej = Yj − Ŷj , Ŷ = X θ̂. Посмотрим, как ведет себя этастатистика при больших N :NNNPPPe2j +e2j−1 − 2ej ej−1DW =j=2j=2j=2=NPe2= 2 1 −j=1NPj=1e2jNNPPe2j − e21 − e2N − 2ej ej−1j=1jj=2NPe2j=1ej ej−1 j=2NP2e1 + eN− N≈ 2(1 − r) .P 2j=1111ejjТ. о., если верна H0 , то DW ≈ 2, а при гипотезе H1 DWдолжна быть меньше 2.Для проверки H0 против альтернативы H1 необходимонайти критическую константу d∗ = d∗ (α):P (DW < d∗ |H0 ) = α .Но, к сожалению, распределение статистики DW , а значити величина d∗ , зависит не только от N и α, но и значенийфакторов Xk , которые в каждой конкретной задаче свои.Дарбин и Уотсон показали, что существуют две границыdl и du такие, что1) если DW < dl , то DW < d∗ и можно принять H1 ,2) если DW > du , то DW > d∗ и можно принять H) .Но есть зона неопределенности(dl , du ), где мы не знаемкакое принять решение.Эти границы зависят только от N , m и α и могут бытьзатабулированы.
Например, для N = 100, m = 1 и α = 0.05мы имеем dl = 1.65, du = 1.69.112Глава 8Задача прогноза влинейных системах8.1Постановка задачиОдной из целей построения эконометрической модели является использование ее, в дальнейшем, для оценки изучаемого экономического показателя Y при некотором сочетании факторов X1 , . . .
, Xm , т.е. решение задачи прогноза.Уточним стоящую перед нами задачу. Пусть мы имеемN измеренийYj = θ0 + θ1 Xj1 + . . . + θm Xjm + εj , j = 1, N ,(8.1)интересующего нас показателя Y при определенных сочетаниях факторов, причем выполнены основные ограничения 1-6 классической линейной модели. Мы прогнозируем,что в некоторой новой ситуации ("в будущем") факторыпримут значения XN +1,1 , . . .
, XN +1,m . Необходимо построить оценку для нового значения YN +1 . Существуют дверазновидности этой задачи:1) оценить среднее значение M (YN +1 ),1132) оценить саму величину YN +1 .Кроме того, нужно не только построить оценку, т.е. сделать прогноз, но и оценить точность этого прогноза, т.е.построить доверительный интервал.8.2Оценка среднего значенияВ этом случае оценке подлежит числовой параметрaN +1 = M (YN +1 ) = θ0 + θ1 XN +1,1 + . . .
+ θm XN +1,m . (8.2)Решение почти очевидно. Используя обычный метод МНК,находим оценку θ̂ вектора параметров θ. Обозначим черезXj вектор строку (1, Xj1 , . . . , Xjm ). В качестве оценки величины aN +1 предлагается взятьâN +1 = XN +1 · θ̂ .(8.3)Отметим, что так как θ̂ есть линейная по Y оценка, тоâN +1 также является линейной и несмещенной оценкой дляaN +1 . Аналогично тому, как это было сделано ранее приоценке параметра θ, можно доказать следующий результат.Теорема 1 .
В классе всех линейных по Y и несмещенныхоценок оценка âN +1 , построенная по формуле (3), является оптимальной в среднем квадратическом, т.е. обладает наименьшей дисперсией.Оценим точность построенного прогноза. Ранее былодоказано, что случайный вектор θ̂ имеет многомерное нормальное распределение со средним θ и матрицей ковариаций σ 2 · (X T X)−1 .
Оценка âN +1 = XN +1 · θ̂ есть линейное преобразование случайного вектора θ̂. Поэтому, этаслучайная величина имеет нормальное распределение со114средним XN +1 θ и дисперсией σ 2 · XN +1 · (X T X)−1 XNT +1 . Вкачестве оценки дисперсии σ 2 вновь используем величинуS2 =NX1[Yj − Ŷj ]2 ,N − (m + 1) j=1(8.4)где Ŷj = Xj · θ̂. Случайные величины â и S 2 независимы и(N − (m + 1))S 2 /σ 2 имеет χ2 -распределение с (N − (m +1)) степенями свободы. Отсюда получаем, что случайнаявеличинаâN +1 − aN +1ST = q:σ XN +1 (X T X)−1 XNT +1 σ(8.5)имеет распределение Стьюдента с (N − (m + 1)) степенями свободы.














