С.С. Валландер - Лекции по статистике и эконометрике (1160549), страница 37
Текст из файла (страница 37)
Мы увидим, что эти уравнения можно рассматривать поотдельности. Вторая ситуация называется "уравнения, кажущиесянесвязанными"(seeminglyunrelatedequations).Какокажется,объединение отдельных подобных уравнений в систему может увеличитьэффективность статистических процедур (впрочем, фактически этасистема в дальнейшем трактуется как одно уравнение с корреляцией ввекторе ошибок).Перейдем к обсуждению рекурсивных систем.
Основная идея оченьпроста и заключается в том, что правильное упорядочивание уравнений,т.е. правильный порядок принятия их во внимание, может позволить накаждом этапе рассматривать одно единственное уравнение и не обращатьвнимания на остальные. Поскольку возможность такого упорядочиванияопределяется визуально, а никакой специальной теории не требуется, мыограничимся простейшим примером, представляющим собой небольшуюмодификацию моделей спроса и предложения, рассмотренных впредыдущем параграфе.
Подобные примеры обсуждаются во всехучебниках.Итак, рассмотрим структурную систему из двух уравнений:Qt = β1 + β2 Pt−1 + εQt ,Pt = β3 + β4 Qt + β5 Rt + εPtи предположим (для структурных систем это предположение вполнеPестественно), что ошибки εQt и εt не коррелируют. Главное отличие (онаи создает рекурсивность) — отсутствие в первом уравнении (уравнениипредложения) слагаемого Pt , т.е. текущей цены.
Тем самым, уравнениепредложения можно рассматривать отдельно. Лаговое значение ценыPt−1 относится к предопределенным величинам и не коррелирует сошибкой εQt . На втором этапе мы можем трактовать уже Qt какпредопределенную величину — она не коррелирует с εPt ! Затем мы как бывозвращаемся к первому уравнению в следующий момент времени ("какбы", поскольку с точки зрения вычислений возвращаться не нужно —уже все коэффициенты оценены).218Глава 8Перейдем теперь к уравнениям, кажущимся несвязанными1 .
В этихуравнениях нет эндогенных величин в правых частях, т.е. формальноони не сцеплены, и каждое из них можно оценивать отдельно. Однако,если предположить, что ошибки в этих уравнениях коррелируютмежду собой, то объединение их в систему может дать выигрышв эффективности. Классические примеры — уравнения спроса навзаимосвязанные (или однотипные) товары, либо же уравнения дляинвестиций, осуществляемых компаниями в одной отрасли.Для понимания тех преимуществ, которые создает объединениеуравнений в систему, достаточно рассмотреть случай двух уравнений:Y(1) = X(1) β(1) + ε(1) ,Y(2) = X(2) β(2) + ε(2) .Здесь X(1) и X(2) — регрессионные матрицы, они могут включать какодни и те же, так и различные регрессоры, а ε(1) и ε(2) — ошибки, которыепредполагаются коррелированными:cov(ε(1)i , ε(2)i ) = σ12 ,V(ε(1)i ) = σ12 ,V(ε(2)i ) = σ22 .Остальные ковариации (при i1 6= i2 ) будем считать нулевыми:cov(ε(1)i1 , ε(2)i2 ) = 0,cov(ε(1)i1 , ε(1)i2 ) = 0,cov(ε(2)i1 , ε(2)i2 ) = 0.Количество наблюдений N одно и то же.Составим вектор Y , расположив обе серии наблюдений в однупоследовательностьY T = (Y(1)1 , · · · , Y(1)N , Y(2)1 , · · · , Y(2)N ),регрессионную матрицуµX=X(1) 00 X(2)¶,1В [9] используется неудачный термин "внешне не связанные уравнения".
Слово "внешне"врусском языке слишком многозначно, а уравнения эти связаны именно "извне", через общуюокружающую экономическую среду.Системы регрессионных уравнений219вектор коэффициентовTTβ T = (β(1), β(2))и вектор ошибокεT = (εT(1) , εT(2) ).Матрица ковариаций V вектора ε имеет, очевидно, видµ 2¶σ1 1 σ12 1,σ12 1 σ22 1где 1 — единичная матрица порядка N .Преимущество моделиY = Xβ + εперед исходной системой — в числе степеней свободы: 2N −k1 − k2 вместо N − k1 и N − k2 . Впрочем, еще три степенисвободы пропадают, поскольку при использовании обобщенного методанаименьших квадратов приходится оценивать дисперсии σ12 , σ22 иковариацию σ12 до получения окончательных оценок коэффициентоврегрессии.Таким образом, вся статистическая процедура выглядит следующимобразом.На первом шаге уравнения оцениваются раздельно обычным методомнаименьших квадратов, и находятся остатки ε̂(1) , ε̂(2) .
С помощьюостатков строятся оценкиσ̂12 =1ε̂T(1) ε̂(1) ,N − k1σ̂22 =1ε̂T(2) ε̂(2) ,N − k21ε̂T(1) ε̂(2) .N −kОбычно предполагается, что k1 = k2 = k. При неравных k1 и k2 выбор k— отдельная задача, которую мы рассматривать не будем.На втором шаге оценки σ̂12 , σ̂22 , σ̂12 используются в процедуреобобщенного метода наименьших квадратов для нахождения вектораоценок β̂. Поскольку матрица ковариаций V имеет специальнуюструктуру, вычисление обратной матрицы несколько упрощается. Дляописания этого упрощения удобно использовать понятие произведенияКронекера двух матриц (см.
[9]):σ̂12 =V = Σ ⊗ 1,220Глава 8гдеµΣ=σ12 σ12σ12 σ22¶,а 1, как и раньше, единичная матрица порядка N . Из свойствпроизведения Кронекера получаемV −1 = Σ−1 ⊗ 1,X T V −1 X =12σ12 σ22 − σ12и1X T V −1 Y = 2 22σ1 σ2 − σ12ÃÃTσ22 X(1)X(1)T−σ12 X(2) X(1)T−σ12 X(1)X(2)2 Tσ1 X(2) X(2)TTσ22 X(1)Y(1) −σ12 X(1)Y(2)TT−σ12 X(2)Y(1) σ12 X(2)Y(2)!!.Интересно отметить нетривиальный частный случай, когданаши оценки сводятся к обычным оценкам наименьших квадратов(собственно, ради этого и выписывались приведенные выше формулы).Предположим, что регрессионные матрицы X(1) и X(2) совпадают. Тогда,как легко заметить,TX(1) ,X T V −1 X = Σ−1 ⊗ X(1)T(X T V −1 X)−1 = Σ ⊗ (X(1)X(1) )−1 ,и для наших оценок получаем формулуβ̂ = (X T V −1 X)−1 X T V −1 Y =Ã!Ã!2T−1T−1T2σ1 (X(1) X(1) )σ12 (X(1) X(1) )X(1) [σ2 Y(1) − σ12 Y(2) ]1=T−12T−1T2σ12 (X(1) X(1) )σ2 (X(1) X(1) )X(1)[σ12 Y(2) − σ12 Y(1) ]σ12 σ22 − σ12Ã!T−1 T(X(1) X(1) ) X(1) Y(1)=.TT(X(1)X(1) )−1 X(1)Y(2)Конечно, есть и другой, очевидный, случай совпадения указанныхоценок: σ12 = 0.В заключение параграфа отметим, что та же идея учета корреляциймежду ошибками различных уравнений системы может бытьиспользована и в том случае, когда уравнения не кажутся несвязанными.Сначала каждое уравнение системы оценивается двухшаговым методомнаименьших квадратов, находятся остатки и, с их помощью, оценкаматрицы ковариаций между ошибками, а затем на третьем шаге сСистемы регрессионных уравнений221помощью обобщенного метода наименьших квадратов, так же каки выше, заново оцениваются коэффициенты всех уравнений сразу.Эта процедура, трехшаговый метод наименьших квадратов, даетвыигрыш в эффективности по сравнению с двухшаговым методом,но в вычислительном плане чрезвычайно трудоемка — требуетсяобращение матриц значительно более высокого порядка.
Кроме того,она, разумеется, не применима, если хотя бы одно из уравнений системысодержит неидентифицируемые коэффициенты.8.6Тестирование системыРассмотрим, наконец, вопрос об обнаружении корреляции междурегрессорами и ошибками. Напомним сначала некоторые обстоятельства,связанные с этой проблемой. Мы выделяем одно уравнение изструктурной системы и собираемся оценивать его коэффициенты.
Какойметод оценивания выбрать.Простейший подход — обычный метод наименьших квадратов. Егоприменимость определяется возможностью трактовать величины вправой части уравнения экзогенным образом (в этом случае корреляциимежду ними и ошибками не должно быть). Однако в контексте системрегрессионных уравнений некоторые из этих величин будут внутренними(по отношению ко всей системе). Такие величины, скорее всего, будуткоррелировать с ошибками (влияние остальных уравнений), а тогдавыбранный подход (OLS) несостоятелен.Другой подход — использование инструментов (т.е. 2-SLS) — пригоденв обоих случаях, но при отсутствии корреляций менее эффективен, чемобычный метод наименьших квадратов. Коротко, OLS может привестик полностью ошибочным выводам, а 2-SLS — к потере в эффективности.Тем самым, выбор метода оценивания, или, что, по существу, то жесамое, модели (отдельное уравнение или система) оказывается однимиз ключевых этапов исследования.
Задача тестирования (т.е. выбора)модели оказывается при этом задачей тестирования некоторых величинна экзогенность.Простой и наглядный тест на экзогенность (Hausman-Wu exogeneitytest, см. [25]) состоит в следующем.Прежде всего выделяется группа величин, экзогенность которыхследует тестировать (подразумевается, что экзогенность остальныхсомнения не вызывает). Для каждой из них строится целевой инструмент222Глава 8обычным образом. Затем сравниваются две регрессии — короткая, вкоторую включены все первоначальные величины рассматриваемогоуравнения, и длинная, в которую дополнительно включены построенныецелевые инструменты.Экзогенность (отсутствие корреляций с ошибками) означает, чтодополнительно оцениваемые коэффициенты при инструментах на самомделе нулевые.
Проверка подобных гипотез обсуждалась в параграфе 6.8,так что мы можем не выписывать соответствующую F-статистику.ПРИЛОЖЕНИЯ223A. Гамма-функция игамма-распределениеВ этом приложении мы кратко напоминаем несколько полезных фактов,относящихся к гамма-функции, а также их применения к выводу свойствгамма-распределения.Для положительных значений аргумента (другие нам не потребуются)гамма-функция определяется равенствомZ ∞Γ(p) =xp−1 e−x dx(p > 0).0Ключевое свойство, постоянно использующееся в вычислениях с гаммафункцией, имеет видΓ(p + 1) = pΓ(p)(A.1)(она легко доказывается интегрированием по частям). Поскольку Γ(1) =1, из формулы (A.1) сразу получаем Γ(n + 1) = n! (n = 0, 1, 2, .
. . ). Еще√одно полезное частное значение Γ(1/2) = π (см. также параграф 1.6)обсуждается ниже.Рассмотрим теперь некоторые детали, связанные с определениемплотности гамма-распределения:αp p−1 −αxx e ,x > 0.g(x) =Γ(p)Начнем с проверки условия нормировки:Z ∞Z ∞ ³ ´p−1αpydyg(x) dx = (y = αx) =e−y=Γ(p)αα00Z ∞1y p−1 e−y dy = 1.=Γ(p) 0¡ ¢Для плотности гамма-распределения Γ 12 , 21мы имеем двавыражения — общее¡ 1 ¢1/22 ¡ ¢ −1/2 −x/2xeΓ 12225226Приложенияи частное, выведенное в параграфе 1.6:1√ x−1/2 e−x/2 .2π¡ ¢ √Сравнение их дает упомянутое выше значение Γ 21 = π.