С.С. Валландер - Лекции по статистике и эконометрике (1160549), страница 31
Текст из файла (страница 31)
В этом случае связями междуэтими объектами часто можно пренебречь и считать соответствующиеошибки некоррелированными: cov(εi1 , εi2 ) = 0 (i1 6= i2 ), однако, вообщеговоря, разнораспределенными. В теории второго порядка эта разнаяраспределенность будет проявляться через зависимость дисперсии V(εi )от номера наблюдения. Соответствующие модели ошибок мы будемрассматривать в параграфе 7.6.Для панельных данных обычно используется некоторая комбинацияидей, относящихся к временным рядам и пространственным данным —см. также параграф 7.7.Во всех подобных ситуациях имеется общее ядро — матрицаковариаций cov(ε) = V , зависящая от некоторого относительнонебольшого набора параметров. Ее параметры следует оценивать нарядус коэффициентами βj линейной регрессии.Как и в главе 6, мы начнем с обсуждения процедуры оцениваниякоэффициентов линейной регрессии.
Заметим сначала, что оценкинаименьших квадратов β̂ = (X 0 X)−1 X 0 Y являются несмещеннымипри любой матрице V , однако доказательство их эффективности (см.параграф 6.5) существенным образом зависело от предположения V =σ 2 1. Довольно легко привести примеры, когда оценки наименьшихквадратов перестают быть эффективными — см. параграф 7.6.Подчеркнем однако, что они остаются интуитивно приемлемыми.Что же касается оценки дисперсии ошибок, полученной в параграфе6.6, то она, вообще говоря, может потерять всякий смысл (еслиотсутствует соответствующий параметр).
Как следствие, эту оценкунет основания использовать и для других целей, например, дляоценивания матрицы ковариаций cov(β̂). Для стационарных временныхрядов, имеющих постоянную дисперсию, свойства этой оценки будутобсуждаться в параграфе 7.5.186Глава 7Таким образом, важной задачей оказывается статистическая проверкаклассических предположений об ошибках. Если эти предположениянарушены, целесообразно использовать процедуры, отличающиеся оттех, которые изучались в главе 6. Одной из таких процедур являетсятак называемый обобщенный метод наименьших квадратов (английскаяаббревиатура GLS — generalized least squares). Обсудим этот методсначала в чисто учебной ситуации, когда предполагается, что матрицаV известна (в реальных задачах такого, разумеется, не бывает) иневырождена.Докажем, что найдется невырожденная матрица L, удовлетворяющаясоотношению V −1 = L0 L.
Такая матрица не единственная, и мы приведемлишь один из способов ее нахождения.В курсах линейной алгебры доказывается, что симметричнуюматрицу (а V , как и любая матрица ковариаций, симметрична)можно ортогональным преобразованием привести к диагональному виду.Это означает, что найдется такая ортогональная матрица U , чтоU 0 V U = Λ диагональна. Поскольку V еще и положительно определена,диагональные элементы λii матрицы Λ положительны. Определим1/21/2положительный квадратный корень Λ1/2 = diag(λ11 , · · · , λN N ) и0положим L0 = U Λ−1/2 . Тогда LV L0 = 1, V = L−1 L −1 = (L0 L)−1 иV −1 = L0 L.Умножим основное соотношение нашей регрессионной модели Y =Xβ + ε на матрицу L слева и обозначим Y ∗ = LY , X ∗ =LX, ε∗ = Lε.
Мы получаем новую модель Y ∗ = X ∗ β + ε∗ стеми же коэффициентами регрессии и ошибками, удовлетворяющимиклассическим предположениям. Действительно,0cov(ε∗ ) = E(ε∗ ε∗ ) = E(Lεε0 L0 ) = Lcov(ε)L0 = LV L0 = 1).Эффективной линейной несмещенной оценкой вектора коэффициентовβ по теореме Гаусса-Маркова является оценка00β̂GLS = (X ∗ X ∗ )−1 X ∗ Y ∗ = (X 0 L0 LX)−1 X 0 L0 LY == (X 0 V −1 X)−1 X 0 V −1 Y(она называется оценкой обобщенного метода наименьших квадратов).Важно подчеркнуть, что запас линейных несмещенных оценок висходной и преобразованной моделях одинаков.
Поэтому и понятиеэффективной линейной оценки одно и то же в обеих моделях.Анализ регрессионных предположений187Если дополнительно предполагать, что вектор ошибок ε распределеннормально, то и преобразованный вектор ε∗ будет иметь нормальноераспределение. В этом случае оценка β̂GLS будет эффективна в классевсех (не обязательно линейных) несмещенных оценок (ср. с аналогичнымрезультатом, упоминавшимся в параграфе 6.7).Поскольку в реальных задачах матрица V неизвестна, процедурапостроения оценки вектора коэффициентов β усложняется. Обычноматрица V тем или иным способом оценивается, а затем в качествеоценки вектора β берется выражениеβ̂GLS = (X 0 V̂ −1 X)−1 X 0 V̂ −1 Y,где V̂ — оценка матрицы V .
При этом свойство несмещенности (неговоря уже об эффективности), вообще говоря, пропадает, однакосама процедура оценивания остается вполне осмысленной. Конечно,свойства β̂GLS во многом зависят от способа оценивания матрицы V .Мы еще будем возвращаться к обсуждению этих вопросов в следующихпараграфах этой главы.В учебниках по эконометрике изложенный вариант обобщенногометода наименьших квадратов иногда снабжается эпитетом "feasible"(русским переводом может быть слово "осуществимый"или"реализуемый"; в [9] используется не слишком удачный, на наш взгляд,термин "доступный").Имеется один важный случай, когда при построении оценок β̂GLSможно обойтись без предварительного оценивания матрицы ковариацийV .
Это — случай, когда V известна с точностью до скалярногомножителя: V = σ 2 C, где C — известная матрица. Действительно,выражение(X 0 V −1 X)−1 X 0 V −1 Yдля оценок обобщенного метода наименьших квадратов в этихпредположениях сводится к выражению(X 0 C −1 X)−1 X 0 C −1 Y,уже не содержащему неизвестный параметр σ 2 . Тем самым, этот методавтоматически осуществим (feasible), и оценки β̂GLS эффективны! Мывоспользуемся этим замечанием в параграфе 6.Кроме процедуры обобщенного метода наименьших квадратовсуществуют и другие способы оценивания, основанные на общих188Глава 7статистических принципах, например, на принципе максимальногоправдоподобия. Эти способы целесообразно обсуждать в болееконкретных модельных предположениях об ошибках.7.5Авторегрессионныестационарныепоследовательности и корреляция ошибокПоследовательностьслучайныхвеличин{εt }называетсяавторегрессионной, если она удовлетворяет линейному рекуррентномууравнению с постоянными коэффициентами:εt = δ + φ1 εt−1 + · · · + φp εt−p + ut ,(7.4)где {ut } — слабый белый шум.
Как правило, предполагается(или неявно подразумевается), что вспомогательный белый шум{ut } "не коррелирует с прошлым", т.е. ковариации cov(ut , εt−1 ),cov(ut , εt−2 ),. . . равны нулю. И мы также будем придерживаться этогосоглашения. В качестве моделей ошибок используются центрированныепоследовательности, поэтому в рамках настоящего параграфа мыпредположим, что δ = 0 и что все математические ожидания Eεt такженулевые.Можно дать естественную неформальную трактовку ошибок,подчиняющихся авторегрессионному соотношению. В каждый моментвремени t ошибка включает составляющие, связанные с тем, чторанее возникшие источники ошибки продолжают действовать (внекотором измененном, часто можно считать — ослабленном, виде), исоставляющую, описывающую дополнительные, только что возникшие,"сиюминутные", источники ошибки (имеется в виду белый шум ut , некоррелирующий с прошлым).Авторегрессионная модель ошибок включает в качестве параметровкоэффициенты авторегрессии φ1 , · · · , φp и дисперсию σu2 белого шума{ut }.
Порядок p авторегрессии также может варьироваться, хотя вмоделях ошибок редко бывает большим.Традиционныйспособзаданияавторегрессионнойпоследовательности — зафиксировать p подряд идущих ее членови выразить через них все остальные при помощи рекуррентногосоотношения. Например, можно зафиксировать ε0 , ε−1 , · · · , ε−p+1 иАнализ регрессионных предположений189написатьε1 = φ1 ε0 + φ2 ε−1 + · · · + φp ε−p+1 + u1 ,ε2 = φ1 ε1 + φ2 ε0 + · · · + φp ε−p+2 + u2 == (φ21 +φ2 )ε0 +(φ1 φ2 +φ3 )ε−1 +· · ·+(φ1 φp−1 +φp )ε−p+2 +φ1 φp ε−p+1 +φ1 u1 +u2и т.д. Аналогично можно найтипоследовательности. Для этого всегорекуррентное соотношение в видеεt−p =и предыдущие членылишь надо переписать1φ1φp−11εt − εt−1 − · · · −εt−p+1 − ut .φpφpφpφpВ общем случае авторегрессионная последовательность {εt } не обладаетсвойством слабой стационарности.