С.С. Валландер - Лекции по статистике и эконометрике (1160549), страница 28
Текст из файла (страница 28)
Тем самым, некоторым образом показатель Xj"переключается"с одного режима на другой.Пример 2. Сезонные колебания. Аналогично примеру 1 можноучесть колебания коэффициентов по месяцам или другиместественным периодам. Для каждого месяца можно ввестисвой индикатор: I1 , I2 , . . . , I12 . По очевидным причинамсумма этих двенадцати индикаторов тождественно равнаединице, так что они линейно зависимы. Поэтому, вводявеличины I1 Xj , . . .
, I12 Xj , мы должны опустить исходнуювеличину Xj . Конечно, в примере 1 можно было быпоступить аналогичным образом.Общая черта рассмотренных примеров — моменты переключениярежимов известны. В примере 1 это не вполне очевидно, т. к.определенные факторы могут иметь последействие. Попытки обобщениявывели бы нас за рамки классической модели, и мы не будем сейчас ихобсуждать.168Глава 6Дискретные величины более чем с двумя значениями, обобщающиеиндикаторы, практически не используются, т. к. их удобнее заменятьболее простыми индикаторами, увеличивая при необходимости их число(как в примере 2). Выигрыша в числе параметров, заменяя один способдругим, не добиться.В качестве иллюстрации использования индикаторных величинрассмотрим так называемый тест Чоу (Chow) проверки совпадениямоделей. Предположим, что мы имеем дело с двумя сериями из N1 иN2 однотипных наблюдений:Y(1) = X(1) β(1) + ε(1) ,Y(2) = X(2) β(2) + ε(2) .Однотипность понимается как совпадение множеств регрессоров в двухсериях (в содержательном смысле — если в первой серии X2 —процентная ставка, то и во второй серии X2 — процентная ставка).Будем предполагать также, что дисперсии ошибок одинаковы (этопредположение, вообще говоря, сомнительно, но отказ от него сновавыведет нас за рамки классической модели, и потому это обобщениесейчас обсуждаться не будет).
Рассмотрим проверку гипотезы β(1) = β(2) .Для этого введем индикатор второй серии I и расмотрим объединеннуюсистему данных X(1) 0X(1) IX(1)Y(1).=, X = Y =X(2) IX(2)X(2) X(2)Y(2)Соответствующая спецификация имеет видY = Xγ + ε,гдеε=ε(1)ε(2),γ = β(1).β(2) − β(1)Наша гипотеза β(1) = β(2) , или, эквивалентно, γ(2) = 0, имеетвид, обсуждавшийся ранее, и проверяется (это и есть тест Чоу)с использованием распределения Fk,N1 +N2 −2k — см. упражнение вконце параграфа 6.10. При этом коэффициент детерминации R2 ивектор остатков ε̂ вычисляются по полной регрессионной матрице2X, а коэффициент детерминации R(1)и вектор остатков ε̂(1) — поЛинейная регрессионная модельуменьшенной (restricted) матрице169Xrestr = X(1).X(2)6.12Замечания о спецификации моделиНа практике исследователь выбирает спецификацию модели.
Сделатьсразу окончательный выбор, как правило, не удается. Так, если речьидет о прогнозировании спроса на депозитные сертификаты, можнопредполагать, что среди регрессоров окажутся ставка процента по этимсертификатам, ставка процента по каким-либо конкурирующим ценнымбумагам и т. д. С уверенностью включать или не включать тот илииной регрессор в модель вряд ли возможно. Поэтому рассматриваютсяразличные варианты модели, с тем чтобы в конечном итоге остановитьсяна одном из них. В примере с депозитными сертификатами можнопопытаться учесть, скажем, разность между ставками процента пократкосрочным и долгосрочным вложениям. Но целесообразно ли это— является ли соответствующий фактор существенным (статистическизначимым)? Ответы на подобные вопросы можно получить, толькоанализируя эмпирические данные и сравнивая разные модификациимодели. При этом может оказаться, что некоторые регрессоры — лишние,а некоторые, наоборот, пропущены.
Мы обсудим в этом параграфе частьподобных вопросов, связанных с выбором спецификации модели.Начнем с замечаний концептуально-философского характера.Как понимать высказывание о том, что данная модель правильна(true model)? И существует ли вообще таковая? Вопросы"взаимоотношений"между моделью и моделируемым явлениемдостаточно деликатны. Обсуждаемые нами линейные регрессионныемодели включают стохастическую ошибку ε, концентрирующуюв себе всю совокупность неучтенных факторов, и потомув само́м линейном представлении Y=Xβ + ε еще нетпотенциальных трудностей. Проблемы появляются, когда мы начинаемпостулировать какие-либо свойства стохастической ошибки.
Проверить(тестировать) постулируемые свойства удается не всегда, надежностьсоответствующего вывода может быть невысокой. Надежный же вывод,скорее всего, окажется отрицательным. Таким образом, представлениео том, что имеется некоторая "правильная"модель, является (еще170Глава 6одной) идеализацией, появляющейся в процессе моделирования. В этомпараграфе мы только начинаем обсуждение проблем спецификации,поэтому будем, все-таки, считать, что "правильную"модель можнопредставить себе, и для нее выполнены классические предположения.Будем записывать правильную модель в видеY = X t βt + ε t ;(6.20)здесь индекс t является сокращением от true.
Помимо модели (6.20),имеющей только умозрительный характер, исследователь имеет дело сфактической спецификацией Y = Xβ + ε, которая меняется в процессеработы.Рассмотрим сначала относительно безобидный (как будет виднодальше) случай, когда в спецификацию включены дополнительные("лишние") регрессоры, так чтоX = (Xt , Xc ),иY = Xt β(1) + Xc β(2) + ε,где β(1) и β(2) — частичные векторы коэффициентов. Отметим, чтоправильная модель получается при β(2) = 0, но нам это неизвестно.Мы, надо думать, считаем, что вектор β, подразумеваемый нашейспецификацией, и есть правильный вектор коэффициентов βt , что несовсем точно (они имеют разные размерности), и что вектор ошибок εесть правильный вектор ошибок εt — это похоже на истину, впрочем, соговоркой, что ошибки все-таки не наблюдаемы.С практической точки зрения мы можем оценить коэффициентыβ нашей спецификации стандартным образом, т.
е. найти по выборкеих оценки β̂, а также соответствующие остатки ε̂. На самом-то деленаша спецификация ошибочна (точнее, избыточна), так что таковы жеи выражения для β̂ и ε̂. Точнее, частичный вектор β̂(1) оценивает векторβt правильных коэффициентов, а β̂(2) "оценивает"нулевой вектор. Приобсуждении блочной регрессии в параграфе 6.9 мы получили формулы(6.15), из которых следует0000β̂(2) = (Xc Pt⊥ Xc )−1 Xc Pt⊥ Y = (Xc Pt⊥ Xc )−1 Xc Pt⊥ εt ,00β̂(1) = βt + (Xt Pc⊥ Xt )−1 Xt Pc⊥ εt .Линейная регрессионная модель171Эти оценки несмещенные —Eβ̂(1) = βt ,но неправильныйэффективности:выборEβ̂(2) = 0,спецификации0привелкпотерев0cov(β̂(1) ) = σ 2 (Xt Pc⊥ Xt )−1 ≥ σ 2 (Xt Xt )−1 = cov(β̂t ),0cov(β̂(2) ) = σ 2 (Xc Pt⊥ Xc )−1 ≥ 0 = cov(0).Первое неравенство вытекает из того, что000Xt Xt − Xt Pc⊥ Xt = Xt Pc Xt ≥ 0,а второе — самоочевидно.Эффективность — это важное свойство, так что злоупотреблятьвключением в модель лишних регрессоров не следует.
Выявить наличиеих поможет проверка гипотезы вида β̂(2) = 0 — она обсуждалась впараграфе 6.10.Рассмотрим теперь оценку дисперсии σt2 в рамках выбраннойспецификации. Такой оценкой является0s2 = ε̂ ε̂/(N − k),где k = k1 + k2 — полное число коэффициентов. Она, естественно,отличается от0s2t = ε̂t ε̂t /(N − k1 ),но, как это ни парадоксально, обе оценки s2t и s2 являютсянесмещенными. Это следует из общих соображений — обе ониполучаются одной и той же процедурой, только в разныхспецификациях. Первая — в правильной спецификации (6.20), а вторая— в фактически выбранной.
Отметим, впрочем, что несмещенность s2можно проверить и непосредственно, используя несложно проверяемыесоотношенияε̂t = Pt⊥ Y = Pt⊥ Xc β̂(2) + ε̂,0000ε̂t ε̂t = ε̂ ε̂ + β̂(2) Xc Pt⊥ Xc β̂(2) ,00E[β̂(2) Xc Pt⊥ Xc β̂(2) ] = σt2 k2 .Поскольку оценки различаются, а s2t в модели с нормальнораспределенными ошибками — эффективная несмещенная оценка(см. параграф 6.7), то и здесь происходит потеря в эффективности.172Глава 6Перейдем теперь к более печальной ситуации, когда выбраннаяспецификация не включает часть регрессоров из правильной модели, т.е.Xt = (X, Xc ). Теперь вектор βt правильных коэффициентов разбиваетсяна два подвектора βt(1) и βt(2) 6= 0. Коэффициенты βt(1) отвечаютрегрессорам, включенным в нашу спецификацию Y = Xβ + ε. Оценкиβ̂, которые мы можем построить, предназначаются для оценивания βt(1) ,что же касается коэффициентов βt(2) , то мы, видимо, и не подозреваем осоответствующих объясняющих факторах, или не считаем их важными.К сожалению, оценка β̂, вообще говоря, смещена:0000β̂ = (X X)−1 X Y = (X X)−1 X (Xβt(1) + Xc βt(2) + εt )000000= βt(1) + (X X)−1 X Xc βt(2) + (X X)−1 X εt ,Eβ̂ = βt(1) + (X X)−1 X Xc βt(2) .0Несмещенной оценка β̂ оказывается в исключительном случае X Xc =0, когда столбцы дополнительных регрессоров ортогональны столбцамиспользованных регрессоров (исключение и есть исключение).Рассмотрим теперь оценку дисперсии σt2 .
Имеемε̂ = Y − X β̂ = Xβt(1) + Xc βt(2) + εt0000− X(βt(1) + (X X)−1 X Xc βt(2) + (X X)−1 X εt )= P ⊥ Xc βt(2) + P ⊥ εt .Поэтому000000ε̂ ε̂ = βt(2) Xc P ⊥ Xc βt(2) + εt P ⊥ εt + 2βt(2) Xc P ⊥ εt .Второе слагаемое имеет требуемое математическое ожидание (N − k)σt2 ,третье — вклада не дает, т.к. Eεt = 0. Наконец, первое слагаемое,0очевидно, практически всегда положительно (даже в случае X Xc = 0,0когда оно обращается в (Xc βt(2) ) Xc βt(2) ).
Таким образом,0s2 = ε̂ ε̂/(N − k)— смещенная вправо оценка дисперсии.Обсудим, в завершение параграфа, вопрос о том, как выявитьпропуски регрессоров в модели с нормально распределеннымиошибками. Для этого заметим, чтоEε̂ = P ⊥ Xc βt(2) .Линейная регрессионная модель173Предположим сначала, что этот вектор отличен от нуля. В этом случаеможно (как и в параграфе 6.7) выбрать некоторый ортонормированныйбазис e1 , . .
. , eN −k в подпространстве L⊥ (X1 , . . . , Xk ), где лежит ε̂,составить из этих векторов–столбцов матрицу e и рассмотреть вектор00e ε̂ с координатами ej ε̂. Очевидно,000E(e ε̂) = e P ⊥ Xc βt(2) = e Xc βt(2) .Кроме того, доказанная в параграфе 6.7 формула0cov(e ε̂) = σ 2 1N −k ,очевидно,справедливаисейчас(единственноеотличие,0нецентрированность e ε̂, не играет роли при вычислении ковариаций).0Среднее арифметическое случайных величин ej ε̂10 0(1→ ) e ε̂(6.21)N −kпредставляется в виде суммы своего математического ожидания10 0(1→ ) e Xc βt(2)N −k(6.22)и среднего арифметического N − k независимых величин сраспределением N(0, σ 2 ).
Поэтому можно построить доверительныйинтервал для (6.22) — среднего значения нормально распределенной сдисперсией σ 2 /(N − k) случайной величины (6.21).Конечно, дисперсия σ 2 нам не известна, но если воспользоватьсязавышенной (см. выше) оценкой s2 , то мы будем лишь несколько режеотвергать гипотезу βt(2) = 0 и следствия из нее, но, все-таки, при удачномстечении обстоятельств сможем выявить отсутствие центрированности0для вектора e ε̂.Если математическое ожидание (6.22) обращается в 0, наш приемнепригоден. В этом случае можно попытаться сменить базисную матрицуe.Большим недостатком указанного метода является необходимостьстроить матрицу e — это трудоемкая вычислительная задача.
Внекоторых случаях можно не доводить построение базиса {ej } до концаи ограничиться несколькими первыми базисными векторами.Вернемся теперь к случаю Eε̂ = 0, когда не поможет никакоеизменение матрицы e. В этой ситуации можно попытаться уменьшить174Глава 6выборку, отбрасывая одно или несколько наблюдений. В любом случае,можно надеяться, что возможный пропуск регрессоров вскроется посленескольких попыток. А на "нет", как говорят в статистике1 , и суда нет.И, наконец, последнее замечание. Предположим, что мы выявилинечто, похожее на пропуск регрессоров. Ведь это всего-лишь сигнал отом, что "что-то не в порядке". Предположений в нашей модели довольномного, и, может быть, нарушается одно из свойств ошибок.