С.С. Валландер - Лекции по статистике и эконометрике (1160549), страница 36
Текст из файла (страница 36)
Остальныекоэффициенты — неидентифицируемыми. Точно так же могутоказаться идентифицируемыми отдельные уравнения структурнойсистемы.3. Не существует ни одного набора структурных коэффициентов,соответствующегоданнымзначениямприведенныхкоэффициентов. В этом случае структурная система называетсясверхидентифицируемой (overidentifiable).Последняя возможность наиболее интересна. Она возникает втом случае, когда, грубо говоря, структурных коэффициентовменьше, чем приведенных.
Более точно, можно сказать так.Уравнений для нахождения структурных коэффициентов черезприведенные слишком много, и система их противоречива. Однакоэто обстоятельство не лишает смысла исходную регрессионную модель.При использовании метода наименьших квадратов стохастические212Глава 8ошибки (они ненаблюдаемы) в некотором смысле игнорируются.Поэтому статистические процедуры позволяют найти лишь оценкикоэффициентов, а не сами коэффициенты. При этом регрессионныеуравнения выполняются (как и положено по исходным предположениям)только приблизительно, с точностью до остатка (оцененной ошибки).С практической точки зрения можно поступать так: некоторые изуравнений, связывающих приведенные коэффициенты со структурными,отбросить и искать оценки структурных коэффициентов из остальныхуравнений.
Это отбрасывание можно делать по-разному и получатьразные оценки одних и тех же структурных коэффициентов. Всетакие оценки вполне осмыслены и их можно объявить оценкаминепрямого (косвенного) метода наименьших квадратов. Можно брать иподходящие линейные комбинации их. Таким образом, косвенный методнеоднозначен. Напротив, двухшаговый метод наименьших квадратовдает однозначный рецепт, который, как можно увидеть на примерах,в некотором смысле оптимален. Мы не останавливаемся на этом болееподробно, однако в следующем параграфе детально разберем одинважный пример.8.4Простейшие модели спроса и предложенияМы несколько изменим модель примера 1 из параграфа 5.2.
Во-первых,воспользуемся условием равновесия для уменьшения числа уравнений(подобное действие всегда предшествует процедурам оценивания). Вовторых, добавим в уравнение предложения еще одну экзогеннуювеличину T , имеющую смысл температуры воздуха (некотороеусредненное значение для данного цикла). В-третьих, для удобствазаменим обозначения p, q и r соответствующими заглавными буквами,сохраняя малые буквы для принятого обозначения отклонений отсредних. Тем самым, будем рассматривать систему:Q = β1 + β2 P + γ1 I + εD ,Q = β3 + β4 P + γ2 R + γ3 T + εS .Предположим также, что между экзогенными величинами нетколлинеарности или мультиколлинеарности.При выбранной записи оба уравнения содержат Q в левой части.
Какбудет видно, это не слишком принципиальное обстоятельство, хотя вСистемы регрессионных уравнений213теоретических исследованиях обычно считают, что в каждом уравнениив левой части стоит своя эндогенная величина, т.е. устанавливаютнекое однозначное в обе стороны соответствие между уравнениями иобъясняемыми величинами.Мы сделаем еще одно стандартное действие — перейдем котклонениям от средних, и запишем наши уравнения в видеq = β2 p + γ1 i + εD ,q = β4 p + γ2 r + γ3 t + εS(заметим, что ошибки при этом переходе изменяются, хотя мы исохранили для них старые обозначения; меняются и свойства ошибоквдоль серии наблюдений, впрочем, асимптотически это обстоятельствонесущественно).
Вопрос об оценивании свободных членов β1 и β3 мы длякраткости опустим.Двухшаговый метод наименьших квадратов действует следующимобразом. На первом шаге первичные инструменты i, r, t используютсядля получения целевого инструментаp̂ = π̂1 i + π̂2 r + π̂3 t,заменяющего p на втором шаге.
На этом втором шаге для оцениванияуравнения спроса строится регрессия q на p̂ и i, а для оцениванияуравнения предложения — регрессия q на p̂, r и t. Обе эти регрессиидействительно можно построить, т.к. в первом уравнении отсутствуютr и t, а между p̂ и i коллинеарности нет, и, аналогично, во второмуравнении отсутствует i, а между p̂, r и t коллинеарности нет.Мы видим, что отсутствие некоторых экзогенных величин в отдельновзятом уравнении — важное обстоятельство; если бы в качестверегрессоров использовались все четыре величины p̂, i, r и t, возникла быочевидная коллинеарность.
Эти соображения, действующие и в общемслучае, обычно формулируют в виде так называемого порядковогоусловия идентифицируемости: число отсутствующих в уравнениипредопределенных величин (в нашем примере все они экзогенны) неменьше числа эндогенных величин, присутствующих в правой части(мы считаем при этом, что еще одна эндогенная величина стоит слева).Порядковое условие по своему смыслу аналогично сходному условиюв теории систем линейных уравнений и, так же как и последнее, неучитывает некоторых тонкостей.
Необходимое и достаточное условие,имеющее ранговый характер, мы не приводим (см., например, [24]).214Глава 8Посмотрим теперь, как выглядит в нашем контексте косвенныйметод наименьших квадратов (опять ограничимся уравнениями вотклонениях).Выпишем приведенные уравнения:p=£¤1γ1 i − γ2 r − γ3 t + εD − εS ,β4 − β2£¤1q=β4 γ1 i − β2 γ2 r − β2 γ3 t + β4 εD − β2 εSβ4 − β2илиp = π11 i + π12 r + π13 t + u,q = π21 i + π22 r + π23 t + v,где π·· — приведенные коэффициенты, а u и v — новые ошибки.Особый случай β2 = β4 пока не будем обсуждать.
Посколькуприведенных коэффициентов 6, а структурных — только 5, возникаетсверхидентифицируемость. Легко предположить, что она связана суравнением спроса, в котором отсутствует "слишком много"экзогенныхвеличин — порядковое условие выполнено в виде строгого неравенства.Выпишемсоотношения,восстанавливающиеструктурныекоэффициенты через приведенные:β4 =π22π23π21, β2 =, β2 =,π11π12π13γ1 = π11 (β4 − β2 ), γ2 = −π12 (β4 − β2 ),γ3 = −π13 (β4 − β2 ).Единственный точно идентифицируемый коэффициент — коэффициентβ4 , а для β2 и, как следствие, для γ1 , γ2 , γ3 возможны разныепредставления (заметим, что мы выписали не все представления для γ2 ,γ3 ).Интересно отметить, что только один коэффициент уравненияпредложения точно идентифицируем, так что сделанное ранеепредположение о том, что сверхидентифицируемость связана суравнением спроса, не вполне точно.В более "короткой"системе, где температура T отсутствует, всекоэффициенты точно идентифицируемы.
Довольно простая выкладкапоказывает, что оценки двухшагового и косвенного методов при этомсовпадают (мы ее не приводим, т.к. ниже разбирается более интересный,хотя и более сложный, результат).Системы регрессионных уравнений215Вернемся к нашей основной системе и докажем, что оценкидвухшагового и косвенного методов для точно идентифицируемогокоэффициента β4 совпадают.
Прежде всего заметим, что π̂1 = π̂11 ,π̂2 = π̂12 , π̂3 = π̂13 (в обоих случаях строится регрессия p на наборрегрессоров i, r, t). Далее, выражения для π̂21 , π̂22 , π̂23 получаются извыражений для π̂1 , π̂2 , π̂3 заменой p на q.Выпишем оценки двухшагового метода. Для этого нам потребуетсяспециальное обозначение. Пусть X и Z — две (прямоугольные) матрицыодинакового размера, X1 , · · · , Xk , Z1 , · · · , Zk — их столбцы. Тогдаматрица Z 0 X имеет видZ10 X1 . . . Z10 Xk.. ,...Z 0 X = ....00Zk X1 .
. . Zk Xkт.е. является функцией от векторов X1 , · · · , Xk , Z1 , · · · , Zk . Нашеобозначение — это обозначение для определителя матрицы Z 0 X:det(Z 0 X) = D(Z1 , · · · , Zk ; X1 , · · · , Xk ).Заметим, что функция D линейна по каждому из своих 2k аргументов,обращается в 0, если два аргумента Z· или два аргумента X· совпадают,а также меняет знак при перестановке двух аргументов из одной группы.При помощи введенного обозначения оценки наименьших квадратов(X и Y — стандартные обозначения регрессионной матрицы иобъясняемой величины) можно записать в виде:β̂j =D(X1 , · · · , Xk ; X1 , · · · , Xj−1 , Y, Xj+1 , · · · , Xk ).D(X1 , · · · , Xk ; X1 , · · · , Xk )В обсуждаемом частном случае (естественно, обозначения отличаютсяот только что использованных общих) регрессионная матрица первогошага имеет видX = (irt),так что, используя сокращениеD = D(i, r, t; i, r, t),216Глава 8мы можем написатьπ̂11 = π̂1 = D−1 D(i, r, t; p, r, t),π̂21 = D−1 D(i, r, t; q, r, t),π̂12 = π̂2 = D−1 D(i, r, t; i, p, t),π̂22 = D−1 D(i, r, t; i, q, t),π̂13 = π̂3 = D−1 D(i, r, t; i, r, p),π̂23 = D−1 D(i, r, t; i, r, q).На втором шаге в роли регрессионной матрицы X выступают матрицы• (p̂i)(для уравнения спроса),• (p̂rt) (для уравнения предложения).Поэтому для коэффициента β4 оценкой двухшагового метода являетсяβ̂4,2SLS =D(p̂, r, t; q, r, t).D(p̂, r, t; p̂, r, t)Подставляя p̂ = π̂1 i+ π̂2 r + π̂3 t и пользуясь свойствами функции D, легкополучаемD(p̂, r, t; q, r, t) = π̂1 D(i, r, t; q, r, t),D(p̂, r, t; p̂, r, t) = π̂12 D(i, r, t; i, r, t) = π̂1 D(i, r, t; p, r, t).Отсюдаβ̂4,2SLS =D(i, r, t; q, r, t),D(i, r, t; p, r, t)что, очевидно, совпадает с оценкой косвенного методаβ̂4,indirect =π̂21.π̂11Для коэффициента β2 оценкой двухшагового метода являетсяβ̂2,2SLS =D(p̂, i; q, i).D(p̂, i; p̂, i)Подставляя выражение для p̂ и пользуясь свойствами функции D, можнополучить более явное выражение для этой оценки.Системы регрессионных уравнений8.5217Специальные варианты систем регрессионныхуравненийМы рассмотрим две практически важные ситуации, когда можетоказаться полезным изменить статистическую технику.Первая ситуация называется “рекурсивные (recursive) системыуравнений”.