С.С. Валландер - Лекции по статистике и эконометрике (1160549), страница 29
Текст из файла (страница 29)
На этойвопросительной ноте мы заканчиваем параграф и главу.1И не только в статистике!Глава 7Анализ регрессионныхпредположенийКлассические предположения, на основе которых в предыдущейглаве излагалась статистическая техника исследования линейнойрегрессионной модели, удовлетворяют эконометриста лишь в редкихслучаях.
Чаще всего он вынужден отказываться от части этихпредположений. Ниже обсуждаются связанные с этим проблемы.Удобно еще раз повторить в сжатом, но явном, виде весь списокиспользовавшихся в главе 6 свойств.Регрессоры Xj неслучайны и линейно независимы.Ошибки εi случайны, центрированы, не коррелируют, имеютодинаковые дисперсии.Во многих местах дополнительно предполагалось, что ошибкисовместно нормально распределены.Несколько первых параграфов настоящей главы посвященыизменению отдельных предположений этого перечня.
Остальныепредположения при этом чаще всего предполагаются справедливыми,может быть, в слегка уточненном виде. Более решительные обобщенияклассической модели по мере возможности представлены во второйчасти главы.7.1Стохастические регрессорыКак уже упоминалось в параграфе 6.2, неслучайность регрессоров— довольно специфическое и редкое обстоятельство. Объявитьих стохастическими (т.е. случайными) — дело нехитрое. Сложнееуточнить подобную декларацию осмысленными предположениями охарактере этой случайности и о взаимоотношениях вводимых в175176Глава 7модель дополнительных случайных величин с уже имеющимися, т.е.с ошибками.
Не следует забывать и о том, что некоторые регрессоры(константа, время,. . . ) принципиально неслучайны.До тех пор, пока рассматриваемая модель включает одно уравнение(т.е. до тех пор, пока мы предполагаем, что смогли выделитьфрагмент экономической действительности, допускающий осмысленноеописание посредством одного уравнения), регрессоры (объясняющиевеличины) мы вынуждены трактовать экзогенным (внешним) образом.Это относится и к их законам распределения (в самом общем варианте— к совместному распределению величин Xij , i = 1, . .
. , N, j =1, . . . , k). Константу из нашего списка можно, разумеется, убрать, однаковозможность влияния других неслучайных регрессоров (например,времени) следует, вообще говоря, предусмотреть. В любом случаесовместное распределение регрессоров задается экзогенно. Предполагатьнекоррелированность или независимость вдоль последовательностинаблюдений (т.е. при разных i) без должной мотивировки, проведенной всодержательных экономических терминах, не следует. Временные рядыи пространственные данные в этом отношении чаще всего различаются.Перейдем теперь к подробному и точному описанию модели состохастическими регрессорами.
Остальные предположения в этомпараграфе мы лишь уточняем, не меняя их сути.Итак, пусть регрессионная матрица X случайна, а ее распределениезадано экзогенно, причем с вероятностью 1 столбцы регрессоровX1 , · · · , Xk линейно независимы.Предположим далее, что при фиксированной матрице X условноераспределение вектора ошибок1 ε удовлетворяет всем основнымклассическим предположениям:центрированность: E(ε|X) = 0;отсутствие корреляций: E(εi1 εi2 |X) = 0 (i1 6= i2 );однородность дисперсий: E(ε2i |X) = σ 2 (значение дисперсии независит от условия X).1Точнее, при почти любом выборе условия X (все утверждения об условных распределениях иусловных математических ожиданиях, в соответствии с определениями, выполняются при почтивсех условиях, т.е. с вероятностью 1 — см.
приложение D).Анализ регрессионных предположений177При желании (или необходимости) можно дополнительнопредположить условную нормальность вектора ε. В этом случае векторошибок ε и регрессионная матрица X оказываются стохастическинезависимыми, а условные характеристики ошибок становятсябезусловными.Для сформулированной таким образом модели можно (в условномсмысле) воспользоваться многими формулами и утверждениями главы 6.После этого усреднение по условиям дает нам и безусловные результаты.Опишем эту схему рассуждений более подробно.Прежде всего, при фиксированном условии X получаем формулу (6.7)для оценок метода наименьших квадратов:β̂ = (X 0 X)−1 X 0 Y.Она остается осмысленной и в ситуации, когда регрессионная матрицаX трактуется как случайная.Это же относится и к выражению Ŷ = X β̂ для вектора прогнозныхзначений.Перейдем к свойствам оценок метода наименьших квадратов.Почти очевидно, что β̂ — несмещенная оценка векторакоэффициентов.
Действительно, в соответствии со свойствами условногоматематического ожиданияEβ̂ = E(E(β̂|X)) = Eβ = β(в условном смысле несмещенность доказана в параграфе 6.5).При небольшом уточнении формулировки сохраняется и теоремаГаусса-Маркова (вместе с доказательством). Уточнение касается классаоценок. Именно, рассматриваются (ср. с параграфом 6.5) линейные поY оценки вида β̃ = CY , где C — матрица коэффициентов, элементыкоторой являются функциями от регрессионной матрицы X. Условиенесмещенности такой оценки, как и в параграфе 6.5, имеет видCX = 1 (с вероятностью 1).
Оценки наименьших квадратов являютсяэффективными в классе линейных по Y несмещенных оценок указанноговида. Доказательство, как и приведенное выше доказательствонесмещенности, использует свойства условных математическихожиданий и опирается на доказательство теоремы Гаусса-Маркова,приведенное в параграфе 6.5, а также на то обстоятельство, чтоусловное математическое ожидание E(β̂|X) не зависит от условия.178Глава 7Дисперсия σ 2 ошибок оценивается тем же выражением, чтои в параграфе 6.6.
Оператор ортогонального проектирования P ⊥зависит от регрессионной матрицы X, однако доказательство равенстваE(ε̂0 ε̂|X) = σ 2 trP ⊥ совпадает с доказательством аналогичногобезусловного равенства в главе 6, а соотношение trP ⊥ = N − kсправедливо с вероятностью 1. Поэтому статистикаε̂0 ε̂s =N −k2остается несмещенной оценкой дисперсии.Прослеживая рассуждения параграфа 6.7, относящиеся к моделис нормально распределенными ошибками, легко обнаружить, что иони, в основном, воспроизводятся.
Особый интерес представляет тообстоятельство, что условное распределение дробиβ̂ − βjp js [(X 0 X)−1 ]jjесть распределение Стьюдента при почти всех условиях. Отсюданемедленно вытекает, что и безусловное распределение этой дробистьюдентовское, так что конструкция доверительных интерваловсохраняется и в модели со стохастическими регрессорами.Аналогичным образом, сохраняются и результаты параграфа 6.8 опроверке линейных гипотез общего вида (матрица R коэффициентовпредполагается постоянной, т.е.
не зависящей от X). Мы оставляемчитателю выяснение вопроса о том, в какой степени воспроизводятсяв модели со стохастическими регрессорами остальные результаты главы6.7.2Проблема мультиколлинеарностиВторое предположение о регрессорах — линейная независимость,является абсолютно необходимым с точки зрения абстрактной теории,однако на практике иногда сильно досаждает исследователям.Предположим, что регрессоры вдруг оказываются линейнозависимыми. Это означает, что по меньшей мере один из них можетбыть линейно выражен через остальные. При этом ранг матрицы X,а вместе с ним и ранг матрицы X 0 X, оказываются строго меньше k —числа регрессоров, а тогда X 0 X необратима.
Вся цепочка рассуждений,Анализ регрессионных предположений179приведших нас в параграфе 6.3 к оценкам наименьших квадратов, азатем к их свойствам, рушится.В содержательных терминах эта необратимость означает следующее.Проекция Ŷ вектора Y на подпространство регрессоров L(X1 , · · · , Xk )(она, разумеется, существует) может быть по-разному выраженачерез них. Поэтому коэффициенты этого разложения предметного(объясняющего) смысла не имеют.Как же должен поступить исследователь, обнаруживший подобнуюлинейную зависимость (=коллинеарность) регрессоров? Скореевсего он изменит спецификацию модели, выразив один (илидаже несколько) регрессоров через остальные и исключив их темсамым.
По-видимому, линейные соотношения между экзогеннымивеличинами должны иметь какое-либо осмысленное (экономическоеили управленческое) объяснение. Разумеется, могут возникнутьисключительные обстоятельства, но этой возможностью обычнопренебрегают.К сожалению, относительно нередко регрессоры оказываются "почтилинейно зависимыми"(т.е. по содержательным причинам меняют своизначения хоть и не синхронно, но очень похожим образом).
Свычислительной точки зрения это выражается в том, что определительматрицы X 0 X близок к нулю (в некотором смысле, который нуждаетсяв уточнении), а обращение этой матрицы приводит (по крайней мере,потенциально) к катастрофически большим погрешностям (вычисления,разумеется, призводятся на компьютере и, практически всегда, сокруглением). В результате теряется доверие к оценкам коэффициентов.Может возникнуть и более "экзотическая"ситуация, когда отдельныекоэффициенты регрессии незначимо отличаются от нуля, а совместноони значимы (гипотезы о параметрах обсуждались в параграфе 6.8).Подобные явления принято называть мультиколлинеарностью. Всеавторы учебников соглашаются с тезисом о важности проблемымультиколлинеарности, но по-разному оценивают возможностиисследователя в преодолении этой трудности (см., например, [19, 9, 25]).Универсального рецепта, несомненно, существовать не может, а напрактике, как указывают [25], чаще всего приходится менять "правилаигры".1807.3Глава 7Асимптотические свойстванаименьших квадратовоценокметодаПерейдем теперь к обсуждению проблемы, которая в контексте главы6 не затрагивалась, именно, проблемы состоятельности оценок МНК.После обсуждения в параграфе 1 стохастических регрессоров изучениесостоятельности окажется более содержательным, хотя мы и начнемсо специального случая "управляемых" неслучайных объясняющихфакторов.В данном контексте "управляемость"будет означать всеголишь, что регрессионная матрица X меняется с ростом числанаблюдений некоторым предписанным образом.