В.П. Носко - Эконометрика для начинающих (1160539), страница 17
Текст из файла (страница 17)
При увеличении количества объясняющихпеременных первое слагаемое в правой части уменьшается, авторое увеличивается. Среди нескольких альтернативныхмоделей (полной и редуцированных) предпочтение отдаетсямодели с наименьшим значением AIC , в которой достигаетсяопределенный компромисс между величиной остаточнойсуммы квадратов и количеством объясняющих переменных.Критерий Шварца (Schwarz’s information criterion — SC,SIC). При использовании этого критерия, линейной модели сpобъясняющими переменными, оцененной поnнаблюдениям, сопоставляется значение RSS p p ln nSC = ln+ 1 + ln 2π .+n n И здесь при увеличении количества объясняющихпеременных первое слагаемое в правой части уменьшается, авторое увеличивается.
Среди нескольких альтернативныхмоделей (полной и редуцированных) предпочтение отдаетсямодели с наименьшим значением SC .Пример. В последнем примере получаем для полноймодели M 1 и редуцированных моделей M 2 и M 3 следующиезначения AIC и SC .M1AIC8.8147SC8.959443M2M38.63438.47388.74288.5462Предпочтительной по обоим критериям оказывается опятьмодель M 3 .Замечание. В рассмотренном примере все три критерия2Radj , AIC и SC выбирают одну и ту же модель. В общемслучае подобное совпадение результатов выбора вовсе необязательно.Включение в модель большого количества объясняющихпеременных часто приводит к ситуации, которую называютмультиколлинеарностью.Мыобещалиранеекоснутьсяпроблемымультиколлинеарности и сейчас выполним это обещание.Прежде всего напомним наше предположение(4) матрица XTX невырождена, т. е. ее определительотличен от нуля:det X T X ≠ 0 ,которое можно заменить условием(4’) столбцы матрицы X линейно независимы.Полная мультиколлинеарность соответствует случаю,когда предположение (4) нарушается, т.
е. когда столбцыматрицы X линейно зависимы, например,x ip = γ 1 x i1 + γ 2 x i 2 +K+γ p −1 x i , p −1, i = 1,K , n( p -й столбец является линейной комбинацией остальныхстолбцовматрицыX ).Приналичиичистоймультиколлинеарности система нормальных уравнений неимеет единственного решения, так что оценка наименьшихквадратов для вектора параметров (коэффициентов) попростуне определена однозначным образом.44Напрактике,указываянаналичиемультиколлинеарности, имеют в виду осложнения состатистическими выводами в ситуациях, когда формальноусловие (4) выполняется, но при этом определитель матрицыXTX близок к нулю.
Указанием на то, что p -я объясняющаяпеременная «почти является» линейной комбинациейостальных объясняющих переменных, служит большоезначение коэффициента возрастания дисперсии1(VIF ) p =1 − R p2оценки коэффициента при этой переменной вследствиеналичия такой «почти линейной» зависимости между этой иостальными объясняющими переменными. Здесь R p2 коэффициент детерминации при оцениваниинаименьших квадратов моделиx ip = γ 1 x i 1 + γ 2 x i 2 +K+γ p −1 x i , p −1 + ν i , i = 1,K , n.ЕслиR p2 = 0 ,тонекоррелированности(VIF ) p = 1 ,p -ойиэтопеременнойметодомсоответствуетсостальнымипеременными. Если же R ≠ 0 , то тогда (VIF ) p > 1 , и чем2pбольше корреляция p -ой переменной с остальнымипеременными, тем в большей мере возрастает дисперсияоценки коэффициента при p -ой переменной по сравнению сминимально возможной величиной этой оценки.Мы можем аналогично определить коэффициентвозрастания дисперсии (VIF ) j оценки коэффициента при j -ойобъясняющей переменной для каждого j = 1,K , p :45(VIF ) j =1.1 − R j2Здесь R j2 — коэффициент детерминации при оцениванииметодом наименьших квадратов модели линейной регрессииj -ой объясняющей переменной на остальные объясняющиепеременные.
Слишком большие значения коэффицентоввозрастания дисперсии указывают на то, что статистическиевыводы для соответствующих объясняющих переменныхмогут быть весьма неопределенными: доверительныеинтервалы для коэффициентов могут быть слишком широкимии включать в себя как положительные, так и отрицательныезначения, что ведет в конечном счете к признаниюкоэффициентов при этих переменных статистическинезначимыми при использовании t - критериев.Пример. Обращаясь опять к данным об импорте товаров иуслуг во Францию, находим:1= 109.89 .(VIF ) 2 = (VIF ) 3 =1 − 0.9909Коэффициенты возрастания дисперсии для переменныхX 2 и X 3 совпадают вследствие совпадения коэффициентовдетерминации регрессии переменной X 2 на переменные X 1 иX 3 и регресии переменной X 3 на переменные X 1 и X 2(взаимно обратные регрессии).Полученные значения коэффициентов возрастаниядисперсий отражают очень сильную коррелированностьпеременных X 2 и X 3 .
(Выборочный коэффициент корреляциимежду этими переменными равен Corr ( X 2 , X 3 ) = 0.995 .)При наличии мультиколлинеарности может оказатьсяневозможным правильное разделение влияния отдельных46объясняющих переменных. Удаление одной из переменныхможет привести к хорошо оцениваемой модели. Однакооставшиеся переменные примут на себя дополнительнуюнагрузку, так что коэффициент при каждой из этихпеременных измеряет уже не собственно влияние этойпеременной на объясняемую переменную, а учитывает также ичасть влияния исключенных переменных, коррелированных сданной переменной.Пример. Продолжая последний пример, рассмотримредуцированные модели, получамые исключением из числаобъясняющих переменных переменной X 2 или переменнойX 3 . Оценивание этих моделей приводит к следующимрезультатам:Y = −6.507 + 0.146 X 2c R 2 = 0.9504 и P − value = 0.0000 для коэффициента приX2;Y = −9.030 + 0.222 X 3c R 2 = 0.9556 и P − value = 0.0000 для коэффициента приX3.В каждой из этих двух моделей коэффициенты при X 2 иX 3 имеют очень высокую статистическую значимость.
Впервой модели изменчивость переменной X 2 объясняет95.04% изменчивости переменной Y ; во второй моделиизменчивостьпеременнойX3объясняет95.56%изменчивости переменной Y . С этой точки зрения,переменные X 2 и X 3 вполне заменяют друг друга, так чтодополнение каждой из редуцированных моделей недостающейобъясняющей переменной практически ничего не добавляя кобъяснению изменчивости Y (в полной модели объясняется4795.60% изменчивости переменной Y ), в то же время приводитк неопределенности в оценивании коэффициентов при X 2 иX3.Но коэффициент при X 2 в полной модели соответствуетсвязи между переменными X 2 и Y , очищенными от влиянияпеременной X 3 , тогда как коэффициент при X 3 в полноймодели соответствует связи между переменными X 3 и Y ,очищенными от влияния переменнойX 2 .
Поэтомунеопределенность в оценивании коэффициентов при X 2 и X 3в полной модели по-существу означает невозможностьразделения эффектов влияния переменных X 2 и X 3 напеременную Y .2Приведем значения Radj, S, AIC и SC для всех трехмоделей.2RadjПолнаяБез X 30.97020.9704S1.13241.1286AICSC3.2743.2113.4113.3030.97191.09913.1583.250X2Все четыре критерия выбирают в качестве наилучшеймодель с исключенной переменной X 2 .Мы не будем далее углубляться в проблемумультиколлинеарности, обсуждать другие ее последствия ивозможные способы преодоления затруднений, связанных смультиколлинеарностью. Заинтересованный читатель можетобратиться по этому вопросу к более полным руководствам поэконометрике.Без482.10.
ПРОВЕРКА ГИПОТЕЗ О ЗНАЧЕНИЯХКОЭФФИЦИЕНТОВ: ОДНОСТОРОННИЕ КРИТЕРИИВспомним пример с потреблением текстиля. Мыподобрали линейную модель в логарифмах (с постояннымиэластичностями)lgT = 1.3739 − 0.8289 lg P + 11432.lg DPI(здесь T — расходы на личное потребление текстиля, P —относительная цена текстиля, DPI - располагаемый доход). Врамках этой модели представляют интерес гипотезыH 0 : θ 2 = −1 и H 0 : θ 3 = 1 о «единичной эластичности»расходов на потребление текстиля как по доходам, так и поценам.Построить критерии с уровнем значимости α дляпроверки этих гипотез можно по той же схеме, по которойстроятся критерии проверки гипотез H 0 : θ j = 0 , толькотеперь для проверки гипотезыиспользовать t - статистикуθ$ 2 − ( −1) θ$ 2 + 1=,sθ$sθ$2H 0 :θ2= −1следует2а для проверки гипотезы H 0 :θθ$ 3 − 1.sθ$3= 1 — t - статистику3Каждая из этих статистик, в случае справедливостисоответствующей нулевой гипотезы, имеет распределениеt ( n − p ) = t (14 ) .
Нулевая гипотеза отвергается, если значениеt - статистики превышает по абсолютной величине значениеt 1− α (14 ) = t 0 . 975 (14 ) = 2 .145 .2В нашем примере49θ$ 2 + 1sθ$=−0.8289 + 1= 4.740 > 2.145 ,0.03612θ$ 3 − 1 11432−1.== 0.918 < 2.145 .sθ$0.15603Такимобразом,отклонениезначенияθ$ 2отгипотетического значения θ 2 = −1 статистически значимо —гипотеза H 0 :θ 2 = −1 отвергается. В то же время, отклонениезначения θ$ 3 от гипотетического значения θ 3 = 1 не являетсястатистически значимым, и гипотезаH 0 :θ 3 = 1 неотвергается.Замечание.