В.П. Носко - Эконометрика для начинающих (1160539), страница 5
Текст из файла (страница 5)
(Желательно выбирать единицы измерения такимобразом, чтобы сравниваемые переменные имели одинаковыйпорядок.) Близость значений β$ к нулю всегда должнаинтерпретироваться с оглядкой на используемые единицыизмерения переменных x и y .Отметим, в этой связи, полезное представление β$ в видеVar ( y ).Var ( x )Действительно,Cov ( x , y ) rxy Var ( x ) Var ( y )β$ ==,Var ( x )Var ( x )откуда и вытекает указанное представление. Из этогопредставления получаем, в частности, что при Var (x) = Var (y)имеет место равенство β$ = rxy , и тогда выраженность линейнойβ$ = rxyсвязи между x и y непосредственно отражается в близостизначения β$ к 1 или −1.Рассмотрим теперь коэффициент корреляции ryy$ междупеременными y и y$ , где y$ = α$ + β$ x , а α$ и β$ — оценкинаименьших квадратов параметров α и β гипотетическойлинейной связи между переменными x и y .
Замечая, чтоy = y$ + e (т.к. ei = y i − y$ i по определению), находим:Cov ( y , y$ )Cov ( y$ + e, y$ )ryy$ ==Var ( y ) Var ( y$ )Var ( y ) Var ( y$ )Cov ( y$ , y$ ) + Cov (e, y$ )=.Var ( y ) Var ( y$ )Но ранее мы уже получили (при выводе разложения дляTSS ) соотношениеn∑(yi =1i− y$ i )( y$ i − y ) = 0 ,nкоторое, с учетом соотношения∑(yi =1равенствуi− y$ i ) = 0 , приводит к1 n∑ ( yi − y$ i ) y$ i = 0 ,n − 1 i =1левая часть которого есть не что иное какCov ( e, y$ ) = Cov ( y − y$ , y$ ) .Следовательно,Var ( y$ )Var ( y$ )ryy$ ==,Var ( y )Var ( y ) Var ( y$ )так чтоVar ( y$ )ryy2$ == R2 .Var ( y )Последнее соотношение показывает, что коэффициентдетерминации равен квадрату коэффициента корреляциимежду переменными y и y$ , так что при достаточно сильновыраженной линейной связи между переменными x и y , чтосоответствует значению R 2 , близкому к 1 , оказываетсяблизким к 1 и коэффициент корреляции между переменнымиy и y$ .По причинам, которые будут ясны из дальнейшегорассмотрения,ryy$называютмножественнымкоэффициентом корреляции (multiple-R, множественныйR).Отметим также, что переменная y$ измеряется в тех жеединицах, что и переменная y , и при изменении масштабаизмерения переменной y значение ryy$ не изменяется.
Отсюдавытекает, что коэффициент детерминации R2 инвариантенотносительно изменения масштаба и начала отсчетапеременных x и y .Заметим, наконец, чтоCov ( y , y$ )Cov ( y , α$ + β$ x )=Var ( y ) Var ( y$ )Var ( y ) Var (α$ + β$ x )β$ Cov ( y , x )sign( β$ ) ⋅ Cov ( y , x )==.Var ( y ) Var ( x )Var ( y ) β$ 2Var ( x )(здесь sign(z)=-1 для z<0, sign(z)=0 для z=0, sign(z)=1 для z>0)Поскольку жеCov ( x , y )β$ =,Var ( x )то sign( β$ ) = sign(Cov ( x , y )) , иryy$ =ryy$ = sign(Cov ( x , y )) ⋅ rxy ,так чтоryy2$ = rxy2 = R 2 ,и мы можем установить значение R2 еще до построениямодели линейной связи.ЗамечаниеЕсли rxy < 0 , то sign( Cov( y , x )) = −1 и ryy$ > 0 ; если rxy > 0 ,то sign( Cov( y , x )) = 1 и ryy$ > 0 , так что всегда ryy$ > 0 .1.5.
«ОБРАТНАЯ» МОДЕЛЬ ПРЯМОЛИНЕЙНОЙ СВЯЗИПусть наша задача состоит в оценивании моделипрямолинейной связи между некоторыми переменными x и yна основе наблюдений n пар ( xi , yi ), i = 1,K , n, значений этихпеременных. Мы уже рассмотрели вопрос об оцениваниипараметров такой связи, исходя из модели наблюденийyi =(α + β xi ) + ε i , i = 1,K , n . Что изменится, если мы будемисходить из «обратной» модели xi =(α + β yi ) + ε i , i = 1,K , n ?Пусть α$ xy , β$ xy — оценки параметров α и β в моделинаблюдений x =(α + β y ) + ε , i = 1,K , n , а α$ , β$—iiiоценкипараметроввмоделиyi =(α + β xi ) + ε i , i = 1,K , n . Тогдаyxyxнаблюдений2β$ xy ⋅ β$ yxт.
е.β$ ⋅ β$xyyxCov ( x , y ) Cov ( x , y ) Cov ( x , y ) ,=⋅= Var ( y )Var ( x ) Var ( y ) Var ( x ) = rxy2 ,илиβ$ xy ⋅ β$ yx = R 2 .В то же время, по первой модели наблюдений мы получаемнаилучшую прямуюx = α$ xy + β$ xy y ,а по второй — прямуюy = α$ yx + β$ yx x .Первую прямую мы можем записать в видеy=−α$ xy+β$ xy1x.β$xyСравнивая коэффициенты при x в двух последнихуравнениях, находим, что эти коэффициенты равны в том итолько в том случае, когда выполнено соотношение1β$ yx =,$βxyт. е.β$ ⋅ β$yxxy=1,или, с учетом предыдущего, когда R 2 = 1 .Что касается отрезков на осях, то они будут совпадатьтогда и только тогда, когдаα$ xyα$ yx = −,β$xyилиα$ yx ⋅ β$ xy = −α$ xy .Ноα$ yx = y − β$ yx x ,так чтоα$ yx ⋅ β$ xy = ( y − β$ yx x )β$ xy = y β$ xy - β$ yx β$ xy x .При R 2 = 1 получаемα$ yx ⋅ β$ xy = y β$ xy - x .В то же время,α$ xy = − x + β$ xy y ,4так что при R 2 = 1 совпадают и отрезки на осях, т.
е.наилучшая прямая одна и та же при обеих моделяхнаблюдений, и это есть прямая, на которой расположены всенаблюдаемые точки ( x i , yi ), i = 1, K , n.Иными словами, наилучшие прямые, построенные по двумальтернативным моделям, совпадают в том и только в томслучае, когда все точки ( x i , yi ), i = 1, K , n , расположены наодной прямой (так что e1 , K , en = 0 ); при этом, R 2 = 1 . Впротивном случае, R 2 ≠ 1 и подобранные «наилучшие» прямыеимеют разные угловые коэффициенты.Кстати, в рассмотренном нами примере с уровнямибезработицы, диаграмма рассеяния с переставленными осямимоделинаблюдений(соответствующимиxi =(α + β yi ) + ε i , i = 1,K , n ) имеет видРИС.
57,5ZVET76,565,52,83,13,4BEL5Количество точек с совпадающими знаками отклоненийкоординат от средних значений равно 10 (4+ 6, с учетомсовпадений), а число точек с противоположными знакамиотклонений координат от средних значений равно 7 (4+3, сучетом совпадений). Соответственно, «облако точек» имеетнекоторуювытянутостьвдольнаклоннойпрямой,проведенной через «центр» облака. «Наилучшая» прямая имеетвидx = 1.291 + 1.695 y ;коэффициент детерминации равенR 2 = 0.212374.Произведениеугловыхкоэффициентов0.125265 и1.695402 наилучших прямых в «прямой» и «обратной» моделяхнаблюдений равно 0.212374 и совпадает со значением R2.Отметим, что несовпадение наилучших прямых, конечно,связано с тем, что в этих двух альтернативных моделяхнаблюдений мы минимизировали различные суммы квадратов:в «прямой» модели мы минимизировали сумму квадратовотклонений точек от подбираемой прямой в направлении,параллельном оси y , а во втором — в направлении,параллельном оси x .1.6.
ПРОПОРЦИОНАЛЬНАЯ СВЯЗЬ МЕЖДУПЕРЕМЕННЫМИХотя на практике не рекомендуется отказываться отвключения свободного члена в уравнение подбираемойпрямолинейной связи, если только его отсутствие необосновывается надежной теорией (как в физике — законОма), мы все же иногда сталкиваемся с необходимостьюподбора прямой, проходящей через начало координат.
Позднеемы приведем соответствующие примеры.6Итак, пусть мы имеем наблюдения ( x i , yi ) , i = 1, K , n , ипредполагаем, что гипотетическая линейная связь междупеременными x и y имеет видy=βx(пропорциональная связь между переменными), так что ейсоответствует модель наблюденийy i = β x i + ε i , i = 1,K , n. .Применение метода наименьших квадратов в этойситуации сводится к минимизации суммы квадратов невязокnQ( β ) = ∑ ( y i − β x i )2i =1по всем возможным значениям β . Последняя суммаквадратов является функцией единственной переменной β(при известных значениях xi , yi , i = 1, K , n ), и точкаминимума этой функции легко находится.
Для этого мыприравниваем нулю производную Q( β ) по β :∑ (y)n2− β$ x i ( − x i ) = 0 , (нормальное уравнение)ii =1откуда получаем:nn∑ y i xi = β$∑xi =1i =12i,илиnβ$ =∑y xii =1n∑xi.2ii =1Отсюда видно, что при таком подборе7Cov ( x , y ),Var ( x )и точка ( x , y ) уже не лежит, как правило, на подобраннойпрямойy = β$ x .Более того, в такой ситуацииβ$ ≠nnn∑ ( yi − y ) ≠ ∑ ( y i − y$ i ) + ∑ ( y$ i − y ) ,2i =12i =12i =1гдеy$ i = β$ x i ,и поэтому использовать для вычисления коэффициентадетерминации выражениеnR2 =∑ ( y$i− y)∑(yi− y)i =1ni =122не имеет смысла.
В этой связи полезно рассмотретьследующий искусственный пример.ПримерПусть переменные x и y принимают в четырехнаблюдениях значения, приведенные в следующей таблицеi1234xi103–10-3yi113-9-3соответствующей диаграмме рассеяния812Y0-12012-12Xи мы предполагаем пропорциональную связь между этимипеременными, что соответствует модели наблюденийyi = β xi + ε i , i = 1,2,3,4. Для этих данныхnβ$ =∑y xii =1n∑xi=1 ,2ii =1так что y$ i ≡ x i , i = 1,K , n . При этом,RSS = (11—10)2 + (3-3)2+ (-9+10)2+ (-3+3)2 = 2,TSS = (11-0.5)2+ (3-0.5)2+ (-9-0.5)2+ (-3-0.5)2 = 219,ESS = (10-0.5)2+ (3-0.5)2+ (-10-0.5)2+ (-3-0.5)2 = 219,так что здесь RSS + ESS ≠ TSS , и вычисление R 2 поформулеR 2 = ESS TSSприводит к значению R 2 = 1 . Но последнее возможнотолько если все точки ( x i , yi ), i = 1,2,3,4, лежат на однойпрямой, а у нас это не так.
Заметим также, что в этом примересумма остатков e1 + e2 + e3 + e4 = 2 ≠ 0 , что невозможно вмодели с включением в правую часть постояннойсоставляющей.Можно, конечно, попытаться справиться с возникающимпри оценивании модели без постоянной составляющей9затруднением, попросту игнорируя нарушение соотношенияRSS + ESS = TSS и определяя коэффициент детерминациисоотношениемR 2 = 1 − ( RSS TSS ) ,и именно такое значение R 2 приводится в протоколахнекоторых пакетов программ анализа статистических данных,например пакета ECONOMETRIC VIEWS (TSP). Для нашегоиллюстративного примера с четырьмя наблюдениямииспользованиепоследнегоприводиткзначению2R = 1 − (2 219) = 0.990860 , которое не противоречит интуициии представляется разумным.
Однако, к сожалению, и такойподход к определению коэффициента детерминации не решаетпроблемы, поскольку, в принципе, при оценивании модели безпостоянной составляющей возможны ситуации, когдаRSS > TSS , что приводит к отрицательным значениям R 2 .ПримерПусть переменные x и y принимают в четырехнаблюдениях значения, приведенные в следующей таблицеixiyi100.520.20.8что соответствует диаграмме рассеянияY300102X430.41.2432и мы предполагаем пропорциональную связь между этимипеременными, что соответствует модели наблюденийyi = β xi + ε i , i = 1,2,3,4. Для этих данных β$ = 0.721739 .
Приэтом, RSS = 1.537652 , TSS = 1.2675 , и вычисление R 2 поформуле R 2 = 1 − ( RSS TSS ) приводит к отрицательномузначению R 2 = −0.213138.Преодолеть возникающие затруднения можно, еслиопределить R 2 в модели наблюдений без постояннойсоставляющей формулойRSSR2 = 1− n,2∑ yii =1вкоторойиспользуетсясуммаквадратовнецентрированных значений переменной y (отклоненийзначений переменной y от «нулевого уровня»).
При такомопределении,неотрицательностькоэффициентаR2гарантируется наличием соотношенияn∑yi =1n2in= ∑ ( y i − y$ i ) + ∑ y$ i2 ,2i =1i =1которое отражает геометрическую сущность методанаименьших квадратов (аналог знаменитой теоремы Пифагорадля многомерного простанства) и выполняется как для моделибез постоянной составляющей, так и для модели с наличиемпостоянной составляющей в правой части моделиnнаблюдений. Деля обе части последнего равенства на∑y2i,i =1приходим к соотношению11n1=∑ (y− y$ i )ii =1n∑yn∑ y$2+2ii =1ii =1n,∑y2ii =1из которого непосредственно следует, чтоnR = 1−22∑ ( y i − y$ i )i =1n∑y2ii =1n∑ y$=ii =1n∑y≥0.2ii =1(Доказать заявленное равенство не сложно.