В.П. Носко - Эконометрика для начинающих (1160539), страница 4
Текст из файла (страница 4)
С этой целью, опятьрассмотрим диаграмму рассеяния, сосредоточившись на какойнибудь одной точке. Пусть в нашем примере это точка A =(7.1, 3.3). Опустим из этой точки перпендикуляр на осьабсцисс. Он пересечет прямую y = x в точке B = (7.1, 3.118) ипрямую y = α$ + β$ x в точке C = (7.1, 3.183), так что расстояниепо вертикали от точки A до прямой y = x , равное AB = 3.3 —3.118= 0.182, раскладывается в суммуAB = AC + BC.Отсюда находим, что расстояние по вертикали от точки Aдо прямой y = α$ + β$ x равно AC = AB — CB = 0.182 — (3.183— 3.118) = 0.117.Вообще, для любой точки ( x i , yi ) на диаграмме рассеянияможно записать:y i − y = ( y i − y$ i ) + ( y$ i − y ) ,где y$ = α$ + β$ x - ордината точки «наилучшей» прямой,iiимеющей абсциссу xi . Возведем обе части последнегопредставления в квадрат и просуммируем левые и правыечасти полученных для каждого i равенств:n∑(yni =1nn− y ) = ∑ ( y$ i − y ) + ∑ ( y i − y$ i ) + ∑ ( y i − y$ i )( y$ i − y ) .2i2i =1i =12i =1Входящая в правую часть суммаn∑ (yi =1n− y$ i ) = ∑ ei22ii =1называется чаще всего остаточной суммой квадратов(residual sum of squares) и имеет аббревиатуру RSS (Доугерти,Айвазян-Мхитарян, Себер), хотя в литературе поэконометрике можно встретить и такие варианты аббревиатуркак SSR (Green), а также ESS (error sum of squares — Harvey,Chatterjie) и SSE (Магнус-Катышев-Пересецкий).
Поэтому, причтении различных руководств по эконометрике следуетобратить особое внимание на то, какие именно термины иобозначения используются авторами.Заметим, что если β$ = 0 , то α$ = xи y$ i ≡ x .Следовательно, при β$ = 0nn∑ ( yi − y$ i ) = ∑ ( y i − y ) .i =12i =12При β$ ≠ 0 , по самому определению прямой y = α$ + β$ x ,имеемnni =1i =122∑ ( yi − y$i ) < ∑ ( yi − y ) .Тенденция линейной связи между x и y выражена вмаксимальной степени, если RSS = 0 . При этом, все точки( xi , yi ) , i = 1, 2,..., n, располагаются на одной прямойy = α$ + β$ x . Тенденция линейной связи между переменными xине обнаруживается вовсе, еслиynTSS = ∑ (y i − y ) .2Такимобразом,RSSестьсовпадает сопределенныеi =1основания предложить в качестве «меры выраженности» вданных наблюдений линейной связи между переменнымивеличину∑(yR2 = 1−∑(yi− y$ i )i− yi )2,2называемую коэффициентом детерминации.
Этоткоэффициент изменяется в пределах от 0 (при β$ = 0 , т. е.RSS = TSS ) до 1 (при RSS = 0 ),0 ≤ R2 ≤ 1 .Вернемся, однако, к полученному ранее представлениюn∑ (yi =1n− y ) в виде2innni =1i =1i =1222∑ ( yi − y ) = ∑ ( y$i − y ) + ∑ ( yi − y$i ) + 2∑ ( yi − y$i )( y$i − y )i =1и рассмотрим третью сумму в правой части этогопредставления.
Имеем:∑ ( yi − y$ i )( y$ i − y ) = ∑ ( yi − y$ i ) y$ i − y ∑ ei = ∑ ( yi − y$i )(α$ + β$ xi ) − y ∑ einni =1i=1= α$n∑einni =1i =1ni =1i =1n∑ (y+ β$i =1Ноnii =1( (∑ ei = ∑ y i − α$ + β$ x ini =1n− y$ i ) x i − y∑ei.i=1)) = 0(см. первое уравнение из системы нормальных уравнений).К тому же,n∑ (yn( ())− y$ i ) x i = ∑ y i − α$ + β$ x i x i = 0ii =1i =1(см.
второе уравнение из системы нормальных уравнений).Таким образом,n∑ (y− y$ i )( y$ i − y ) = 0 ,ii =1и, следовательно, справедливо представлениеn∑ (yi =1i− y)2nn= ∑ ( y$ i − y ) + ∑ ( y i − y$ i ) ,2i =12i =1так чтоnR2 = 1−nnn222∑ ( yi − y$i ) ∑ ( yi − y ) − ∑ ( yi − y$i )i =1n∑( yi =1i− y)=2i =1i =1n∑( yi =1i− y)∑ ( y$ − y )=22ii =1n∑( yi =1т. е. получено второе представление для R 2 в видеi− y),2n∑ ( y$ − y )2iR2 =i =1n∑ (yi =1i− y),2Стоящую здесь в числителе сумму квадратов мы будемназывать суммой квадратов, объясненной моделью(explained sum of squares), и будем использовать для ееобозначения аббревиатуру ESS, так чтоnESS = ∑ ( y$ i − y ) .2i =1Сумму квадратов, стоящую в знаменателе, будем называтьполной суммой квадратов (total sum of squares) и будемиспользовать для ее обозначения аббревиатуру TSS, так чтоnTSS = ∑ ( y i − y ) .2i =1Напомним также, что намиостаточная сумма квадратовnужебылаопределенаRSS = ∑ ( yi − y$ ) .2i =1Все эти три суммы квадратов связаны соотношениемTSS = ESS + RSS ,которое представляет собой разложение полной суммыквадратов на сумму квадратов, объясненную моделью, иостаточную сумму квадратов.
Используя эти три суммы, мынаходим также, чтоESSRSSR2 == 1−.TSSTSSТаким образом, значение R2 тем выше, чем больше доляобъясненной моделью суммы квадратов ESS по отношению кполной сумме квадратов TSS.Термины «полная» и «объясненная моделью» суммыквадратов имеют следующее происхождение. Полная суммаквадратов соответствует значению RSS в ситуации, когда β$ = 0и «наилучшая» прямая имеет вид y = y , отрицающий наличиелинейной зависимости y от x .
Вследствие этого, привлечениеинформации о значениях переменной x не дает ничего новогодля объяснения изменений значений y от наблюдения кнаблюдению. Степень этой изменчивости мы ужехарактеризовали значением выборочной дисперсииTSS1 nVar ( y ) =;( yi − y ) 2 =∑n − 1 i =1n−1при этом, TSS = RSS и ESS = 0 .В ситуации, когда β$ ≠ 0 , мы имеем нетривиальноепредставление TSS = ESS + RSS , с ESS ≠ 0 , и поэтому можнозаписать:TSSESS RSSVar ( y ) ==+.n−1 n−1 n−1НоnESS=n−1∑ ( y$i − y )i =1n−1∑ ( y$n2=i− y$i =1n−1)2= Var ( y$ ) ,где y$ — переменная, принимающая в i - м наблюденииnзначение y$ i . (Здесь мы использовали тот факт, что∑ei=0,i =1так чтоnnni =1i =1ni =1∑ ( y i − y$ i ) = 0 , ∑ y i = ∑ y$ in∑ (yi− y$ i )2∑eи y = y$ .) К тому же,n2i∑ (ei− e)2RSS i = 1== i =1= i =1= Var ( e) ,n−1n−1n−1n−1где e — переменная, принимающая в i - м наблюдениизначение ei .
(Здесь мы использовали тот факт, чтоne = ∑ ei / n = 0 .)i =1В итоге, мы получаем разложениеVar ( y ) = Var ( y$ ) + Var ( e ) ,показывающее, что изменчивость переменной y (степенькоторой характеризуется значением Var ( y ) ) частичнообъясняется изменчивостью переменной y$ (степень которойхарактеризуется значением Var ( y$ ) ).
Не объясненнаяпеременнойy$часть изменчивости переменнойyсоответствует изменчивости переменной e (степень которойхарактеризуется значением Var ( e) ).Таким образом, вспомогательная переменная y$ берет насебя объяснение некоторой части изменчивости значенийпеременной y , и эта объясненная часть будет тем больше, чемвыше значение коэффициента детерминации R 2 , который мытеперь можем записать также в видеVar ( y$ )Var ( e)= 1−.Var ( y )Var ( y )Поскольку переменнаяy$получаетсялинейнымпреобразованием переменной x , то изменчивость y$однозначно связана с изменчивостью x , так что, в конечномсчете, построенная модель объясняет часть изменчивостипеременной y изменчивостью переменной x .
Поэтому,принять говорить в таком контексте о переменной y как обобъясняемой переменной, а о переменной x — как обобъясняющей переменной.Вернемся опять к нашему примеру. В этом примереESS = 0.043474RSS = 0.161231TSS = 0.204705,так чтоVar ( y$ ) = 0.043474/16 = 0.002717,Var ( e) = 0.161231/16 = 0.010077,Var ( y ) = 0.012784,R2 =R 2 = 0.043474/0.204705 = 0.212374.Значениекоэффициентадетерминацииоказалосьдостаточно малым, и один из последующих вопросов будетсостоять в том, сколь близким к нулю должно быть значениеR2, чтобы мы могли говорить о практическом отсутствиилинейной связи между переменными.1.4. СВОЙСТВА ВЫБОРОЧНОЙ КОВАРИАЦИИ,ВЫБОРОЧНОЙ ДИСПЕРСИИ И ВЫБОРОЧНОГОКОЭФФИЦИЕНТА КОРРЕЛЯЦИИВернемся теперь к определению выборочной ковариации иотметим некоторые ее свойства.Пусть a — некоторая постоянная, а x i , y i , z i —переменные, принимающие в i - м наблюдении значенияx i , y i , z i , i = 1,K , n (n — количество наблюдений).
Тогда aможно рассматривать как переменную, значения которой в i м наблюдении ai равно a , иCov(x,a) =n1n −1∑ (xi − x)(a i − a ) =i =1n1n −1∑ (xi =1i− x )(a − a ) ,так чтоCov ( x , a ) = 0 .Далее, очевидно, чтоCov ( x , y ) = Cov ( y , x )и чтоCov ( x , x ) = Var ( x ) .Кроме того,Cov ( ax , y ) =1n −1nni =1i =1∑ ( axi − ax )( yi − y ) = a n1−1 ∑ ( xi − x )( yi − y ) ,так чтоCov ( ax , y ) = a Cov ( x , y ) .Наконец,Cov ( x , y + z ) ===так чтоn1n −1∑ (xn1n −1∑(x1n −1∑(x− x )( yi + zi − ( y + z ))(i− x ) ( yi − y ) + ( zi − z )i− x )( y i − y ) +i =1ni =1ii =1n1n -1∑(xi =1i)− x )( zi − z ) ,Cov ( x , y + z) = Cov ( x , y ) + Cov ( x , z) .На основе этих свойств, в частности, находим, чтоVar ( a ) = 0(постоянная не обладает изменчивостью),Var ( ax ) = a 2Var ( x ), Std . Dev .( ax ) = a ⋅ Std .
Dev ( x )(при изменений единицы измерения переменной в a раз,во столько же раз изменяется и величина стандартногоотклонения этой переменной),Var( x + a ) = Var( x )(сдвиг начала отсчета не влияет на изменчивостьпеременной).Наконец,Var( x + y ) = Cov( x + y , x + y ) == Cov( x , x ) + Cov( x , y ) + Cov( y , x ) + Cov( x , y ) ,т.
е.Var ( x + y ) = Var ( x ) + Var ( y ) + 2Cov ( x , y )(дисперсия суммы двух переменных отличается от суммыдисперсий этих переменных на величину, равную удвоенномузначению ковариации между этими переменными).Что касается выборочного коэффициента корреляции rxy ,то если изменяются начало отсчета и единица измерения,скажем, переменной x , так что вместо значений x1 ,K , x n мыполучаем значенияx~i = a + bxi , i = 1, K , n, (b > 0)переменной ~x = a + bx , то тогдаr~xy =Cov ( x~ , y )Cov (a + bx , y )==~Var ( x ) Var ( y )Var (a + bx ) Var ( y )=bCov ( x , y )= rxy .b Var ( x ) Var ( y )Иными словами, выборочный коэффициент корреляцииrxy , инвариантен относительно выбора единиц измерения и2начала отсчета переменных x и y .В то же время, этого нельзя сказать об оценке β$ xкоэффициентаβвмоделинаблюденийyi = α + β xi + ε i , i = 1,K , n.
. Действительно, если, скажем,мы переходим к новой единице измерения переменной x , такчто вместо значений x наблюдаются значения переменной~x = bx , то тогда оценка β$ ~x коэффициента β в моделинаблюдений yi = α + β x~i + ε i , i = 1, K , n , равнаCov ( ~x , y ) Cov (bx , y ) bCov ( x , y ) 1β$ ~x === 2= βx .Var ( ~x)Var (bx )b Var ( x ) bТаким образом, изменяя единицу измерения переменной x(или переменной y ), мы можем получать существенноразличные значения β$ , от сколь угодно малых до сколь угоднобольших.