Хохлов Ю.С. - ПМСА для эконома (1185346), страница 3
Текст из файла (страница 3)
в. X.Аналогично, величина (1 − ρ2 ) показывает какую частьдисперсии (степени изменчивости) с.в. Y нельзя объяснить (линейным) влиянием с.в. X и необходимо привлекать другие факторы (переменные).Прежде, чем искать аппроксимацию Y через X в форме (1), нужно убедиться, что X влияет на Y , т. е. ρ 6= 0.Для аккуратной проверки этого предположения необходимо дополнительное ограничение, что случайный вектор(Y, X) имеет двумерное нормальное распределение. Мыхотим проверить гипотезуH0 : ρ = 0против альтернативыH1 : ρ 6= 0 .19Пусть имеем повторную выборку (X1 , Y1 ), .
. . , (XN , YN ) издвумерного нормального распределения. Для проверки гипотезы H0 о коэффициенте корреляции ρ естественно использовать выборочный коэффициент корреляцииR :=SY X,SX · SY(2.8)гдеSY X =N1 X(Yj − Ȳ )(Xj − X̄)N j=1– выборочная ковариация,SY2N1 X=(Yj − Ȳ )2N j=1– выборочная дисперсия для Y ,2SX=N1 X(Xj − X̄)2N j=1– выборочная дисперсия для X. Удобнее перейти к величине√RtN −1 = √·N −1 .(2.9)1 − R2Отметим, что величинаt2N −1 =R2· (N − 1)1 − R2измеряет соотношение объясненной и необъясненной частей дисперсии с.
в. Y .Теорема 2 . Если гипотеза H0 верна, то tN −1 имеет распределение Стьюдента с N − 1 степенью свободы.20Доказательство. Выше было показано, что имеет местопредставлениеYj = α + β · Xj + ej , j = 1, . . . , N ,причемσY,σXа случайные величины ej независимы между собой и отXj и имеют нормальное распределение со средним ноль иодинаковой дисперсией σ 2 . Отсюда мы видим, что наша задача эквивалентна задаче проверки гипотезы о равенственулю коэффициента β.
В следующем параграфе будет показано, что при справедливости этой гипотезы условноераспределение с.в. tN −1 при фиксированных значениях величин Xj , j = 1, . . . , N , есть распределение Стьюдента сN − 1 степенью свободы. Но тогда и безусловное распределение будет таким же.β =ρ·Далее, как обычно, для заданного α находим критическую константу tN −1 (α):P (|tN −1 | > tN −1 (α)) = α .Если реально полученное |tN −1 | будет больше tN −1 (α), тогипотеза H0 неверна и величины Y и X следует признатьзависимыми. В противном случае говорят, что эксперимент не показал значимого проявления корреляции (зависимости) Y и X.Замечание. В ППП по статистике проверка гипотезпроводится несколько иным (хотя и эквивалентным) образом.
Для реально полученного значения t∗N −1 статистикиtN −1 находят вероятностьP (|tN −1 | > |t∗N −1 |) = p ,21так называемый достигнутый уровень значимости(p-value), и сравнивают ее с заданным уровнем значимостиα (например, 0.05).Если мы не можем гарантировать нормального распределения случайного вектора (Y, X), то можно воспользоваться тем, что при больших N с. в. tN −1 имеет асимптотически нормальное распределение, если X и Y независимы.Если мы выявили, что корреляция есть, то хотелось бывыяснить величину коэффициента корреляции, например,построить для ρ доверительный интервал.
Для решенияэтой задачи Р. Фишер предложил рассмотреть с.в.1 1+Rln.2 1−RБыло доказано, что даже при небольших N эта величинаимеет приближенно нормальное распределение со среднимZ=1 1+ρρln+2 1 − ρ 2(N − 1)и дисперсией1.N −3Это позволяет строить доверительные интервалы и проверять гипотезы для ρ.Всюду далее мы будем использовать парные коэффициенты корреляции между различными переменными из набора Y, X1 , . . . , Xm . Обозначим для единообразия X0 = Yи введем матрицу CORR = (ρij ), состоящую из парных коэффициентов корреляции. Ясно, что ρii = 1 для i = 0, m.2.2.2Множественный коэффициент корреляцииЭтот коэффициент применяется для измерения величины линейной связи одной зависимой переменной Y от22нескольких объясняющих переменных X1 , .
. . , Xm .Пусть мы имеем случайный вектор (Y, X1 , . . . , Xm ) и ,как и ранее, ищем наилучшее линейное приближениеŶ = α + β1 · X1 + . . . + βm · Xm(2.10)с. в. Y с помощью с. в. X1 , . . . , Xm .Определение 2 . Множественным коэффициентом корреляции с. в. Y с набором с. в. X1 , . . . , Xm называетсячислоρY.X1 ,...,Xm := ρ(Y, Ŷ ) ,(2.11)где Ŷ есть наилучшее линейное приближение Y с помощью с. в. X1 , . .
. , Xm .Обозначимe = Y − Ŷошибку аппроксимации. В силу леммы о перпендикуляреŶ и e некоррелированы. ТогдаD(Y ) = D(Ŷ ) + D(e) .Далееcov(Y, Ŷ ) = D(Ŷ )иρ(Y, Ŷ ) = qD(Ŷ )D(Y )D(Ŷ )или,D(Ŷ ).(2.12)D(Y )Таким образом, квадрат множественного коэффициентакорреляции показывает какую часть дисперсии (степениизменчивости) с. в. Y можно объяснить совокупным линейным влиянием с. в.
X1 , . . . , Xm . Аналогично 1−ρ2 (Y, Ŷ )ρ2 (Y, Ŷ ) =23показывает какую часть дисперсии Y нельзя объяснитьвлиянием (изменением) с. в. X1 , . . . , Xm .Рассмотрим некоторые свойства множественного коэффициента корреляции.Теорема 3 .1) 0 ≤ |ρY.X1 ,...,Xm | ≤ 1 .2) |ρY.X1 ,...,Xm | равен максимальному по модулю простому коэффициенту корреляции между Y и c0 + c1 X1 + . . . +cm Xm = Ỹ и достигается на с.в.
Ŷ , которая являетсянаилучшим линейным приближением.3) Если ρY.X1 ,...,Xm = 0, то Ŷ = M (Y ).Если ρY.X1 ,...,Xm = 1, то Y = Ŷ .Доказательство. Свойство 1) следует непосредственноиз определения, т.к. таким свойством обладает простой коэффициент корреляции.Пусть мы имеем произвольное линейное приближениеỸ = c0 +c1 X1 +.
. .+cm Xm с.в. Y с помощью с.в. X1 , . . . , Xm .Если перейти к центрированным величинам (что не меняет коэффициента корреляции), то простой коэффициент корреляции между с.в. Ỹ и Y равен косинусу угламежду этими элементами в гильбертовом пространстве L2случайных величин с конечными вторыми моментами. Излинейной алгебры известно, что этот косинус принимаетмаксимальное по абсолютной величине значение на проекции элемента Y на соответствующее подпространство,т.е.
на наилучшем линейном приближении.Если множественный коэффициент корреляции равеннулю, то (после перехода к центрированным величинам),в силу свойства 2) мы получаем, что Y −M (Y ) ортогоналенко всем с.в. X1 , . . . , Xm . Отсюда следует, что Ŷ = M (Y ).Если множественный коэффициент корреляции равен1, то, в силу свойства 4) теоремы 1, мы имеем a · Ŷ + b = Y .24Так как Ŷ есть проекция Y , то a = 1, b = 0.Для множественного коэффициента корреляции можностроить доверительные интервалы и проверять гипотезы.Но соответствующие процедуры выглядят гораздо сложнее, чем для простого коэффициента корреляции.
Мы рассмотрим некоторые из них позднее.2.2.3Частный коэффициент корреляцииЧасто необходимо знать силу "чистого"влияния на зависимую переменную Y одного из факторов Xk , когда устранено влияние всех остальных факторов. Для этого используется частный коэффициент корреляции, который измеряет силу линейной связи между двумя переменными, когда устранено влияние других.Пусть мы имеем случайный вектор (Y, X1 , . .
. , Xm ). Выделим некоторый фактор Xk и обозначим через C совокупность всех остальных факторов. Обозначим через Y c и Xkcнаилучшие линейные оценки с.в. Y и Xk с помощью с.в.из набора C. Введем с.в.ZY = Y − Y c , ZXk = Xk − Xkc .Определение 3 .
Частным коэффициентом корреляциис.в. Y и Xk называется парный коэффициент корреляциис.в. ZY и ZXk , т.е.ρY Xk ·C := ρ(ZY , ZXk ) .Рассмотрим некоторые свойства этого коэффициента.Теорема 4 . 1) |ρY Xk ·C | ≤ 1.2) 1 − ρ2Y ·X1 ,...,Xk = (1 − ρ2Y ·X1 ,...,Xk−1 )(1 − ρ2Y Xk ·X1 ,...,Xk−1 ).3) ПустьŶ = α + β1 X1 + . .
. + βm Xm25есть наилучшее линейное приближение Y с помощью с.в.X1 , . . . , Xk . ТогдаσY ·C,βk = ρY Xk ·C ·σXk ·C2где σXи σY2 ·C – условные (остаточные) дисперсии с.в.k ·CXk и Y , когда устранено влияние с.в. из набора C.4) Если Xk и Xl некоррелированы с набором C, то ρkl·C =ρkl .Доказательство. Свойство 1) является очевидным.Для доказательства свойства 2) рассмотрим линейныепространства Lk−1 и Lk , порожденные набором с.в. Ck−1 ={X0 = 1, X1 , . . . , Xk−1 } и Ck = {X0 , X1 , .
. . , Xk } соответственно, а также ортогональное дополнение Lk−1,k пространства Lk−1 в Lk . Пусть Ŷk и Ŷk−1 есть проекции элемента Y на пространства Lk и Lk−1 соответственно, ek =Y − Ŷk , ek−1 = Y − Ŷk−1 . ТогдаY = Ŷk−1 + ek−1 = Ŷk + ek = Ŷk + (ek − ek−1 ) + ek−1 ,где все слагаемые в соответствующих суммах являютсяортогональными.Без ограничения общности все величины можно считать центрированными. Как показано выше,kek k2 = (1 − ρ2Y ·Ck )kY k2 , kek−1 k2 = (1 − ρ2Y ·Ck−1 )kY k2 .(2.13)Предположим, что Xk ∈/ Lk−1 , и представим его в видеXk = X̂k + Xk⊥ ,где X̂k ∈ Lk−1 , Xk⊥ ∈ Lk−1,k . Тогда по определению частного коэффициента корреляцииρY Xk ·Ck−1 = ρ(Y − Ŷk−1 , Xk − X̂k ) = ρ(ek−1 , Xk⊥ ) .26(2.14)Пространство Lk−1,k является одномерным и может бытьпорождено как элементом Xk⊥ , так и элементом ek−1 − ek .Тогдаρ(ek−1 , Xk⊥ ) = ρ(ek−1 , ek−1 − ek ) ==qCov(ek−1 , ek−1 − ek )D(ek−1 ) · D(ek−1 − ek )vuu D(ek−1 − ek ).=tD(ek−1 )В силу ортогональностиD(ek−1 ) = D(ek−1 − ek ) + D(ek ) .Из последних двух соотношений получаемkek k2 = D(ek ) = (1 − ρ2 (ek−1 , Xk⊥ )) · D(ek−1 )= (1 − ρ2 (ek−1 , Xk⊥ )) · kek−1 k2 .














