Н.И. Чернова - Математическая статистика (1119916), страница 22
Текст из файла (страница 22)
Пусть случайный вектор ~ξ = (ξ1 , . . . , ξm ) имеетвектор средних ~a = E~ξ, пусть Σ — симметричная, невырожденная, положительно определённая матрица. Говорят, что вектор ~ξ имеет нормальное распределение N~a, Σ в Rm , если плотность этого вектора при всех~x ∈ Rm равнаno11T −1f~ξ (~x) = √ m pexp − (~x − ~a) Σ (~x − ~a) ,(39)( 2π)|detΣ|2Покажем, что матрица ковариаций случайного вектора, имеющегоплотность распределения (39), в точности равна Σ. Для вычисления «дисперсии» D~ξ поступим так же, как в одномерном случае: свяжем вектор ~ξс вектором ~η, имеющим многомерное стандартное нормальное распределение, а затем воспользуемся свойствами дисперсий.122ГЛАВА X. МНОГОМЕРНОЕ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕПусть вектор ~η состоит из m независимых стандартных нормальныхслучайных величин и имеет плотность распределенияon11 Tf~η (~x ) = √ m exp − ~x ~x .( 2π)2Матрица Σ симметрична, невырождена и положительно определена.√По лемме 10 (с.
117), существует симметричная матрица B = Σ. Положим ~ξ = B~η +~a и найдём распределение этого вектора. По теореме 17 (с.72), плотность распределения вектора ~ξ равнаf~ξ (~x ) = |det B|−1 · f~η B −1 (~x − ~a) =on11T−1 T −1= √ mpexp − (~x − ~a) (B ) B (~x − ~a) . (40)( 2π)|detΣ|2В показателе экспоненты в равенстве (40) стоит матрицаT(B −1 ) B −1 = B −1 B −1 = Σ−1 .Итак, вектор ~ξ имеет плотность распределения, заданную формулой (39). Найдём матрицу ковариаций этого вектора.
Вектор его математических ожиданий есть ~a. Действительно, E(B~η + ~a) = BE~η + ~a = ~a,поэтому сразу вычтем его:D~ξ = E B~η (B~η )T = B · E ~η ~η T · B T = BB T = Σ.Мы воспользовались тем, что E ~η ~η T = D~η = E — единичная матрица.Сформулируем результат предыдущих рассмотрений в виде теоремы.Т е о р е м а 31. 1. Пусть вектор ~η состоит из независимых стандартных нормальных случайных величин, B — невырожденная матрица. Тогда вектор ~ξ = B~η +~a имеет многомерное нормальное распределение N~a, Σ с вектором средних ~a и матрицей ковариаций Σ = BB T .2.
Пусть вектор ~ξ имеет многомерное нормальноераспределение√−1~N~a, Σ , где Σ > 0. Тогда вектор ~η = Bξ − ~a при B = Σ состоит из независимых стандартных нормальных случайных величин.Итак, имеет место замечательный факт: любой нормальный векторв Rm со сколь угодно зависимыми координатами, имеющий плотность совместного распределения, может быть умножением на подходящую невырожденную матрицу превращён в вектор, состоящий из независимых нормальных случайных величин. И наоборот, стандартный нормальный случайный вектор можно линейным преобразованием превратить в векторс заданным многомерным нормальным распределением.123§ 1. Свойства нормальных векторовНапомним, что по теореме 18 (с. 73) поворот, т. е.
умножение на ортогональную матрицу, не меняет совместного распределения координатстандартного нормального вектора. А что можно с помощью поворота сделать с произвольным нормальным вектором? Проверьте справедливостьследующей леммы.Л е м м а 11. Если вектор ~ξ имеет матрицу ковариаций Σ = D~ξ, томатрица ковариаций вектора ~η = B~ξ равна D~η = BΣB T .Однако симметричную положительно определённую матрицу Σ можноортогональными преобразованиями привести к диагональному виду:QΣQT = D = diag(σ21 , . . . , σ2m ).Вот почему любой нормальный вектор ~ξ подходящим поворотом ~η = Q~ξможно превратить в вектор с независимыми, но не обязательно одинаковораспределёнными координатами.З а м е ч а н и е 25.
Бывает удобно считать нормальным распределениевектора с вырожденной матрицей ковариаций, если поворотом этот вектор можно превратить в нормальный вектор «меньшей размерности», т. е.если Q~ξ = (η1 , . . . , ηk , ck+1 , . . . , cm ), где первые k координат имеют нормальное совместное распределение в Rk .З а м е ч а н и е 26.
Вектор, составленный из нормальных случайных величин, не обязательно имеет многомерное нормальное распределение. Так,= N0, 1 вектор (ξ, cξ) имеет вырожденную матрицу ковариацийдля ξ⊂1 cи не имеет плотности в R2 .c c2Поэтому в условиях следующей теоремы существование совместнойнормальной плотности координат вектора обязательно.Т е о р е м а 32. Пусть вектор ~ξ имеет многомерное нормальное распределение N~a, Σ с плотностью, заданной равенством (39).
Координатыэтого вектора независимы тогда и только тогда, когда они некоррелированы, т. е. когда матрица ковариаций Σ диагональна.Д о к а з а т е л ь с т в о. Только в случае диагональной матрицы Σ с элементами Σii = σ2i = D ξi квадратичная форма (~x − ~a)T Σ−1 (~x − ~a) превращается в сумму квадратовXX (x − a )2ii,(xi − ai ) · (Σ−1 )ij · (xj − aj ) =2i,jiσiи плотность (39) распадается в произведение плотностей координат.124ГЛАВА X. МНОГОМЕРНОЕ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕП р и м е р 45. Очень часто утверждение предыдущей теоремы трактуют следующим образом: если нормально распределённые случайные величины некоррелированы, то они независимы.
Это утверждение неверно:некоррелированные нормальные величины могут быть зависимы, и дажефункционально зависимы, если их совместное распределение не обладаетплотностью (39).= N0, 1 . Построим при некотором c > 0 случайную величинуПусть ξ ⊂(−ξ, если |ξ| 6 c,η=ξ иначе.= N0, 1 для любого c. Ещё проще проверяетсяЛегко проверить, что η ⊂зависимость ξ и η. Например, события {η ∈ (−c, 0)} и {ξ ∈ (−c, 0)}несовместны.
Но ковариация∞ZZc2222cov(ξ, η) = √x2 e−x /2 dx − √x2 e−x /2 dx2π2πc0выбором числа c может быть сделана нулевой.Так же как и одномерное, многомерное нормальное распределение часто возникает как предел распределений центрированных и нормированных сумм. Только теперь это должны быть суммы независимых случайных векторов.
Читатель поверит следующей теореме без доказательства,будучи в состоянии доказать её, как и в одномерном случае, с помощьюхарактеристических функций.(1)(2)Т е о р е м а 33 (м н о г о м е р н а я Ц П Т). Пусть ~ξ , ~ξ , . . . — последовательность независимых и одинаково распределённых случайных(1)векторов, каждый из которых имеет среднее E ~ξ = ~a и невырожден(1)(n)ную матрицу ковариаций Σ.
Обозначим через Sn = ~ξ + · · · + ~ξвектор частичных сумм. Тогда при n → ∞ имеет место слабая сходимость распределений векторов~η(n) =Sn − n~a√⇒ ~η, где ~η имеет распределение N~0, Σ .nВ условиях многомерной ЦПТ распределение любых непрерывныхфункций g ~η(n) слабо сходится к распределению g(~η ). В качестве g(~x )Pнам в дальнейшем будет нужна только g(~x ) = x2i = k~x k2 .С л е д с т в и е 2. В условиях многомерной ЦПТ имеет место сходимость k~η(n) k2 ⇒ k~η k2 .125§ 2.
Доказательство теоремы Пирсона§ 2. Доказательство теоремы ПирсонаПлан действий. 1. Сначала покажем, что статистика ρ критерияучаствующая в теореме Пирсона, есть квадрат нормы некоторогоS − n~ak -мерного вектора ~η(n) = n√. Затем убедимся в том, что матрица коnвариаций типичного слагаемого ~ξ(1) в сумме Sn вырождена, что мешаетиспользовать ЦПТ.2. Найдём поворот Q, приводящий ~ξ(1) к виду Q~ξ(1) = (ξ̂(1), 1), гдевектор ξ̂(1) ∈ Rk−1 уже имеет невырожденную и даже единичную матрицуковариаций. При том же повороте центрированный вектор ~η(n) перейдётв вектор Q~η(n) = (η̂(n), 0) с нулевой последней координатой. Но его нормане изменится из-за ортогональности матрицы Q.χ2 ,3.
К вектору сумм η̂(n) приме́ним многомерную ЦПТ. В пределе получим (k−1) -мерный нормальный вектор с нулевым средним и единичнойматрицей ковариаций, т. е. составленный из независимых величин со стандартным нормальным распределением. Воспользуемся следствием 2 и тем,что квадрат нормы этого вектора имеет распределение Hk−1 .Реализация.вспомогательный вектор-столбец из постоян√ 1.
Введём√ных P = ( p1 , . . . , pk ) ∈ Rk . С каждым элементом выборки Xi свяжем свой вектор-столбец ~ξ(i) , где i = 1, . . . , n, так:(i)I(X∈A)I(X∈A)1iik~ξ = (ξ1 , . . . , ξk ) =, ...,.√√p1pkПолучим n независимых и одинаково распределённых векторов. Видим,что ~a = E ~ξ(1) = P, поскольку EI(X1 ∈ Aj ) = pj для любого j = 1, . . . , k.Складывая векторы ~ξ(i) по i от единицы до n, центрируя и нормируя,получаем величину из многомерной ЦПТPn~ξ(i) − n~aνk − npkν1 − np1S − n~ai=1√, ..., √== n√.√np1npknnНайдём матрицу ковариаций вектора ~ξ(1) , составленную из элементовEI(X1 ∈ Ai , X1 ∈ Aj ) − pi pjI(X1 ∈ Ai ) I(X1 ∈ Aj )σij = cov,==√√√pjpi pj( pi(pi − pi pj , если i = j,1 − pi ,если i = j,1= √·=√pi pj0 − pi pj , если i 6= j− pi pj , если i 6= j.126ГЛАВА X.
МНОГОМЕРНОЕ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕУдобно записать эту матрицу ковариаций следующим образом: √ 10p1T.. . − . . . × √p1 . . . √pk .Σ = E − PP = √pk01Умножив её матрицу на вектор P справа, получим нулевой вектор. Действительно, ΣP = EP − P P T P = P − P = ~0, поскольку норма вектора Pравна единице: P T P = kP k2 = 1. Значит, столбцы матрицы Σ линейнозависимы и она вырождена.
Заметим также, чтоP T ~ξ(1) = I(X1 ∈ A1 ) + . . . + I(X1 ∈ Ak ) = 1.(41)2. Из равенства (41) мораль: если последняя строка ортогональной матрицы Q будет равна P T , то после умножения Q на ~ξ(1) получим векторс единичной последней координатой (а после центрирования — с нулевой).Пусть Q — любая ортогональная матрица с последней строкой P T .Вектор Q~ξ(1) имеет по лемме 10 матрицу ковариаций B = QΣQT . Убедимся, что B — почти единичная матрица (от единичной её отличает лишьпоследний диагональный элемент bkk = 0).Заметим сначала, что скалярное произведение i -й строки матрицы Qна вектор P, лежащий в её последней строке, равно нулю при i 6= kи единице при i = k, поэтому QP = (0, .