4. Математическая статистика. Ивченко_ Медведев (1984) (1186157), страница 7
Текст из файла (страница 7)
(х) лО прп л (О, прн х)О р«. (,) =Р(вт~х) =Р( — )с =й .),'х) =Э()'зт) — ср( — )слт), р; ( ) =р!:( ) =б'Осх) (2)с"х)+гй ( — Ф'х),'(2) х) =Ад(х). Таким образам, сумма квадратов и независимых нормальных мс (О, 1) случайных величин пмесг рзспределение ут(п). Применительно к статистическим задачам этот результат можно сформулировать сс!елующим абрам>м. Лемма 1.1.
Ц!ссгпо Х= (Х с,..., Х ) — выборка из о ("=) = .- ! '(О, 1). 'Тогда Ж (Х;+... + Х;;) = ут (и). В дальнейшем понадобится олио важное обобщение распределения хи-квадрат. Рассмотрим независимыг случайные величины т)!., .. т)„, где Ж(га) =вФ" (рн 1), с =1, ..., и. Па лемме 1.1сумыа ~~', (гн — рс)з имеет распределениг ст (и). Однако бывает необходимо ~=! знать распределение суммы квалратав салшх случайных величии т!» Распределение случайной величины (3е = т),"+...
+ т1„' называют нецентральным распределением хи-квадрат с и степенями свободы и параметром нецентральности У =р!+...+р„' и обознача!от символом тсе(п; У): 2'(Ут)=у'(и; Лт). Плотность /г„(х; У) этого распределения имеет внд (1.зз) «ст-д ч т («УР ,х ' тле!отсс ч (', х)О, л ° ' 2лг. С! 2суГ (л/2+ 31 с=з а первые два момента соответственно равны: Е(3е =и+ Хе, 1И/е =2 (и +2У). Если параметр У=О, то тз(п; У)=йт(п), т. е.
нецентральиое распределениг хи-каалрат переходит в обычное (центральное) распределение хи-квадрат. 2. Квадратичные н линейные формы от нормальных случайных величин. Пусть Х = (Х„ ..., Х„) — выборка из Ж (е) =не" (О, 1). л Рассмотрим квадратичную форму г~ = 1) асгХ;Хс = Х'АХ, гдг с.с-! 2$ матрица А=)ан)л и А' =Аа, и т линейных форм (а= ~~~~ бмХс, с=! А=1, ..., т, или в матричных обозначениях 1=ВХ, Здесь В— прямаугачьная матрица порядка тхп, а 1=(гы ..., 1„). Далее будем обозначать через О матрицу с нулевыми элементами и через Е„ — единичную матрицу порядка и.
Следующая лемма дает условие независимости случайных функций (~ и 1. Лемма 1.2. Если ВА = О, то функции Я и 1 независимы. П Матрица А действительна и симметрична, поэтому можно найти такую ортогональную матрицу 13 (т. е. 13.11'=Е„), что 13'А!3=0. Здесь 0 — диагональная матрица с элементами Лс- О, !'=1, ..., и, являющимися характеристическиыи числами матрицы А, т.
е. корнями характеристического уравнения де1 (А — ХЕ„)= =- О. Столбцами па матрицы 13 =)ид... п„( являются собственные векторы матрицы А, т. е, Ап,=Хаим й=1, ..., п. Пусть г — ранг матрицы А и Лд, ..., Л,— отличные от О характеристические числа, Эквивалентной формой записи А = 13013' (1.31) является спектральное предспшвление матрицы А: « А = ~ Хаиаиа. а=! (1,32) По условию леммы, О=ВА=,У, 'Ла(Вне)иа. а ! Умножим это равенство иа вектор и, справа.
В силу ортагоиальнасти векторов и,(идол=О при /гав) палучилт Вп,=О, в=1, ..., г. (1.зз) Рассмотрим теперь случайный вектор (1„..., г, и,'Х, ..., и,'Х). Этот вектор распределен по нормальному закону, поскольку пргдставляет собой линейное преобразование нарыальнага вектора Х, В то же время из представления (!.32) имеем Л д= ~ Л (Х'о )(и„'Х) = ~ч', Л (и„'Х)е; а=! а=! следовательно, утверждение булет доказано, если показать, чта сон(1» и',Х) =О, !'=1, ..., т; в=1, ..., г (атсюда следует независимость 1; и и',Х). Обозначая через Ьтс строки матрицы В (! = л Прн матричных преобразованиях векторы поннмают как вектор-стонбны; знак ' означает транспоннрованне.
= 1, ..., и), в силу соотношений (1.33) имеем соч (1ь и',Х) =со» (ЬкХ, и,'Х) = Е (Ь';Хн',Х) — Е (Ь,'Х) Е (и„'Х) = = Е(Ь;ХХ'н,) =Ь;Е(ХХ') н,=Ь,'Е„н,=О. Здесь и в да.чьнейшсм подматематическнм ожиданием матрицы (з»(, составленной нз случайных величин, понимаем равенство Е (5;г1= = 1! Еэ!г (- ° Рассмотрим две квадратичные формы: (/к=Х'АХ и ф=Х'ВХ. Лемма 1.3.
Если АВ=ВА=О, то Я! и Я! независимы. П Пусть для матрицы А справедливо представление (1.32), а спектральное представление матрицы В имеет вид 5 В = ~' »!ч!ч!, з = ганя В. !=! По условию, О=АВ=~ч~)кк»!иь(и(»!)»;. Умножив это равенство /, ! слева на но а справа на чр получим н,'»г=О, ! —.1, ..., г; /= = 1, ..., з, т.
е. векторы тл ортогональны всем векторам Отсюда, как н выше, имеем, что случайные величины н!Х и ч;'Х не коррелированы, а так как они совместно нормально распредек % лены, то и независимы. Но !гг=-.У, )кь(пьХ)к, !ее=~ »!(ч!Х)к, ь=! 1=! откуда следует нх независимость, ° 3, Распределения квадратичных форм от нормальных случайных величин. Обозначим через !гА след квадратной матрицы А, т. е. сумму ее диагональных элементов.
Имеет место следующее утверждение. Лемма 1.4. Пус!пь Я =Х'АХ и ганя А=г =.и. Если матрица А идемпо!пентна (Аь = А), то Ж (Я) = Х! (г) и при впюм г = 1г А. П Пусть для А справедливо представление (1.32); тогда из условий симметричности н идемпотентности А следует, что г )к=...=к,= ! и поэтому Я= У, '(нгХ)'. Из ортонормнрованносги ь=! векторов и* следует, что случанные величины н„'Х, й= 1, ..., г. независимы н нормальны к.г (О, 1); следовательно, Ж(Я)=тк(г). Наконец, используя легко проверяемое равенство 1г (АВ) =1г (ВА)„ нз формулы (!.31) находим 1г А = 1г (11'!)О) = 1г Р / Х!+...
+ к, = г. И Отметим как следствие предыдущих результатов утверждение, представляющее самостоятельный интерес. Теорема 1.9. Пусть и-мерный случайный вектор У имеет невырозкденное норггальное распределение еФ (р, Е). Тогда квадратичная ц!орма 1г=(У вЂ” /х)'Х вЂ” '(У вЂ” В) распределена пс закону Х'(и). С3 Пусть 1) — ортогоналшгая матрица, приводящая Х к диагональному виду: Р'ХР = О. По условию все диагональные элементы )ч матрицы 0 положительны, поэтому определена матрица эв Р-»' — диагональная матрица о диагональными элемеитамн Х; г. Рассмотрим вектор Х = Р-кгЧ/'(У вЂ” !ь). Используя известный факт, что если Ж(У)=ьг (р, Х) и У=1.У, где !.— заданная матрица линейного преобразования, то 2'(У) = и,/ (ЕР, 1.Х!.'), имеем Ж (Х) = вг (О, Е„).
Далее, У вЂ” р = () 0 г!ьХ; следовательно, Я = Х'О!!ЧЗ'Х-!!)РкгкХ = Х'Е„Х = Х'Х. Применяя лемму 1.4 (или лемму 1.1), получаем с ((е)=уз(п). ° Докажем теперь следующее важное утверждение выборочной теории, принадлежащее Р. Фишеру (1925 г.). Творе)иа 1ПО.
Пусть Х-= (Х„..., Х„) — выборка из распредеи ления ь/к'(р, а'), Тогда выборочные среднее Л'=(!/и) ~х', Х; и диск=! персия 3!=5'(Х)=(1/и) г (Х! — Х)! независимы; при етом к=! ЖЬ' и (Х вЂ” !к)/а) =иг" (О, 1), а ь" (пЯ'/а') =у!(п — 1). П Перейдем к новым случайным велит!нам г ! =(Х! — Р)/а, !=1, ..., и, которые образуют выборку У нз ./ (О, 1). Тогда У =(Х вЂ” р)/а и Зк(У) = (1/а~) Я'(Х). Поэтому достаточно доказать, что г и 5'(У) независимы и прн этом Ж()'и )г)=е/с(О, 1), Х (пз! (У)) = тк(п — 1). Рассмотрим и-мерный вектор-столбец Ь = =-(1/п, ..., 1/и)' и матрицу В=(Ь...Ы!, размер которой пхп. Заметим, что г =Ь'У, а пЮ~(У) =(У вЂ” ВУ)'(У вЂ” ВУ).
Отсюда п5е(У)=У'АУ, где матрица А=ń— В ндемпотентна. Теперь Ь'А=Ь' — Ь'В=Ь' — Ь'=О и, следовательно, по лемме 1.2, 1г н Ьь (У) независимы. Закон распределения У очевиден, а так как 1г А=(г Š— 1г В = =и — 1, то на основании леммы 1.4 Ж(пЗг(У))=Х'(и — 1). !йе 4. Распределение Стьюдента. По определению распределением Стыодента с п степенями свободы 8(п) называется распределение случайной величины !=ь/ Х /л (1.34) где случайные величины $ и у* независимы и прн этом с ф = /" (О, 1), Ж(т!) =тк(п).
Иногда это распределение называют !-распределением. Плотность з„(х) распределения Ь'(и) можно найти с помощью стандартного метода вычисления плотности распределения частного двух независимых случайных величин. Именно: пусть $ и т! — независимые случайные величины а плотностями/! и /ч соответственно. Тогда Рмч()= Ц /;()/.(У)д дУ= гк, г: к/ь (к! о СО = ") (! — Еь(гу))/,(у) ду+") р (гу)/ч(у) бу (1.35) 3! (1.38) Дифференцируя обе части равенства, получаем Ы(г) = ~ )1(гу)1,(у);у)ду.
(1.36) Если т) =): у'-'~., то, очевидно, сч(у)=0 при у(0; Тч(у) = = Р(!'у'-'П!.-=у)= Р(у'=--пут)=р„.(пу ) при усе О и ~ч(у) =„„-Р;( ! ) =2!«у~м(пу) (1.37) Полагая а (1.36) Ж(,'.)= ~" (О, 1), т)=У у",и и учитываясоатпо- шения'(1.37) и (1.27), нетрудйа показать, что плотность распре- деления Стьюдента имеет вид 1 Г ((л+ 1),'2) 1 1' пл Г (л)2) (1+ х','л)!" ' ~!'е Типичную стан«стпческую ситуацию, где имеет место распре- деление Стьюдепта, выра>кает следующая теорема. Теорема 1.11. Пусть Х =(Х„., Х„) — выборка из -г'(р, а') и ! =)/и — 1 — ', 3 (1.39) где Х и 5' — как обычно, выборочные среднее и дисперсия. Тогда при любом ав) 0 Ж(!) =5 (и — 1). Эта теорема — очевидное следствие теоремы 1.10 и определения распределения Стьюдента.
Тат факт, чта определенная соотношением (1.39) дробь ! и ее распределение не зависят ат параметра о", используют прп полу- чении различных статистических выводов а среднем нормального распределения, когда дисперсия также неизвестна, т. е, является мешающ«см» параметром. Подробнее об этом будет идти речь в соответствующих разделах (см. примеры 2.30, 4.13). В некоторых рассмотренных далее задачах бывает необходимо исключить влияние ие только дисперсии сге распределения )" (р, ае) (как это делают в соответствии с теоремой 1.11), но также и среднего р. В этом случае можно делать статистические выводы, не зависящие от параметров р и а', т. е.
являющиеся инвариант- ными относительно параметров модели. В таких задачах большую роль играет следующее утверждение. Теорема 1.12. Пусть Х=(Х», ..., Х„) и У=(У«, ..., 1' )— две независимые выборки из одного и того ясе распределения е4" (р, о'); Х, 5'(Х) и У, 5'(Ч) — соответствующие выборочныв средние и дисперсии и пусть тл (т+ л — 2) Х вЂ” «' (1.40) т+л ) лк» (Х) — , 'т3» (Т) Тогда при любых р и аз~О Х (1) = 5 (т+ и — 2). С) Па теореме 1.10, Яре(Х) =Х (п — 1), о -—ч ,.5 (Т)«=уе( — 1). В силу независимости выборок отсюда имеем: сх — Р! !».с тл Х вЂ” )' « Х вЂ” ) =вт" О, — + — ) или Ж~1г' —: =от' (О, 1), а ) 1'л т) !л+л а Х~(о —,[п5»(Х)+т5'(У)!) =-Хт(п!+и — 2), при этом случайные величины Х вЂ” У и п5»(Х)+ т5т(К) независимы.