Н.И. Чернова - Лекции по матстату (1115348), страница 9
Текст из файла (страница 9)
Как, пользуясь таблицей стандартного нормального распределения, найти квантиль заданного уровня распределения H1 (с одной степенью свободы)?386.4Преобразования нормальных выборок~ = (X1 , . . . , Xn ) — выборка из N0,1 (набор независимых и одинаково распределенных велиПусть X10..чин).
Пусть C — ортогональная матрица (n × n), т.е. CC T = E = . Введем вектор.01~ =X~ · C с координатами Yi = Pn Xj Cji .Yj=1~ независимы и имеют стандартное нормальное распредеЛемма 8. Координаты вектора Yление.Доказательство. Воспользуемся свойством, утверждающим, что по характеристической функцииоднозначно восстанавливается распределение. Это верно и для характеристической функции вектора.Определение 19. Характеристической функцией вектора ξ~ = (ξ1 , . .
. , ξn ) называется функция переменного ~t = (t1 , . . . , tn )nPi~ ~Tϕξ~(~t) = Eeit·ξ = Eetj ξj.j=1~ равнаХарактеристическая функция вектора XiϕX~ (~t) = EenPtj Xjнезавис-ть=j=1nYEeitj Xj =j=1=nYϕXj (tj ) =j=1nYϕXj (tj ) =j=1−t2j /2enY− 12=enPj=1t2j(11).j=1~ =X~ · C:Вычислим х.ф. вектора Y~Ti~tYϕY~ (~t) = Ee~Ti~t CT X= Eehзаменим ii~uC·CT~TX~Ti~uX= ~= Ee= Eet = ~u · CPnPnТак как C ортогональна, то j=1 u2j = j=1 t2j (доказать!). Поэтому− 12ϕY~ (~t) = enPj=1u2j− 12=enPj=1− 21=enPj=1u2j(по (11)).t2j= ϕX~ (~t),~ распределен так же, как и вектор X.~и вектор Y~ = (X1 , .
. . , Xn ) ⊂~ =Лемма 9. Пусть X= N0,1 , независимы, C — ортогональная матрица и Y~X · C. Тогда для любого k = 1, . . . , n~ =T (X)nXXi2 − Y12 − . . . − Yk2 ⊂= Hn−k и не зависит от Y1 , . . . , Yk .i=1~ =X~ · C, то Pn X 2 = Pn Y 2 . ТогдаДоказательство. Поскольку Yi=1 ii=1 i~ =T (X)nX2Yi2 − Y12 − . . . − Yk2 = Yk+1+ . . . + Yn2 ⊂= Hn−ki=1и не зависит от Y1 , .
. . , Yk .39Второй и третий пункты следующего утверждения выглядят неправдоподобно, особенно если вспомнить обозначения:nn1X1 XX=Xi , S02 =(Xi − X)2 .n i=1n − 1 i=1Лемма 10 (Фишер). Если X1 , . . . , Xk независимы и имеют распределение Na,σ2 , то1.√ X −an⊂= N0,1 ;σ2.(n − 1)S02⊂= Hn−1 ;σ23. X и S02 независимы.Доказательство леммы Фишера.1. Очевидно (доказать, что очевидно!).2. Покажем сначала, что можно рассматривать выборку из стандартного нормального распределениявместо Na,σ2 :nX(n − 1)S02=2σi=1Xi − Xσ2=n XXi − aσi=1−X −aσ2=nX(zi − z)2 ,i=1Xi − aX −a.⊂= N0,1 , z =σσТо есть можно с самого начала считать, что Xi ⊂= N0,1 , и доказывать свойство 2 при a = 0, σ 2 = 1.где zi =Применим лемму 9.~ = (n − 1)S02 =T (X)nXXi − Xi=1Мы обозначилиY1 =√2=nXdefXi2 − n(X)2 =i=1nXXi2 − Y12 .i=1X1Xnn X = √ + ... + √ .nnЧтобы применить лемму 9, нужно найти ортогональную матрицу C такую,что Y1 — первая коорди11~ =X~ · C.
Возьмем матрицу C с первым столбцом √ , . . . , √ . Так как длинаната вектора Ynnэтого вектора — единица, его можно дополнить до ортонормальногобазиса(иначе— этот стол√бец можно дополнить до ортогональной матрицы). Тогда Y1 = n X и будет первой координатой~ =X~ · C.вектора YОсталось применить лемму 9 (непременно сделайте это!).~ = (n − 1)S 2 = Pn X 2 − Y 2 не зависит от Y1 = √n X, то есть3. Из леммы 9 сразу следует, что T (X)01i=1 iX и S02 независимы.Следующее следствие из леммы Фишера наконец позволит нам строить доверительные интервалы дляпараметров нормального распределения — то, ради чего мы и доказали уже так много утверждений.
Вкаждом пункте указано, для какого параметра мы построим доверительный интервал с помощью данногоутверждения.Следствие 5. 1.2.nPi=1Xi − aσ2√ X −an⊂= N0,1 — для a при σ известном;σ∗=nσ 2⊂= Hn — для σ 2 при a известном;σ2403.nPi=14.Xi − Xσ2=(n − 1)S02⊂= Hn−1 — для σ 2 при a неизвестном;σ2√ X −a √ X −anp 2 = n⊂= Tn−1 — для a при σ неизвестном.S0S0Доказательство следствия 5. 1) и 3) — из леммы Фишера, 2) — из следствия 4, осталось воспользоваться леммой Фишера и определением 18 распределения Стьюдента, чтобы доказать 4).√ X −a √ X −anp 2 = nS0| {zσ }1·sN0,1-6.5|%независ.(n− 1)S02σ21n−1}{zHn−1=rξ0χ2n−1n−1⊂= Tn−1 .Построение точных доверительных интервалов для параметров нормального распределения1.
Для a при известном σ 2 . Это мы уже построили:τ1−ε/2 στ1−ε/2 σPa,σ2 X − √<a<X+ √= 1 − ε, где Φ0,1 (τ1−ε/2 ) = 1 − ε/2.nn∗nnσ 21X2∗2. Для σ при известном a: по п.2 из следствия 5,⊂=H,гдеσ=(Xi − a)2 . Пустьnσ2n i=12g1 = χ2n,ε/2 и g2 = χ2n,1−ε/2 — квантили распределения Hn уровня ε/2 и 1 − ε/2. Тогда1 − ε = Pa,σ2∗nσ 2g1 << g2σ2= Pa,σ2∗nσ 2nσ 2< σ2 <g2g1∗.Искомый интервал построен.n3. Для σ 2 при неизвестном a: по п.3 из следствия 5,1 X(n − 1)S022⊂=H,гдеS=(Xi − X)2 .n−10σ2n − 1 i=1Пусть g1 = χ2n−1,ε/2 и g2 = χ2n−1,1−ε/2 — квантили распределения Hn−1 уровня ε/2 и 1 − ε/2. Тогда1 − ε = Pa,σ2(n − 1)S02g1 << g2σ2= Pa,σ2(n − 1)S02(n − 1)S02< σ2 <g2g1Искомый интервал построен.Упражнение. Найти 17 отличий п.2 от п.3..n√ X −a1 Xn⊂= Tn−1 , где S02 =(Xi − X)2 .S0n − 1 i=1Пусть a1 = tn−1,ε/2 и a2 = tn−1,1−ε/2 — квантили распределения Tn−1 уровня ε/2 и 1 − ε/2.
Заметим,что в силу симметричности распределения Стьюдента a1 = −a2 = −tn−1,1−ε/2 . Тогда4. Для a при неизвестном σ: по п.4 из следствия 5,1 − ε = Pa,σ2= Pa,σ2X−−tn−1,1−ε/2 <√ X −an< tn−1,1−ε/2S0=.tn−1,1−ε/2 S0tn−1,1−ε/2 S0√√<a<X+nnИскомый интервал построен.416.6Вопросы и упражнения1. Величины ξ1 и ξ2 независимы и имеют нормальное распределение N (0, 16).
Найти k, при которомвеличины ξ1 − 3ξ2 и kξ1 + ξ2 независимы. Можно использовать лемму 8.2. Доказать, что для величины χ2n ⊂= Hn справедлива аппроксимация Фишера:p√2χ2n − 2n ⇒ N0,1 ,и вывести отсюда, что при больших n для вычисления квантилей распределения Hn можно пользоваться аппроксимацией√√Hn (x) = P(χ2n < x) ∼ Φ0,1 ( 2x − 2n).Указание. Воспользоваться теоремой 9 (об асимптотической нормальности оценок вида H g(X) ).Вспомнить,что такое асимптотическая нормальность, в аппроксимации Фишера вынести за скобки√n и заменить χ2n суммой квадратов по определению 17.3. Изобразить квантили уровня ε/2 и 1 − ε/2 на графике плотности распределения Hn и Tn−1 .427П РОВЕРКА ГИПОТЕЗЕсли возможно выдвинуть несколько взаимоисключающих «гипотез» о распределении элементов выборки, то возникает задача о выборе одной из этих гипотез на основании выборочных данных.
Понятно,что по выборке конечного объема безошибочных выводов о распределении сделано быть не может, поэтому приходится считаться с возможностью выбрать неверную гипотезу.7.1Гипотезы и критерии~ = (X1 , . . . , Xn ), Xi ⊂Имеется выборка X= F. Как правило, если не оговорено противное, считается, чтовсе наблюдения имеют одно и то же распределение. В ряде случаев это предположение также нуждается в проверке (см., например, ниже: гипотеза об однородности или гипотеза о случайности) — в такихслучаях одинаковая распределенность наблюдений не предполагается. То же касается и независимостинаблюдений.Определение 20.
Гипотезой (H) называется любое предположение о распределении наблюдений:H:F = F1или H :eF ∈ {F}.Гипотеза H называется простой, если она однозначно определяет распределение (H :eH называется сложной гипотезой (H : F ∈ {F}).F = F1 ). ИначеЕсли гипотез всего две, то одну из них принято называть основной, а другую – альтернативой илиотклонением от основной гипотезы.Пример 25. Обычные постановки задач.1. Выбор из нескольких простых гипотез: H1 : F = F1 , H2 : F = F2 , ..., Hk : F = Fk(и другие предположения невозможны).2.
Простая основная гипотеза и сложная альтернатива: H1 : F = F1 , H2 : F 6= F1 .H1 : F = U0,1 , H2 : F 6= U0,1 .Например:e H2 : F 6∈ {F}.e3. Сложная основная гипотеза и сложная альтернатива: H1 : F ∈ {F},Например (гипотеза о виде распределения):H1 : F ∈ {Na,1 , a > 0}, H2 : H1 не верна.4.
Гипотеза однородности. Заданы несколько выборок~1 = (X11 , . . . , X1n ) ⊂X= F1 , ...1X~k = (Xk1 , . . . , Xknk ) ⊂= Fk .Проверяется гипотеза H1 : F1 = . . . = Fk — сложная гипотеза — против (сложной) альтернативыH2 : H1 не верна.5. Гипотеза независимости. Наблюдается пара случайных величин (ξ, η).По выборке (X,~ Y ) = ((X1 , Y1 ), . . . , (Xn , Yn )) проверяется гипотезаH1 : ξ и η независимы — сложная гипотеза — против (сложной) альтернативы H2 : H1 не верна.~ = (X1 , . . . , Xn ),6. Гипотеза случайности. Наблюдается n случайных величин (ξ1 , . . . , ξn ).
По выборке Xв которой каждая с.в. представлена одним значением, проверяется гипотезаH1 : ξ1 , . . . , ξn независимы и одинаково распределены — сложная гипотеза — против (сложной)альтернативы H2 : H1 не верна.Эту задачу ставят, например, если требуется проверить качество датчика случайных чисел.Определение 21. Если имеются гипотезы H1 , . . . , Hk , то критерием (нерандомизированным крите~ называется отображениерием) δ = δ(X)δ : Rn → {H1 , . . . , Hk }.43О рандомизированных критериях, которые предписывают принимать каждую гипотезу с некоторой(зависящей от выборки) вероятностью, мы поговорим позднее.Определение 22.
Для заданного критерия δ : Rn → {H1 , . . . , Hk } будем говорить, что произошлаошибка i-го рода, если гипотеза Hi отвергнута критерием, в то время как она верна. Вероятностью ошибки i-го рода называется число~ 6= Hi |Hi верна) = PH (δ(X)~ 6= Hi ).αi (δ) = P(δ(X)iДля краткости мы часто будем говорить «вычислить ошибку 1-го рода», вместо «вычислить вероятность ошибки 1-го рода».Пример 26.
Контроль качества и ошибки.Пусть любое изделие некоторого производства оказывается браком с вероятностью p. Контроль продукции допускает ошибки: годное изделие бракует с вероятностью γ, а бракованное признает годным свероятностью ε.Если ввести для данного изделия 2 гипотезы: H1 : изделие годное и H2 : изделие бракованное, и вкачестве критерия выбора использовать контроль продукции, то γ — вероятность ошибки 1-го рода, а ε— 2-го рода данного критерия.Упражнение.
Вычислить ошибки 1-го и 2-го рода того же критерия для проверки гипотез H1 : изделие бракованное и H2 : изделие годное.7.2Две простые гипотезыРассмотрим подробно случай, когда имеется две простые гипотезы о распределении наблюдений:H1 : F = F 1 ,H2 : F = F 2 .~ : Rn → {H1 , H2 }, он принимает не более двух значений. То есть областьКаков бы ни был критерий δ(X)nnR делится на две части R = S ∪ (Rn \S) так, что~ ∈ Rn \S,H1 , если X~δ(X) =~H2 , если X ∈ S.Область S называют критической областью.Определение 23. Ошибку 1-го рода критерия δ (в случае двух простых гипотез) обозначим α и назовем уровнем критерия:~ 6= H1 ) = PH (X~ ∈ S) defα1 (δ) = PH1 (δ(X)= α.1Ошибку 2-го рода критерия δ (в случае двух простых гипотез) обозначим β.