Ульянов (новое издание) (1115355), страница 24
Текст из файла (страница 24)
Учтем это:Φ(zε ) − Φ(z1−ε ) = ε − (1 − ε) = 2ε − 1,при этомzε =z1−ε =√√n(T (Y ) − θ1∗ ),n(T (Y ) − θ2∗ ).Отсюда находим:zεθ1∗ = T (Y ) − √ ,nzεθ2∗ = T (Y ) + √nи получаем доверительный интервал¶µzεzε.X − √ ,X + √nnЗамечание. Наличие решения зависело от монотонности функции(в случае монотонной функции легко получаем обратную), если же функция плотности ступенчатая, однозначно найти ε не удастся и в результате получим интервал удовлетворяющий неравенству P(θ1∗ < θ < θ2∗ ) > γ.Замечание. Если случайная величина X имеет функцию распределения FX (y), тоFX (X) — такая случайная величина, что при определенных дополнительных условиях, она равномерно распределена на [0; 1].(В частности, если случайная величина X имеет нормальное распределение, то случайная величина FX (X) ∼ U [0; 1]).17.1.2Метод, основанный на центральной статистикеПусть Y = (X1 , . .
. , Xn ) — выборка из распределения L(X).Определение 17.1. Центральная статистика — это случайная величинаV (Y, θ), удовлетворяющая двум условиям:1. Распределение V не зависит от θ;2. V (Y, θ) монотонна как функция θ.Если смогли найти такую функцию, тоПусть v1 и v2 :P(v1 < V (Y, θ) < v2 ) = γ, (3)так как V (Y, θ) монотонна по θ (для определенности считаем, что монотонно возрастает), то получаем θ1∗ и θ2∗ — решения уравненийV (Y, θi∗ ) = vi .123Тогда (3) эквивалентноP(θ1∗ < θ < θ2∗ ) = γ.Проиллюстрируем метод:Рассмотрим выборку из распределения L(X) ∼ N (µ, θ2 ) при условии, что µ известно,а θ2 — нет, и построим доверительный интервал для θ2 .Рассмотрим следующую случайную величину — кандидата на звание центральнойстатистики:¶2n µnXXi − µ1 X2V (Y, θ ) == 2(Xi − µ)2 .θθi=1i=1Проверяем условия:1.
Распределение V (Y, θ), очевидно, не зависит от θ (как сумма стандартно нормально распределенных случайных величин).2. V (Y, θ) монотонно убывает как функция θ2 .Следовательно, таким образом заданная функция V (Y, θ) является центрально статистикой.Определение 17.2. Случайная величина с распределением, совпадающим с распределениемZ12 + . .
. + Zn2 ,где Zi — независимые случайные величины со стандартным нормальным распределением, называется случайной величиной с χ2 -распределением с n степенями свободы с плотностью1y n/2−1 e−y/2 , при y > 0n/2pn (y) = 2 Γ(n/2)0,иначе.Обозначение — χ2n .Замечание. Заметим, что приn = 1 функция плотности не ограничена в нуле;1n = 2 имеем показательное распределение с параметром ;2n = 3 функция плотности на левой полуоси равна нулю, далее она возрастает, достигает максимуму и экспоненциально убывает. Найдем такие v1 , v2 , что площадьфигуры, ограниченной графиком плотности, двумя прямыми x = v1 и x = v2 и осьюабсцисс, в точности равна γ.
Естественно, что v1 , v2 находятся не единственным образом. Для определенности поместим на "хвосты"по половине остаточной массы, т.е. по (1 − γ)/2. Для нахождения v1 и v2 решаем следующие уравненияP(χ2n < v1 ) = (1 − γ)/2;P(χ2n > v2 ) = (1 − γ)/2;Из них v1 и v2 находятся однозначно(с помощью таблиц, пакетов).В результате получаем:P(v1 < χ2n < v2 ) = γ,где χ2n — центральная статистика, монотонно убывающая по θ2 . Тогда предыдущееравенство эквивалентно124nP2 i=1(Xi − µ)P< θ2 <v2nP2(Xi − µ) = γ.v1i=1Определение 17.3.
Центральным доверительным интервалом называется доверительный интервал, при котором на "хвостах"лежит одинаковая масса.Замечание. Критерием того, насколько хорошо выбран доверительный интервал,11−с коявляется его длина. В данном случае она пропорциональна разностиv1v2nPэффициентом пропорциональности(Xi − µ)2 . Таким образом, перед нами встаетi=1задача минимизации указанной выше разности при условии, чтоRv2pn (y)dy = γ. В яв-v1ном виде решения получить, вообще говоря, нельзя из-за вида функции плотности,так что для минимизации длины используются таблицы хи-квадрат распределения.17.1.3Метод, основанный на центральной предельной теоремеПусть X1 , .
. . , Xn из L(X), θ ∈ Θ, и считаем, что все нужные для дальнейшего рассмотрения производные и мат. ожидания существуют. Функция правдоподобия вданном случае имеет вид:pn (y, θ) =nYp(xi , θ),i=1где p — плотность случайной величины X. Так как случайные величины X1 , . . . , Xnнезависимы и одинаково распределены, то, рассмотрев производную по θ натурального логарифма функции правдоподобия, имеемnnX ∂X∂(ln pn (Y, θ)) =(ln p(Xi , θ)) =Zi ,∂θ∂θi=1i=1где случайные величины Z1 , . . . , Zn — независимы и одинаково распределены.По ЦПТ ∀c, d, c 6 d имеем:µ¶Z1 + .
. . + Zn − an→∞√P c66 d −−−→ Φ(d) − Φ(c), (4)σ nгде Φ(z) — функция стандартного нормального распределения, a = EZ1 , σ 2 = DZ1 .Ранее было доказано, чтоµ¶∂ ln p(X1 , θ)E= 0; (т. е. a = 0)∂θµµ 2¶¶2∂ ln p∂ ln p2σ = DZ1 = E= −E.∂θ∂θ2125Рассмотрим фукнциюn ∂ ln p(X , θ)Pi∂θVn (θ) = Ã µi=1¶2 !1/2 .∂ ln p(Xi , θ)E∂θПо ЦПТ распределение Vn (θ) → N (0, 1), т.
е. если нам нужно найти zγ — решениеследующего уравненияP(|Vn (θ)| < zγ ) = γ, (5)то заменяем уравнение (5) на предельноеΦ(zj ) − Φ(−zj ) = γ, (6)затем по таблицам или из пакетов программ находим из (6) zγ по заданному γ.Предположим, что неравенство|Vn (θ)| < zγ (7)разрешается относительно θ в виде интервала θ1∗ < θ < θ2∗ , тогда (θ1∗ , θ2∗ ) — доверительный интервал с надежностью γ.
Стоит заметить, что неравенство (7), вообщеговоря, не является однозначно разрешимым или разрешимым относительно θ.Пример. Рассмотрим выборку из Пуассоновского распределения:θkL(X) ∼ P ois(θ), θ > 0, P(X = k) = e−θ .k!В данном случаеnPpn (y, θ) = θi=1xi−nθennYY11nX −nθ=θ ex!x!i=1 ii=1 i⇒¢∂ ln pn1n¡= nX − n =X −θ∂θθθтогда• В силу неравенства Рао-Крамера X — эффективная оценка для θ.• Для нахождения оценок максимального правдоподобия нужно решить уравнение правдоподобия:∂ln pn (Y, θ) = 0, откуда∂θθ∗ = X,126т. е.
X — оценка максимального правдоподобия.Имеемµ 2¶µ¶µ ¶∂ ln pnnXXnDZ1 = E=E=nE=∂θ2θ2θ2θ⇒r¢n¡Vn (Y, θ) =X −θ ,θРешаем неравенство (7) в виде интервала относительно θ и, введя обозначениеszγ2XB(γ, n) = zγ+ 2,n4nполучаем, что доверительный интервал имеет видX+17.217.2.1zγzγ− B(γ, n) < θ < X ++ B(γ, n).2n2nПроверка статистических гипотезОбщая постановка проверки статистических гипотезПусть X1 , .
. . , Xn из L(X) ∈ P,т. е. есть некоторая статистическая структура (X, A, P), гдеX — совокупность всех возможных значений выборки,A — σ -алгебра,P — семейство вероятностных распределений.Основная задача — максимально сузить P, т. е. найти распределение, наиболеесоответствующее выборке.Определение 17.4. Статистической гипотезой называется любое предположение о распределении случайной величины X.Определение 17.5. Статистическая гипотеза называется простой, если предполагаемое семейство вероятностных распределений состоит в точности из одного распределения.Пример. Предположим, что имеется набор значений цен Pt в момент времени t, тоPt+1 − Ptгда Xt =— выборка относительных доходностей. Допустим, что известно,Ptчто Xt ∼ N (θ1 , θ22 ), тогда как только мы фиксируем оба параметра, то получаем простую гипотезу, например, Xt ∼ N (0.1, 0.001).Пусть нулевое предположение H0 : L(X) ∈ P0 , альтернатива H1 : L(X) ∈ P1 ,где P0 , P1 могут состоять как из одного, так и из больше числа распределений, и P0и P1 не пересекаются.17.2.2Типы гипотез• Гипотезы о виде распределения (например, X ∼ N (0, 0.001))• Гипотезы о проверке однородности выборки127Пример.
Предположим, что имеется несколько выборок:x11 , . . . , x1n1 ∼ L(X),x21 , . . . , x2n2 ∼ L(Y )тогда H0 : L(X) = L(Y ) (гипотеза об однородности)H1 : L(X) 6= L(Y ).В качестве содержательного примера можно рассмотреть следующий: имеютсядва метода лечения, старый и новый. Есть два набора результатов, количествокоторых n1 и n2 для старого и нового методов соответственно. Тогда в качествеH0 можно взять гипотезу о том, что новый метод не лучше старого.• Гипотезы о независимости признаковПусть имеется выборка (набор двумерных векторов), полученная из случайного вектора (X, Y )(x1 , y1 ), . . . , (xn , yn ) ∼ L(X, Y ).H0 : X, Y независимы,H1 : X, Y зависимы.Определение 17.6.
Статистическим критерием (критерием) называетсяправило, согласно которому гипотеза H0 принимается или отвергается.Пример. Допустим, что семейство вероятностных распределений состоит из двухраспределений P : N (0, 1), N (2, 1),H0 : L(X) ∼ N (0, 1),H1 : L(X) ∼ N (2, 1),и имеется всего лишь одно наблюдение x1 . Ясно, что графики функций плотностей,соответствующих кждому из распределений пересекаются в точке x = 1 и при x < 1график функции плотности, соответствующей распределению N (0, 1), лежит выше.Аналогично при x > 1 выше лежит график функции плотности, соответствующейN (2, 1).
В данном случае вполне логично рассмотреть следующий критерий:Если x1 < 1, то принимается гипотеза H0 .Естественно, что при проверке гипотез возможны ошибки.Определение 17.7. Ошибка первого рода — отвергается гипотеза H0 , приусловии, что она верна.Обозначение — H1 |H0 .Определение 17.8. Ошибка второго рода — считаем, что гипотеза H0 непротиворечит наблюдаемым данным, при условии, что она не верна.Обозначение — H0 |H1 .Определение 17.9. α = P(H1 |H0 ) — уровень значимости критерия.Определение 17.10.
1 − P(H0 |H1 ) = P(H1 |H1 ) — мощность критерия.Пример. Рассмотрим предыдущий пример, в котором критерием выбора гипотезыбыло сравнение значения x1 с xкрит. = 1. Тогда при xкрит. = 1 получимα = P(X1 > xкрит. |H0 ) = 1 − Φ(1) ≈ 0.17,β = P(H0 |H1 ) = P(X1 < xкрит. |H1 ) = Φ(−1) = 1 − Φ(1) ≈ 0.17.Ясно, что с ростом xкрит.