Ю.В. Прохоров, Л.С. Пономаренко - Лекции по теории вероятностей и математической статистике (1115359), страница 22
Текст из файла (страница 22)
Обычно задают величину вероятностипервого рода α (ее называют уровнем значимости критерия) и ищут такое x0 , чтобы минимизировать вероятность ошибки второго рода β.Поскольку выполняется равенство P{X ≥ x0 } = α, то x0 = uα , нотогдаβ = Pa1 {X < uα } = Pa1 {X − a1 < uα − a1 } = Φ(uα − a1 ) = −uβ .При проведении выкладок мы использовали соотношения a0 = 0 < a1 =2.3. Таким образом, если α и β заданы заранее, то должны выполнятьсянеравенстваuα − a1 ≤ −uβ ⇐⇒ uα + uβ ≤ a1 ,то есть такие вероятности ошибок α и β возможны лишь в том случае,когда гипотеза и альтернатива достаточно далеки друг от друга.15014.3Лемма Неймана – ПирсонаЭта лемма может быть сформулирована несколькими способами.
Приведем наиболее удобную с нашей точки зрения.Мы начнем со случая конечного вероятностного пространства, когдаΩ = {ω1 , ω2 , . . . , ωs } состоит из конечного числа элементарных исходов,алгебра A содержит все подмножества и два возможных распределениявероятностей:XP0 (A) =p0 (ω),ω∈AP1 (A) =Xp1 (A)ω∈Aна измеримом пространстве (Ω, A).Для проверки основной гипотезыH0 : P = P0против конкурирующейH1 : P = P1строят критическое множество S и далее действуют по следующему правилу: если результат наблюдений ω ∈ S, то гипотезу H0 отвергают ипринимают H1 , если же ω ∈/ S, то принимают H0 и отвергают H1 .
Такойспособ действий называется критерием S. Каждому выбору S соответствуют вероятности ошибок первого и второго рода:α(S) = P0 (S) и β(S) = P1 (S).Теорема 14.1. Пусть 0 < α < 1 и существует Cα такое, что(ω)P0 {ω : pp01 (ω)≥ cα } = α. ВыберемS ∗ = {ω :p1 (ω)≥ cα }.p0 (ω)(14.4)Тогда для любого критерия S уровня α (P0 (S) = α)P1 (S ∗ ) ≤ P1 (S).Доказательство. Пусть S – произвольный критерий уровня α, а S ∗определяется в (14.4), тогдаα = P0 (S ∗ ) = P0 (S ∗ ∩ S) + P0 (S ∗ ∩ S),151α = P0 (S) = P0 (S ∗ ∩ S) + P0 (S ∗ ∩ S).Откуда получаемP0 (S ∗ ∩ S) = P0 (S ∗ ∩ S).Далее1 − β(S ∗ ) = P1 (S ∗ ) = ¶1 (S ∗ ∩ S) + P1 (S ∗ ∩ S),1 − β(S) = P1 (S) = P1 (S ∩ S ∗ ) + P1 (S ∗ ∩ S).мы желаем доказать, что β(S ∗ ) ≤ β(S) или, что то же самое, P1 (S ∗ ∩S) ≥P1 (S ∩ S ∗ ).ДействительноXXP1 (S ∗ ∩S) =p1 (ω) ≥ cαp0 (ω) = cα P0 (S ∗ ∩S) = cα P0 (S ∗ ∩S) =ω∈S ∗ ∩S= cαω∈S ∗ ∩SXω∈S ∗ ∩Sp0 (ω) ≥Xp1 (ω) = P1 (S ∗ ∩ S).ω∈S ∗ ∩SТеорема доказана.Определение 14.1.
Число 1 − β(S) называют мощностью критерияS.Критерий S ∗ в лемме Неймана – Пирсона минимизирует вероятностьошибки второго рода среди всех критериев уровня α. А это означает,что в данном классе критериев S ∗ максимизирует мощность, поэтомуего называют наиболее мощным критерием уровня α.Лемма Неймана-Пирсона показывает, как устроено наиболее мощноекритическое множество S ∗ :p1 (ω)∗∗≥ cα .(14.5)S = S (cα ) = ω :p0 (ω)В критическое множество S ∗ включаются те точки, вероятность которыхпри H1 существенно больше, чем при H0 . Заметим, что константа cαопределяется из условияP0 (S ∗ (cα )) = α,и поэтому для дискретных распределений cα существует не для всех α.Лемма Неймана-Пирсона была доказана нами для дискретных случайных величин, но ее формулировка и доказательство легко переносятся на непрерывный случай.152В классических задачах математической статистики как правило множество элементарных исходов Ω = Rn .
В качестве класса случайных событий обычно выбирают борелевскую σ−алгебру в Rn .Пусть на Rn заданы два распределения вероятностей P0 и P1 .В этих случаях результат наблюдения ω = (x1 , x2 , . . . , xn )- точка n−мерного пространства, а Xi (ω) - кординатные случайные величины, тоесть X1 (ω) = x1 , . . . , Xn (ω) = xn .Распределения будем рассматривать или дискретные, или непрерывные, имеющие плотность распределения вероятностей.Для k = 0, 1 p̂k (x1 , x2 , .
. . , xn ) будет обозначать либо совместнуювероятность Pk {X1 = x1 , . . . , Xn = xn }, либо совместную плотность~ = (X1 , . . . , Xn ). Еслираспределения компонент случайного вектора XX1 , . . . , Xn - независимые, одинаково распределенные случайные величины, тоp̂k (x1 , x2 , . . .
, xn ) = pk (x1 ) · pk (x2 ) · · · pk (xn ),где pk (xi ) обозначают или Pk {Xi = xi }, или плотность распределенияслучайной величины Xi при гипотезе Hk . Тогда наиболее мощное критическое множество (14.5) перепишется в виде∗∗S = S (cα ) =14.4pb1 (X1 , . . . , Xn )≥ cα .pb0 (X1 , .
. . , Xn )(14.6)Проверка гипотез о параметрах нормального распределенияПусть X1 , . . . Xn - независимые случайные величины, распределенныеодинаково по нормальному закону N (a, σ 2 ). Рассмотрим задачу о различении двух простых гипотез:H 0 : a = a0 ,H1 : a = a1 (a1 > a0 ).Отметим, чтоa0 = E0 Xi ,a1 = E1 Xi ,σ 2 = D0 Xi = D1 Xi .Индексы у математического ожидания и дисперсии показывают, по какому из распределений P0 или P1 вычислялись эти числовые характеристики.153Согласно лемме Неймана-Пирсона наиболее мощный критерий в этомслучае имеет вид) ( Xnp1 (Xj )p1 (X1 ) · · · p1 (Xn )0∗≥c = ω:ln≥c ,S = ω:p0 (X1 ) · · · p0 (Xn )p0 (Xj )j=1где c0 = ln c.ОбозначимWj = lnp1 (Xj ),p0 (Xj )при этом случайные величины W1 , .
. . , Wn независимы и одинаково распределены. Критическое множество можно переписать следующим образомS ∗ = {W1 + W2 + · · · + Wn ≥ c0 }.Вероятности ошибок первого и второго рода запишутся теперь какP0 {W1 + · · · + Wn ≥ c0 } = α,P1 {W1 + · · · + Wn < c0 } = β.Для нормального распределения все вычисления можно провести точно, что мы продемонстрируем позже.
Для других распределений будемвычислять искомые вероятности при n → ∞, пользуясь центральнойпредельной теоремой.Пусть по – прежнему uα — корень уравнения1 − Φ(uα ) = α,тогда при n → ∞c0 − nE0 W1W1 + · · · + Wn − nE0 W1√> √P0 {W1 + · · · + Wn > c } = P0nD0 W1nD0 W1 0c − nE0 W1≈1−Φ √= α.nD0 W10Из уравненияc0 − nE0 W1uα = √nD0 W1находимc0 = nE0 W1 + uαpnD0 W1 .Критерий S ∗ в этом случае называется асимптотическим, посколькуP0 {W1 + · · · + Wn } → α154≈при n → ∞.Для нормального распределения(x−a0 )21p0 (x) = √ e− 2σ2 ,σ 2π(x−a1 )21p1 (x) = √ e− 2σ2 .σ 2πПоэтомуWj = ln−(Xj − a1 )2 + (Xj − a0 )2p1 (Xj )a1 − a0a21 − a20==X−.jp0 (Xj )2σ 2σ22σ 2Но тогдаnn(a21 − a20 )a1 − a0 XX−.jσ 2 j=12σ 2W1 + · · · + Wn =Следовательно, критическое множество можно переписать в другом виде:( n) ( n)XX∗000S =Wj ≥ c =Xj ≥ c ,j=1где c00 = c0 +n(a21 −a20 )2σ 2·j=1σ2.a1 −a0nPВоспользуемся тем, чтоXj ∼ N (an; σ 2 n). Если верна гипотеза H0 ,j=1то E0 (nPj=1Xj ) = a0 n, D0 (nPXj ) = nσ 2 .
Если же верна H1 , тоj=1nnXXE1 (Xj ) = a1 n, D1 (Xj ) = nσ 2 .j=1j=1√Выберем c00 = na0 + uα σ n, тогда вероятность ошибки первого родаравнаPn( n)X−naj0X√j=1√≥ uα = 1−Φ(uα ) = α.P0Xj ≥ na0 + uα σ n = P0σ nj=1Вероятность ошибки второго рода равна( n)X√β = P1Xj < na0 + uα σ n =j=1155PnX−na√j1n(a1 − a0 ) (a1 − a0 ) nj=1√√P1).< uα −= Φ(uα −σσ nσ n Воспользовавшись тем, что Φ(−x) = 1 − Φ(x), получим√ (a1 − a0 )β = 1 − Φ( n− uα ) → 0σпри n → ∞.0Отметим также, что β зависит от величины a1 −a, характеризующейσ"расстояние"между гипотезами, измеряемого в масштабе σ.Лемма 14.1.
1). При x > 0121 − Φ(x) ≤ √ e−x /2 .x 2π2). При x > 11121 − Φ(x) ≥ √ (1 − 2 )e−x /2 .xx 2πДоказательство.11 − Φ(x) = √2πZ∞−u2 /2e1du ≤ √2πxZ∞u −u2 /212edu = √ e−x /2 .xx 2πxДоказательство второй части утверждения леммы можно посмотреть вучебнике Феллера, том 1.Воспользовавшись леммой, получим оценку для вероятности ошибкивторого рода:β ≤ ce−n/2 ,то есть эта вероятность убывает с ростом числа наблюдений n как геометрическая прогрессия.Выясним, сколько нужно иметь наблюдений, чтобы вероятность ошибки второго рода была меньше заданного числа β. Для этого решим неравенство√ a1 − a0√ a1 − a0+ uα ) ≤ β ⇐⇒ − n+ uα ≤ −uβ ⇐⇒Φ(− nσσ√ a1 − a0√σ≥ uα + uβ ⇐⇒ n ≥ (uα + uβ )⇐⇒nσa1 − a0156σ 2 (uα + uβ )2(uα + uβ )2= a1 −a0 2 .n≥(a1 − a0 )2( σ )(14.7)0Величину a1 −aназывают информационным расстоянием между гиσпотезами.
Чтобы различать близкие между собой гипотезы с малымивероятностями ошибок первого и второго рода необходимо проводитьдостаточно много наблюдений.В учебнике Б.А.Севастьянова приводится оценка для числа наблюдений n в задаче проверки гипотез о параметре биномиального распределения.14.5Проверка гипотез о параметре биномиального распределенияПусть A1 , A2 , . .
. , An — взаимно независимые случайные события, имеющие одинаковую вероятность p = P(Ai ). Рассмотрим следующую задачу:H0 : p = p 0 ,H1 : p = p1 (p0 < p1 ).Тогда при фиксированных значениях α, β ошибок первого и второгорода необходимо иметь число наблюдений n порядка√√(uα p0 q0 + uβ p1 q1 )2.(14.8)(p1 − p0 )2Так при p0 = 0.5, p1 = 0.5 + 0.01, α = 0.01, β = 0.05 получим необходимое число наблюдений n ≈ 38000.Различать близкие между собой гипотезы не так просто.
Оценкинеобходимого числа наблюдений в (14.7),(14.8) показывают, что числители дробей мало чувствительны к изменениям параметров, порядок ростаn определяют знаменатели этих дробей.157Глава 15Доверительные интервалы15.1Постановка задачи и основные определенияПусть случайные величины X1 , X2 , . . . , Xn — независимы и одинаковораспределены с функцией распределения F (x) = F (x, θ), зависящей отнеизвестного параметра θ ∈ Θ.Важной задачей математической статистики, как это уже отмечалосьранее, является задача оценивания неизвестных параметров.Всякую измеримую функцию от наблюдений T (X1 , . .