1625915145-5b3debabab98d9e994cc3a1bc8da0f5b (843876), страница 15
Текст из файла (страница 15)
Вычислить вероятности ошибок первого и второгорода того же критерия, если гипотезы занумеровать иначе:{}{}H1 = изделие бракованное , H2 = изделие годное .Надеемся, что читатель на основании своего опыта и воображения сделал для себя следующие выводы.1. Статистический критерий не отвечает на вопрос, верна или нет проверяемая гипотеза. Он лишь решает, противоречат или не противоречатвыдвинутой гипотезе выборочные данные, можно ли принять или следуетотвергнуть данную гипотезу.2. Вывод «данные противоречат гипотезе» всегда весомее и категоричнее, нежели вывод «данные не противоречат гипотезе».3.
Нам неизвестно, какая из гипотез верна в действительности, поэтомуследует считаться с гипотетическими вероятностями ошибок критерия.Смысл этих ошибок в следующем: если много раз применять критерийк выборкам из распределения, для которого гипотеза Hi верна, то в среднем доля αi таких выборок будет признана противоречащей гипотезе Hi .82ГЛАВА VII. ПРОВЕРКА ГИПОТЕЗ§ 2. Подходы к сравнению критериевРассмотрим подробно случай, когда имеются две простые гипотезыо распределении наблюденийH1 = {F = F1 } и H2 = {F = F2 }.⃗ принимает не более двух значений. Это ознаТогда любой критерий δ(X)чает, что область Rn делится на две части Rn = S ∪ (Rn \S) так, что{⃗ ∈ Rn \S,H1 , если X⃗δ(X) =⃗ ∈ S.H2 , если XОбласть S, в которой принимается вторая (альтернативная) гипотеза,называется критической областью.О п р е д е л е н и е 24. Вероятность ошибки первого рода α1 = α1 (δ)иначе называют размером или критическим уровнем критерия δ :⃗ ̸= H1 ) = PH (δ(X)⃗ = H2 ) = PH (X⃗ ∈ S).α1 = α1 (δ) = PH (δ(X)111Мощностью критерия δ называют величину 1 − α2 , где α2 = α2 (δ) —вероятность ошибки второго рода критерия δ.
Мощность критерия равна⃗ ̸= H2 ) = PH (δ(X)⃗ = H2 ) = PH (X⃗ ∈ S).1 − α2 (δ) = 1 − PH (δ(X)222Заметим, что вероятности ошибок первого и второго рода вычисляютсяпри разных предположениях о распределении (верна H1 либо верна H2 ),поэтому никакими фиксированными соотношениями вида α1 ≡ 1− α2 этиошибки не связаны.Как сравнивать критерии? Разумеется, критерий тем лучше, чем меньше вероятности его ошибок. Но если сравнивать критерии по двум вероятностям ошибок одновременно, чтобыαi (δ1 ) ⩽ αi (δ2 )приi = 1, 2,то слишком многие критерии окажутся несравнимыми. Например, рассмотрим два крайних случая, когда критерий, независимо от выборки,всегда принимает одну и ту же гипотезу.⃗ ≡ H1 всегда выбирает первуюП р и м е р 36. Пусть критерий δ(X)гипотезу.
Тогда α1 = PH1 (δ = H2 ) = 0, α2 = PH2 (δ = H1 ) = 1.⃗ ≡ H2 всегда выбирает вторую гипотеНаоборот: пусть критерий δ(X)зу. Тогда α1 = PH1 (δ = H2 ) = 1, α2 = PH2 (δ = H1 ) = 0.§ 2. Подходы к сравнению критериев83П р и м е р 37. Имеется выборка объёма n = 1 из нормального распределения Na, 1 и две простые гипотезы H1 = {a = 0} и H2 = {a = 1}.Рассмотрим при некотором b ∈ R следующий критерий:{H1 , если X1 ⩽ b,δ(X1 ) =H2 , если X1 > b.Изобразим на графике (рис. 10) соответствующие гипотезам плотностираспределений и вероятности ошибок первого и второго рода критерия δα2 = PH2 (X1 ⩽ b).α1 = PH1 (X1 > b),N0,1N1,1α20α1b1Рис. 10.
Две простые гипотезыВидим, что с ростом числа b вероятность ошибки первого рода α1уменьшается, но вероятность ошибки второго рода α2 растёт.Итак, примеры 36 и 37 показывают общую тенденцию: при попыткеуменьшить одну из вероятностей ошибок другая, как правило, увеличива⃗ ∈ S) за счёт сужения критическойется. Так, если уменьшать α1 = PH1 (Xобласти S, то одновременно будет расти вероятность ошибки второго ро⃗ ∈ S).да и уменьшаться мощность критерия 1 − α2 = PH2 (XПеречислим общепринятые подходы к сравнению критериев. Ограничимся для простоты задачей проверки двух простых гипотез. Пусть имеются критерии δ и ρ с вероятностями ошибок первого и второго родаα1 (δ), α2 (δ) и α1 (ρ), α2 (ρ).Минимаксный подход. Говорят, что критерий δ не хуже критерия ρ всмысле минимаксного подхода, еслиmax{α1 (δ), α2 (δ)} ⩽ max{α1 (ρ), α2 (ρ)}.О п р е д е л е н и е 25.
Критерий δ называется минимаксным, если онне хуже всех других критериев в смысле минимаксного подхода.Иначе говоря, минимаксный критерий имеет самую маленькую «наибольшую ошибку» max{α1 (δ), α2 (δ)} среди всех прочих критериев.84ГЛАВА VII. ПРОВЕРКА ГИПОТЕЗУ п р а ж н е н и е . Убедиться, что в примере 37 критерий δ при b = 1/2является минимаксным.Байесовский подход.
Этот подход применяют в следующих случаях:а) если известно априори, что с вероятностью r верна гипотеза H1 , а с вероятностью s = 1 − r — гипотеза H2 ; б) если задана линейная «функцияпотерь»: потери от ошибочного решения равны r, если происходит ошибка первого рода, и равны s, если второго. Здесь r + s уже не обязательноравно 1, но потери можно свести к единице нормировкой r′ = r/(r + s)и s′ = s/(r + s).Пусть априорные вероятности или потери r и s заданы.
Говорят, чтокритерий δ не хуже критерия ρ в смысле байесовского подхода, еслиrα1 (δ) + sα2 (δ) ⩽ rα1 (ρ) + sα2 (ρ).О п р е д е л е н и е 26. Критерий δ называют байесовским, если онне хуже всех других критериев в смысле байесовского подхода.Иначе говоря, байесовский критерий имеет самую маленькую «средневзвешенную ошибку» rα1 (δ) + sα2 (δ) среди всех прочих критериев.По формуле полной вероятности это есть вероятность ошибки критерияв случае (а) или математическое ожидание потерь в случае (б).У п р а ж н е н и е . Убедиться, что в примере 37 критерий δ при b = 1/2является байесовским для r = s.Выбор наиболее мощного критерия. Ошибки первого и второго родаобычно неравноправны.
Поэтому возникает желание контролировать одну из ошибок. Например, зафиксировать вероятность ошибки первого рода на достаточно низком (безопасном) уровне и рассматривать толькокритерии с такой же или ещё меньшей вероятностью этой ошибки. Срединих наилучшим следует признать критерий c наименьшей вероятностьюошибки второго рода.⃗ | α1 (δ) ⩽ ε}.Введём при ε ∈ [0, 1] класс критериев Kε = { δ(X)О п р е д е л е н и е 27.
Критерий δ0 ∈ Kε называют наиболее мощнымкритерием (НМК) размера ε , если α2 (δ0 ) ⩽ α2 (δ) для любого другогокритерия δ ∈ Kε .В следующем параграфе мы рассмотрим способы построения оптимальных критериев. Оказывается, все оптимальные критерии (минимаксные, байесовские, наиболее мощные) могут быть построены простым выбором различных констант в некотором универсальном критерии — критерии отношения правдоподобия.§ 3. Построение оптимальных критериев85§ 3. Построение оптимальных критериев⃗ = (X1 , . . .
, Xn ) соКритерий отношения правдоподобия. Выборка Xстоит из независимых и одинаково распределённых величин, про распределение которых возможны только две гипотезы:= F1 } иH1 = {Xi ⊂= F2 }.H2 = {Xi ⊂Пусть f1 (y) и f2 (y) — плотности распределений F1 и F2 соответственно.Термин «плотность» здесь понимается в смысле равенства (6) на с. 27.Построим функции правдоподобия для этих распределений:nn∏∏⃗ =⃗ =f1 (X)f1 (Xi ) и f2 (X)f2 (Xi ).i=1i=1Пусть выполнено предположение (I).(I) Распределения F1 и F2 либо оба дискретны, либо оба абсолютнонепрерывны.З а м е ч а н и е 16.
Если одно из распределений дискретно, а другоеабсолютно непрерывно, то всегда существует критерий с нулевыми вероятностями ошибок. Смешанные распределения мы рассматривать не будем. Математики вместо (I) могут предполагать, что оба распределенияабсолютно непрерывны относительно одной и той же σ -конечной мерыи имеют относительно неё плотности f1 (y) и f2 (y).Мы будем выбирать гипотезу в зависимости от отношения функцийправдоподобия. Обратимся к примеру 37. Естественным кажется принимать вторую гипотезу, если X1 лежит правее точки пересечения плотностей b = 1/2: там, где вторая плотность больше, принимать вторуюгипотезу, там, где первая — первую.
Такой критерий сравнивает отношение f2 (x1 , . . . , xn )/f1 (x1 , . . . , xn ) с единицей, относя к критической области ту часть Rn , где это отношение больше единицы. Заметим, что приэтом мы получим ровно один, не обязательно оптимальный, критерийс некоторым фиксированным размером и мощностью.Если нужно получить критерий c заранее заданным размером α1 = ε,либо иметь возможность варьировать и размер, и мощность критерия, тоследует рассмотреть класс похожим образом устроенных критериев, введясвободный параметр: там, где вторая плотность в c раз превосходитпервую, выбирать вторую гипотезу, иначе — первую: сравнивать отношение плотностей f2 (x1 , . .
. , xn )/f1 (x1 , . . . , xn ) не с единицей, а с некоторой постоянной c.86ГЛАВА VII. ПРОВЕРКА ГИПОТЕЗНазовём отношением правдоподобия частноеT (⃗x) = T (x1 , . . . , xn ) =f2 (x1 , . . . , xn ),f1 (x1 , . . . , xn )(21)рассматривая его лишь при таких значениях ⃗x, когда хотя бы одна изплотностей отлична от нуля. Имеется в виду, что 0/a = 0, a/0 = +∞.Конструкция критерия, который мы описали выше, сильно усложнит⃗ не являетсяся в случае, когда распределение случайной величины T (X)непрерывным, т.( е. существует такое) число c, вероятность попасть в ко⃗⃗торое ∆c = PH1 f2 (X)/f1 (X) = c отлична от нуля.