Б.В. Гнеденко - Курс теории вероятностей (1115334), страница 62
Текст из файла (страница 62)
Однако при данном числе испытаний л невозможно ни при каком выборе критической области одновременно сделать как угодно малыми оба числа а, и аз, В то же время изменением критической области мы можем добиться произвольной малости ошибок первого или второго рода в отдельности.
Так, если положить Я„э = Я„, то ясно, что в этом случае оэ = О, если же положить А„, = А,, то а, = О. Отсюда вытекает следующий рациональный принцип выбора критической области: при заданных значениях а, и и нужно выбирать ту область Я„э, для которой ат достигает минимума. При этом, конечно, чем меньшее значение аг мы выбираем, тем большее значение получается для минимума аз.
Заранее нельзя сказать, какое а, нужно выбрать, чтобы метод проверки гипотезы был самым выгодным, так как основную роль при этом играет практическая сторона дела. Пусть для примера отбрасывание или прием гипотезы Н, связаны с материальными затратами. Если прием гипотезы Н,, в то время как она неверна, приводит к большим затратам (скажем, к необходимости ручной подгонки некоторых деталей, поступающих для сборки на некоторое предприятие), тогда как отбрасывание гипотезы Н„в то время как она верна, приводит к сравнительно небольшим потерям, то ясно, что необходимо выбрать возможно меньшее сеэ и при этом можно помириться со сравнительно большими значениями о, . Гд.
11. Элементы статистики Предположим, что практические соображения приняты в расчет и величина а, выбрана; тогда имеет место следующее предложение, которое мы сформулируем лишь для того случая, когда величина Е имеет конечную плотность распределения вероятностей, как при гипотезе Н„так и при гипотезе На. Т е о р е м а. Среди всевозможных критических областей, для которых вероятность ошибок первого рода равна а1, вероятность ошибок второго В рода принимает наименьшее значение для критической области Клз, состоящей из всех тех точек (х,, ха, ..., хл), для которых л л ь) П з (ха !нз) > с П /'(хь !и,) Число с определяется изусловия Ф(с) = Р((х,, ха, ..., хл) С Я„!Н, ) = а,. Д о к а з аз е л ь с т в о.
Так как (в случае независимых испытаний) вероятность точке (х,, ха, ..., хл) находиться в какой-нибудь области Ю равна Р(Б!Н!) = (... )' П у(ха !Н1)дхзс(хз дхл з а=! при условии, что верна гипотеза Н, и Р(Я!На) = 3 ... )' П У(ха!Нз)дх!с(хз,, дхл 3 ь=! при условии, что верна гипотеза Нз, то согласно предположению, Р(~лз ! Н!) !"! и для любой другой рассматриваемой нами области Я„з также Р(Ялз ! Н1) Согласно аксиоме сложения вероятностей Р(зчл2 )йл2Нл2 ! Н1) Р(Нл2 ! Н1) Р(зчл2зчл2 ! Н1) а! РИ»зя 2 ! Н1) *) Таким образом, Л„з является наивыгоднейшей критической областью. зв! а 64.
Проверка статистических гипотез (Ялг — Я»2Яп2 ! Н1) = и! — Р(ЯлгЯ»г ! Н! ), т, е. Р(Я»2 — ЯлгЯ»2 ! Н! ) = Р(Япг — ЯлгЯ г ! Н!). Согласно определению Я„г и последнему равенству Р(Ял2 — Ял2Ял2 ! Н ) > СР(Ялг — Я»2Ял2 ! Н!) = СР(Я„2 — Я»2Я„2 ! Н,) . Но для любой точки (х,, хг...„хп), не принадлежацсей Я„г, (4) П )'(хе !Нг) < с П Дхе !Н!) и, следовательно, поскольку область Япг — Я»2Я»2 находится целиком вне Я»2, должно быль ср(Я»2 Ял2Я»2 ! Н1) > Р(Яп2- Я»2Ял2 ! Н2) ° Это неравенство вместе с (4) приводит нас к неравенству Р(Ялг — ЯлгЯ»2 ! Нг ) > Р(Я»2 — Я»2Я»2 ! Нг) Прибавив к обеим частям последнего неравенства Р(Я»2Я„2!Нг), находим, «то Р(Я„, ! Н,» > Р(Я», !Н,). Атак как Р(Я.!Н2) =1 ИЯ 1 Я Я 2 Я ! Ял — Я 2 то Р(Я„' ! Н ) < Р(Я„! !Нг).
Так как Р(Я»! ! Нг) и Р(Я„, ! Нг) представляют собой огпибки второ. го рода для критических областей Ялг и соответственно Ялг, то теорема доказана. Гл. 11. Элементы статистики Нам остается подтвердить, что выбор постоянной с действительно можно произвести по правилу (3) . С этой целью заметим, что функция $(с) = Р(Я„з ! Н,) с ростом с может только убывать (так как неравенству (2) будет удовлетворять все более и более "тощее" множество точек (х„хт, ..., х„) ) . Кроме того, ясно, что Ф(0) = 1 (так как для каждой точки (х„хт, ..., х„) П Х(хь ~ Нз) ~~ О. а=! Далее нз (2) следует, что Р(Ялз! Нз) ~~ с Р(плз ) Н1) .
Заменив левую часть неравенства единицей и вспомнив определение Р(с), находим неравенство 1 > сФ(с). Итак, 0 < Ф(с) < 11'с. Таким образом, $(с) -+ О при с - . Так как функция Цс) не возрастает, то при любом а, (О < а, < 1) найдется такое с, что ф(с — 0) ) а, > Ф(с + 0). Если в точке с функция Д(с) непрерывна, то выбор постоянной с согласно правилу (3) оправдан; если же в точке с функция Ф(с) имеет разрыв, то положение несколько усложняется и требуется незначительно изменить определение множества Ялз, исключив из него часть точек (хы ха, ..., х„), для которых П У'(хе ) Нт) = с П 1(х» ~ Нг), и присоединив их к множеству Н„,, так чтобы вероятность ошибок первого рода была равна а,.
Рассмотрим пример. Пусть известно, что с распределено нормально с известной дисперсией о . Относительно математического ожидания а имеют- 3 ся две гипотезы, состоящие в том, что а = а, (гнпотеза Н,) и а = ат (типот теза Н, ) . Требуется найти выгоднейшую критическую область. звз а 64. Проверка статистических гипотез В нашем примере соотношение (2) может быть записано в следующем виде: л — — Х 1(хе — а )* — (х1, — е, )'1 г е* 1, = 1 е Р- с. Это неравенство, как легко подсчитать, зквивалентно следующему (в пред- положении, что аг >а,): и а'1пс Х х» > +,—,(а, +аг) а=1 аг — а, или, что то же самое, неравенству л о1пс — Х (хь-аз) > + — (аг — а,) = х1, а=1 (аг а!)4 и 2а Полученное неравенство определяет выгоднейшую критическую область Я„г.
Так как величина л — Х (хь — а,) ст/л распределена нормально, с математическим ожиданием 0 и даеперсней 1, если только гипотеза Н1 имеет место, то по таблицам нормальаого распределения и заданному оз легко определить 1тз (и тем самым с), пусть для определенности от = 0,05. Тогда )тт = 1,645 и, следовательно, ии1выгоднейшая критическая область при о, = 0,05 определяется неравенством Х (ха — аз) Р: 1,645 а~/л. Е=т Интересно отметить, что критическая область в нашем примере не зависит от конкурируюшего значения аг.
Область Я„т определяется неравенством л аг)пс 11 хе С + — (аг.~-аз), а=1 а, — аз Гл. 11. Элемеитьс статистики 384 которое, очевидно, может быть записано в таком виде: 1 ~/и Х (хь — ат) < 1сс — — (ат — а,), от/и о Величина, стоящая в левой части неравенства, в предположении, что имеет место гипотеза Нт, распределена нормально с математическим ожиданием О и дисперсией 1. Отсюда следует, что вероятность ошибки второго рода равна т/л е ь, — — (а — а, ) е с(г, Ф яс — — (аз — ас)т = ч/2л Если заданы величиньс ас и ат „то возникает задача определения минимального числа и = л (ас, ат) необходимых испьпаний для того, чтобы ошибочные заключения могли быть сделаны с вероятностями, не большими, чем а, и ат. С ростом л величина ат„= ат (а„п) не возрастает и, вообще говоря, стремится к нулю. Очевидно, что л(ас, от) есть наименьшее из тех и, длякоторых ат (ас, л) й:'ат.
В только что рассмотренном примере число п по заданным значениям пс и ат найти очень просто. В самом деле, из того, что 1 — Ф(яс) = ас т,/и Ф /сс — (ат — а,) = ат мы получаем два уравнения: я, = $(1 — а,) ~/л Рсс (ат — ас) = Ф(ат), где Ф вЂ” функция, обратная для Ф(х). Отсюда ат и = 2 (ат — а,)' 385 а 64. Проверка статистических гипотез Приведем небольшой числовой пример. Пусть а, = 135, ат = 150, о = 25, аз = 0,01, ат = 0,03.
Поскольку $(0,99) = 2,33, Ф~О,ОЗ) = — 1,88, то 25' 25 п = — 12,33 + 1,881з = — 4,21з - 49. 15т 9 Таким образом, минимальное число наблюдений, которое необходимо провести для выбора между гипотезами Н, и Нт в случае нормального распределения и только что указанных данных, должно быть 49. Только при таком числе испытаний мы можем быль уверены в том, что если верна гипотеза Н,, то мы отбросить ее можем с вероятностью, не большей одной сотой, а если верна гипотеза Н,, то ее отбросить мы можем с вероятностью. не превосходящей 0,03.