В.П. Чистяков - Курс теории вероятностей (1115342), страница 34
Текст из файла (страница 34)
Предположим, что альтернативная (или конкурирующая) гипотеза Н, простая. Тогда она однозначно определяет распределение выборки. Ошибкой 3-го рода называют вероятность = Ря, (У), т. е. вероятность принять основную гипотезу Нэ, когда верна конкурирующая. Вероятность 1 — () называют мощностью критерия. При заданной ошибке 1-го рода а нужно среди всех критериев выбирать наиболее мощный критерий, т. е. критерий, имеющий наибольшую мощность 1 — () или наименьшую ошибку 2-го рода Р.
э) Для дисиротимх распределений ие всегда можно подобрать Я так, чтобы Ря (я ш 8) = а. В этом случае требуют, чтобы выполнялось иеравеиотво Рн (я ш Я) ~ а, во] стхтнстичискья пвовигкь гипотиа - о95 Для иллюстрации введенных характеристик критерия рассмотрим два примера. П р и м е р 1. Пусть в случайной выборке хго хо,... ..., х„величины хо распределены нормально с параметрами (а, о'). Параметр а известен, а относительно а имеется два предположения, или две гипотеаы Но и Щы согласно которым а = а, и а = а, (ао ( а,) соответственно.
Несмещенной и состоятельной оценкой математического ожидания а является х = (х, +... + х„)/и. Таким образом, в рассматриваемой задаче естественно выбрать ту гипотезу, к параметру а которой ближе х. При любой из гипотез (Н, или Н,) и имеет нормальное распределение с 0х = а'/и; Мх = а зависит от гипотезы. Следовательноо распределения х при Н, и Н, различны. Вероятности событий, вычисляемые при гипотезах Н, и Н„будем обозначать соответственно Ро и Р,. Выберем некоторое число С, а, < С < а,. Критерий можно сформулировать следующим образом: если х ) С, то принимается Н„а если х( С, то принимается Но.
Если верна гипотеза Н, и произошло событие и ) С, то принимается Н,. Вероятность отвергнуть Но, когда она верна (ошибка 1-го рода), равна а = Ро (х ) С). Если верна гипотеаа Н, и произошло событие и ( С, то принимается Н,. Вероятность принять Н„когда верна Н, (ошибка 2-го рода), равна р = Р, (х < С). Пусть сс аадано. Тогда а=ро(х) С) = Ро1=') (С вЂ” ао) — ~. ( с/1/и о Так как 1/и (х — ао)/о имеет нормальное распределение с параметрами (О, 1), то (С вЂ” ао) — = иа где иа опреде- 1/ лено уравнением (5.2). Отсюда С=во+ иа= ° 1/й (6.5) Следовательно, ошибка 2-го рода р-удовлетворяет соотношению Ра = Р1 (х(С) = Р1 ) — ~ <" (С вЂ” ао) — "1, ( с/1/з о Поэтому (С вЂ” ао) — =иг з= — из, 1/в а «зз элнмкнты млтимлтичвскои статистики [гл.
» Подставляя в это равенство значение С из (6.5), получим за+ на=, г/и (6.6) Из (6.6) при заданных а и р нетрудно найти и. Если и менять нельзя, то (6.6) используется для выбора а и (). Если же а и и фиксированы, то величина р определяется однозначно. Величина а и р выбираются в зависимости от степени нежелательности связанных с ними ошибочных решений. Иногда «степень нежелательности» можно выра- вить довольно точно. Пусть, например, при некоторой упрощенной проверке бракованное изделие может быть пропущено с вероятностью а и хорошее изделие принято за бракованное е вероятностью р.
Если бракованное изделие продано, то за его гарантийный ремонт нужно платить Р рублей. Если хорошее изделие забраковано, то теряется вго стоимость () рублей. Пусть в проверяемой партии из )У изделий примерно М бракованных. Тогда средние потери при контроле этой партии равны (Ма) Р + (Л' — М) ))Я. (6.7) Для выбора а и р нужно найти минимум (6.7) при наличии связи (6.6). П р и м е р 2 (см. $ 3 гл. 1). Перейдем теперь к задаче выбора модели опыта, состоящего в подбрасывании двух монет. Обозначим р число выпадений двух монет одинаковой стороной в и опытах. Вместо моделей 1 и 2 мы будем теперь говорить о гипотезах Н, и Н,.
Рассмотрим величину р„!и. Так как р„/и имеет при гипотезе Нп 1 = = О, 1, биномиальное распределение, то з„а„оо М вЂ” "=а„й — "= —, и и и где 2 «2 $ $ «$ а( — ' с" з ' з ' " 2 ' о, — — , (6.8) пои„ + п»из = (໠— ао)~/и, Если р„!и ) С, то будем принимать Н„а в противном случае Н,. Если биномиальное распределение заменить аппроксимирующим его нормальным, то для вычисления С сохранится формула (6.5) с о = о,, а вместо (6.6) полу- чим з о1 СТАТИСТИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ 1ет При и = р = 0,05 имеем и„= из = 1,65. Подставляя эти значения и величины (6.8) в (6/9), получим / 1 1/2) (си +о а )о ( 1,65 ( 2 +-9-/ / = ,2„ 3 3 и, следовательно, можно положить и = 80.
По формуле (6.5) С = 0,5 + 1,65= 0,61, 2 1/80 Таким образом, гипотеза Н, принимается, если ро/и ) ) 0,61, в противном случае принимается Н,. Покажем теперь, как найти наиболее мощный критерий. Пусть по выборке х = (х„..., х„) нужно различить две простые гипотезы Н, и Н„согласно которым выборка имеет соответственно плотности распределения р, (и), ро (и), и = (и„..., и„), Рассмотрим критические множества вида Я, (и = (и„ ..., и„): р, (и) о ср, (и)).
(6,10) Ограничимся рассмотрением случаев, когда для любого а существует постоянная с такая, что Рн (Я,) = и. Следующий результат был получен Нейманом и Пирсоном. Т е о р е м а 6.1. Среди всех критериев, различающих гипотезы Но и Н, с заданной ошибкой 1-го рода аг наиболее мощным являетсл критерий, определяемый критическим множеством (6.10). Д о к а з а т е л ь с т в о. Пусть Я вЂ” критическое множество произвольного критерия с Ря (Я) = а.
Тогда Ря, (Яо', Яо Я) = и — Рн, (ЯоЯ) = Рн, (Я ~ ЯЯс). Используя зто равенство и (6.10), находим Р,(Я,~'Я.Я)= 1 р (и)йи> во~вво ~с ~ ро(и)йи=сРя (Я,'~, ЯЯ,)=сРц (Я~, ЯЯ,)= в,;вв, =с ~ ро(и) аи Р ~ рт(и) йи = Ря,(Я '~,ЯЯ,)о в'~вв в;вв, 11Е ' злементы ИАтемАтическОЙ стАтистики 1гл. 9 в=1 или неравенству 1 %~ й= — т из)С, и (6.11) где с, и С вЂ” некоторые постоянные. Попадание выборки х = (х„..., х„) в критическое множество, определяемое (6.11), очевидно равносильно наступлению события (х) С), Таким образом, доказано, что критерий примера 1 является наиболее мощным. Пусть теперь конкурирующая гипотеза Х, является сложной и определяемое вю распределение выборки Рв зависит от параметра 6 ~ 6; при основной гипотезе Н, выборка имеет распределение Рв,.
В такой ситуации естественно выбрать критическое множество Я таким„ чтобы построенный на его основе критерий был несмещенным, т. е. чтобы при ааданной ошибке 1-го рода а неравенства Рв (Я) в а выполнялись при всех О е= В. й 7. Регрессионный анализ Задачи регрессионного типа были указаны в 1 1. Рассмотрим сначала простейший случай. Пусть требуется найти коэффициенты а и Ь линейной функции у = ах + Ь. Допустим, что при любом значении х мы можем измерить с некоторой ошибкой значение у.
Будем предполагать, что в выборке (уг,..., у„) величины у, представимы в виде у1 — — ах1 + Ь + бы (7,1) так как р, (и) < срв (и) намножествеЯ '~ ЯЯ,. Прибавляя к обеим частям последнего неравенства Ря, (ЯЯ,)е получим Рн, (8) ~ Ря, (Я,). Теорема доказана. Используя доказанную теорему, нетрудно проверить, что критерий в примере 1 является наиболее мощным. Так как совместная плотность распределения выборки согласно гипотезе Н~ (1 = О, 1) равна Р1(и„...,и„)= „ехР~ — —,~(из — а,) 1з (у сйс) то неравенство в (6 10) равносильно неравенству е н ~ (ие — ае)е~ ~ (из — а1)з+ с1 Е 11 РЕГРЕССИОННЫЕ АНАЛИЗ 199 Ь(у,а,Ь,о»)= „ехр~ — -»-т~ (р< — ах< — Ь)»!.
1 1 ю ~ ю — 0~.2 — )» и 1 Ото»пда получим систему уравнений п д!пй 1 %~ — — хд х»(У» — ах» — Ь) = О» »=» п д!пй 1 %! — =- — ддд(у» — ах, — Ь)=0 дд и* .с~.» »=» (7.2) д<пй» 1 1 %\ д(») = — -~ — „а + -ч.» у (у» — ах» — Ь)»=0, » ! » Из (7.2) в предположении, что ~ х» — — О, находим оценки » ! п и н а»= (~~~ х»у»/( ~» х;), Ь»= — ~~» у»„ »=! $» 4» » о» = — д (у» — а х» — Ь ) . » 1 ч'Ч и (7.3) 3амеиив в первых двух формулах (7,3) р» по формуле (7 1)» получим ~ »,.ь< » 1 Ч~ Ь =Ь+ — „т бо а»=а+ —, $ ! и Из этих равенств следует, что и» Ма»=а, МЬ»=Ь, Оа»= — „ » »» ОЬ»= а, где 6, независимы и нормально распределены, МỠ— — О, 06» = о', х, не случайны и их аначения известны.
Для оценки неизвестных параметров а, Ь, о» можно воспользоваться методом наибольшего правдоподобия. Функция правдоподобия выборки у = (у!»..., у„) имеет следуя»- щий вид: и 300 элимкпты матиматичкскои стАтистики ~гл. 9 Таким обрааом, непосредственно проверяется, что оценки а*, Ь* являются несмещенными и состоятельными. Отметим, что в случае нормального распределения у, оценки параметров а и Ь, полученные методом наибольшего правдоподобия, совпадают с оценками этих параметров« полученными минимиаированием выражения « Ч (а, Ь) = ~ (у1 — ах1 — Ь)к. Метод получения оценок, основанный на иинимизации суммы квадратов отклонений намерений от теоретических значений, называют методом наименьших хеадратое.
Для иллюстрации метода наименьших квадратов рассмотрим следующую аадачу. Пусть функция у = В,х, + + В«ха +... + В„х„измеРена в точках (х„, х„„,, „х 1), 1=412,..., и, и (7.4) Ы1 = вкх11 + + 61'«1 + 611 где 61 неаависимы и 061 = ок. Будем предполагать, что ранг матрицы Х= (( х1Т(( равен р. Используя метод наименьших квадратов, найдем по выборке (у„,, „у„) оценки параметров 61,..., Вр. Положим « У (7(В„...,В,) = Х (у,— Х В„х„,)'.
1=1 к Приравнивая к 0 проиаводные 1,1 по 61, 1 = 1,..., р, получим систему уравнений 2~(у«»~В„„,) И=О. (=1,...,р; д01 1 1 к=! отсюда р « ~ х,1хк«Вк = Д х„у„(=1,..., рк (7.5) 1=1 К=1 1=1 или в матричной форме: ХВ= Ху« (7.6) де в = (в„..., в,)', у = (Ы„...к у„), х = Н ... (( х = ХХ'. Если определитель | Я (чь 0 «), то (7.6) имеет един- «) Можно пока«ать, что ( 8 (+ О> есав ранг Х ревев р, ДИСПЕРСИОННЫИ АНАЛИЗ $8! 201 ственное решение 0* = (8*„..., Овв)', причем 0 =(О,',...,0„") =Е-'Ху.