Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996), страница 60
Текст из файла (страница 60)
когда р~=-р0=112. 13.1.9. Алгоритм, оптимальный по критерию Неймана — Пирсона. Другой подход к оптимизации алгоритма принятия решения при отсутствии априорной информации о потерях и вероятностях гипотез указывает критерий Неймана — Пирсона. Согласно этому критерию оптимальный алгоритм обеспечивает минимально возможную вероятность р ошибок второго рода при условии, что вероятность ошибки первого рода не больше заданного значения а (см. и. 12.4.6). Задача синтеза оптимального алгоритма принятия решения по указанному критерию состоит в определении минимума функционала (13.32) в котором вероятность р зависит от правила выбора решения, вероятность а фиксирована и с — неопределенный множитель Лагранжа. Сравнивая (13.32) с (13.9), замечаем, что функционал Ф совпадает со средним риском при р~=р0=1/2, П00=Пп=О, Пм=2, Пм=2с (плата за ошибку первого рода в с раз больше, чем за ошибку второго рода).
Следовательно, минимум функционала Ф достигается при использовании байесовского алгоритма для указанных плат и априорных вероятностей гипотез. Тогда из (13.13) находим следующий оптимальный по критерию Неймана — Пир- 330 сова алгоритм проверки простой гипотезы Но против простой альтернативы Н,: 1(х) ~ с. т[ Порог с находим из граничного условия (заданного значения вероятности ошибки первого рода) Р (1(х) ) с ~ Но) = а (13.34) или [ср. (13.18)] 1 — г[(с!Но) =а.
(13.34а) Конечно, и в рассматриваемом случае вместо статистики отношения правдоподобия можно использовать ее логарифм 1п((х) '~ 1пс (13.36) те (13.33) (13.37а) и (13.36) соответст- наблюдениои выборке х= (х[, ..., хп) фиксированного размера п вычисляется отношение правдоподобия 1(х) и принимается или отвергается гипотеза Н, в зависимости от того, где находится это отношение ниже или выше некоторого фиксированного порога, устанавливаемого заранее в со- Критерия ПОРОГ са, формула ('13.15) Байееовекий Максимум апостериорной вероятности Максимум правдоподо- бия Неймана — Пирсона ре(р[ 1 Уравнение (!3.341, Уравнение (13.27) Минимакеный 331 Р (1и 1 (х) ) 1и с ~ НО) = а (13.36) нли !ср.
(13.20)] 1 — [[[[О [(1п с [!НО) = а. (! 3.36а ) Минимальная по критерию Неймана — Пирсона вероятность ошибки второго рода (ср. (13.19) и (13.21)] 6=Р(1(х) (с(Н[) =Р[(с!Н[) (13.37) или (3 = Р(!П1(х) (1п с ~ Н ) =г"[„[(1п с(Н[), где с и !п с определяется согласно (13.34) венно.
13.1.10. Универсальность достаточной статистики отношения правдоподобия. При проверке простой гипотезы против простой альтернативы все рассмотренные критерии качества приводят к единообразной процедуре принятия решения: по Т а б и и к а 13 1 ответствии с принятым критерием. Пороги, с которым сравнивается отношение правдоподобия для различных критериев„приведены в табл.
13,1, 13ДИ ПОСЛЕДОВАТЕЛЬНЫЕ МНОГОШАГОВЫЕ АЛГОРИТМЫ ПРОВЕРКИ ПРОСТОЙ ГИПОТЕЗЫ ПРОТИВ ПРОСТОЙ АЛЬТЕРНАТИВЫ 13.2.1. Описание последовательного алгоритма. Отличительная особенность рассмотренных алгоритмов принятия решения состоит в том, что проверка гипотезы производится за один шаг. При этом до начала наблюдений задается размер выборки и. Существует другой подход, при котором отказываются от постоянного размера выборки, а ограничивают это значение в процессе эксперимента в зависимости от результата уже выполненных наблюдений. В этом случае алгоритм проверки гипотезы становится многоасаговенм.
При многошаговом (последовательном) алгоритме следует определить два правила: остановки наблюдений и выбора решения после остановки наблюдений. Вначале наблюдают одно значение х, (извлекают выборку размером и= 1) и на основании этого значения по заранее установленному правилу либо останавливают наблюдение и принимают одно из двух решений (То или Тс), либо продолжают наблюдения (т.
е. отказываются на первом шаге от принятия решения). Если правило предписывает отказ от решения, то извлекают следующую выборку, а описанная процедура повторяется: на основании выборки (хс, хз) размером п=2 либо останавливается наблюдение и принимается решение, либо наблюдают следующее значение хз и указанная процедура повторяется относительно выборки (хь ха, хз). Испытание заканчивается на той выборке, на основании которой наблюдение в соответствии с правилом остановки прекращается и принимается одно из двУх Решений То нли Тс.
При использовании последовательного алгоритма момент остановки процесса наблюдения является случайным и зависит ог предшествующих ему результатов наблюдений. Размер выборки п, при которой выносится окончательное решение, заранее не назначается, а является случайной величиной.
На каждом шаге пространство выборок соответствующего числа измерений должно делиться не на две, а на три области: критическую Хс, допустимую Хе и промежуточную Х„р. Разделение пространства выборок на три области и содержит указание на то, должно ли быть принято одно из решений Та или Тс или наблюдение должно быть продолжено. Если выборочное значение попадает в критическую область Хс, то гипотеза Оо отвергается; если в допустимую область Хо, то она принимается, а если выборочное значение попало в промежуточную область Х„р, то это служит указанием на необходимость продолжить наблюдения '.
' Вероятность того, что число шагов в последовательной процедуре проверка гипотезы не ограничено, равно нулю (сы. (35], с. 163). 332 (13.38б) Как и при непоследовательных алгоритмах, число способов раз- биения пространства выборок на три области не ограничено. Следовательно, возможны разнообразные последовательные пра- вила выбора решения и, очевидно, необходим критерий качест- ва, при помощи которого можно сравнивать различные последо- вательные правила и выбирать наилучшее.
13.2.2. Последовательный алгоритм Вальда. Для синтеза опти- мального последовательного алгоритма проверки простой гипоте- зы Но против простой альтернативы Н, А. Вальд предложил ис- пользовать в качестве критерия минимум среднего значения раз- мера выборки (длительности процесса наблюдения до момента его остановки) при условии, что вероятность ошибки первого ро- да (уровень значимости) не превышает а, а вероятность правиль- ного отклонения гипотезы Н, (мощность) не менее 1 — (1.
Заметим при этом, что средние значения размера и выборки ло,(я~Но), т~(л~Н1) при справедливости гипотез Н, и Н, соответственно, во- обще говоря, не равны, и требуется минимизировать обе вели- чины. Вальд показал 138), что при независимых наблюдениях среди всех алгоритмов принятия решения — последовательных и непос- ледовательных, для которых условные вероятности ошибок не пре- восходят величин а и (3, последовательное правило выбора реше- ния, состоящее в сравнении отношения правдоподобия с двумя порогами со и сь приводит к наименьшим значениям по,(и(Но), т1 (и ) Н1).
Оптимальное разбиение пространства выборок определяется следующими неравенствами: для допустимой области Хо. со<1(хь ..., ха) (сь й=1, и — 1, (13.38а) 1(хь...,х ) . со', для критической области Х, со<1(хь ..., хо) <с,, й=1, и — 1, 1(хь ., х„))с,; для промежуточной области со<1(хь ..., хл) <сь й=1, н (13.38в) Если отношение правдоподобия заменить его логарифмом, то в силу независимости элементов выборки оптимальное последова- тельное правило можно сформулировать следующим образом: при и-м наблюдении принимается решение то, если 1пс,< ~ 1п1(х,) <1пс„, й= 1,п — 1, ! 2, '1п1(х,) (1пс,; о-1 (13.39б) 333 принимается решение уг, если наряду с (13.39а) 2', 1п!(х,) ~ с,. (13.39в) г ! Точное определение порогов с, и с!, значения которых к тому же зависят от номера шага Й, сопряжено со значительными математическими трудностями.
Однако было доказано [38], что (13.40а) 11 — а с! (13.40б) г,! — а а В практически интересных случаях, когда условные вероятности ошибок не превышают 0,5, имеем (1 — р)/а)ф/(! — а). Тогда неравенства (13.40а,б) можно переписать в виде сг((1 — 8)1а, со)И(1 — и). (13.41) Если отдельные слагаемые !п1(х!) в среднем малы по сравнению с )п(с!1сс), то число шагов до остановки оказывается достаточно большим и тогда с небольшой погрешностью неравенства (13.41) можно заменить равенствами (подробнее см. 135], с. 142 — 143): с!= (1 — 8)1а, со=8/(1 — а). (13.42) Подчеркнем, что при указанных допущениях последовательный алгоритм предписывает сравнение отношения правдоподобия с порогами, которые определяются только заданными вероятностями ошибок первого и второго рода.
Заметим также, что случайные величины з!,= Х 1п1(х!), г=! я=1, 2, ..., образуют случайную последовательность с независимыми приращениями, Поэтому точное определение порогов сводится к задаче о достижении границ некоторым марковским случайным процессом (см., например, 139!). 13.2.3. Минимальные средние размеры выборок. Определим средние значения т!(л')Не) и тг(п')Н!) размеров выборок прн использовании оптимального по Вальду последовательного алгоритма принятия решения.
Если выборка однородная, то логарифм отношения правдоподобия представляет сумму случайного числа одинаково распределенных случайных величин. Поэтому' л т, (!п1(х„..., х„))Н1) =т, ~ ~', !п1(х) ] Ну г=! = т, (п[Н1) т, (]и 1 (х) [Н), 1' = 0; 1, ' См. формулу (22в) в задаче 3.13, для использования которой следует предположить иезввисимость случайных величин и и !п1(х,), 1~1.сл. Строгое докаввтельство (без предположения о независимости), приводящее к тому же результвту, дано в [28], с. 80. 334 откуда тд (1п 1 (хю, х„) ! Нз! (13.43а) тг (1и 1 (х) ! На) тт (1п г (хт,, х„)1Нт) шг (!п 1 (х) ! Нг ) Предположим, что при принятии решения (уе или у1) на п-м шаге отношение правдоподобия точно совпадает с одним из порогов со или с~ (т.
е. будем пренебрегать пересечением порога на заключительном этапе проверки гипотезы). Тогда !п1(хь ..., х ) представляет дискретную случайную величину, принимаюшузо два значения 1псе и 1пс, с вероятностями 1 — а, а, если верна гипотеза Н,, и с вероятностью (1, 1 — р, если верна гипотеза Нь Отсюда следует тх (!п1(х„..., х„)!Нз) =(1 — сс) 1и — +а!п —, (13.44а) 1 — 6 1 — а тх (!п((х,, ..., х„)!Н,) =(31п +(1 — (!) !п ~ . (13.446) Подставляя (13.44а) в (13.43а) и (13.446) в (13.436), получаем псх (п)Н,) = ~(1 — а) 1п + а1п — ~ /лтто, (13.45а) 1 — а сс / псх (п(Н,) = 1р1п +(1 — р) !п — ~~,! птхт, (13.456) 1 — а а где 1см.