Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996), страница 65
Текст из файла (страница 65)
124) Так как в правой части (13.124) второй член — известная константа, то достаточной статистикой будет также л У. (х) = и' х =- 2; ио хо, (13.125) о=1 где ц'= (и!,, и„) =(а! — ао)'К '. (13.125а) Статистика У„(х) как линейная комбинация зависимых гаусс совских величин подчиняется нормальному закону распределения (см. п.
3.3.8). Параметры этого распределения при гипотезе Но и альтернативе Н, т,(у„(х) ) Но) =ц'ао= (а,— а,)'К-'ао, (13.126а) т, (у„(х) ( Н!) = н'а! = (а, — ао) 'К-'аь (13.1266) )оо (Уо (х) ( Но) )оо (Уч (х) ! Н!) — о(оо (13. 126в) где Р = (а! — ао)'К-'(а,— а,). (13.127) '354 Заметим, что параметр о(„определяет «расстояние» между статистиками у„(х) при гипотезе и альтернативе [ср, с (13,82)] [т1(уо(х) !%) — ~%(уо(х) 1НО)]/[ро(уо(х)1Но, Н1)]' =с(и.
(13.128)' При и- оо «расстояние» между статистиками увеличивается, так как при этом д -о-оо. Отметим, что параметр с(„ определяет также среднее и дисперсию статистики логарифма отношения правдоподобия (13.124), которая, как и статистика (13.125), распределена по нормальному закону. Из (13.124) следует т,(1п1(х) ~ Н1) = — т,(1п /(к) 1Но) =о/о„/2, (13.129а) ро(1п 1(х) ~Н1) =ро(!п1(х) 1Но) =сРд, (13.129б) 13.6.3. Оптимальные алгоритмы. Из результатов, приведенных в $ !3.1, следует, что оптимальные дискретно-аналоговые алгоритмы принятия решения при проверке простой гипотезы Но: а= =ао против простой альтернативы Н1.а=а, (при известной не- вариационной матрице К) состоят в сравнении с порогом достаточной статистики (13.125) у„(х) = н'х К, (13.130) где порог К определяется выбранным критерием качества.
Для байесовского алгоритма, а также для алгоритмов максимальной апостериорной вероятности и максимального правдоподобия К = — (а, + а,)' К ' (а, — а ) + 1и с, (13.1311 где константа с для указанных критериев приведена в табл. 1.1. При использовании оптимальных по указанным трем критериям алгоритмов вероятности ошибок первого и второго рода а=Р(у„(х))К)Но)=1 — Р([К вЂ” (а,— ао)'К-'ао]/а'„), (13.132) р=Р(у„(х) (К/Н1) =Р([К вЂ” (а,— ао)'К 'а1]/с( ), (13.133) где Р(з) — интеграл Лапласа. Подставляя (13.131) в (13.132), (13.133), получаем а = 1 — Р (о(„/2+!и с~Я„), (13.
134) р =Р ( — с(„/2+!и с/д„). (13.135) Формулы (13.134) и (13.135) имеют тот же вид, что и (13.75), (13.76), и отличаются значением параметра с1„. Поэтому в рассматриваемом случае можно использовать формулы (13.80), (13.83), (13.84), если только подставлять в ннх значения параметра о(„ согласно (13.127) . Алгоритм принятия решения, опредсляемый неравенствами (13.130), оптимален также и по критерию Неймана — Пирсона, 12* 356 если при заданной вероятности а ошибки первого рода согласно (13.132) [ср. (13.87)) порог К= (а,— ао) 'К-'а,+г( х„. (13.136) Минимальная вероятность ошибки второго рода определяется по формулам (13.133) и (!3,!36), в которые подставляется значение параметра д„из (13.127). Если результаты наблюдений представлены не одним п-мерным вектором х, а Л' независимыми векторами хм 1=1, Л', т. е.
матрицей размером Л!Хп, то решение задачи проверки простых гипотез о векторе средних и-мерного нормального распределения сводится к рассмотренному, если выборку х заменить средним л арифметическим — ~' хгч а матрицу К вЂ” матрицей К/Л~. Величину 'ь=! лп„ в (13.127) прн этом следует заменить иа Упз,. 13.6.4. Другая форма достаточной статистики. Выражение (13.124) логарифма отношения правдоподобия можно упростить путем декорреляции случайных величин х„..., х„ (см, п.
3.1.10). Пусть С вЂ” ортогональная матрица, векторами-строками которой являются собственные (ортонормированные) векторы ~р;, != 1, и ковариационной матрицы К указанной совокупности зависимых выборочных значений [см. (3.20)]. Тогда компоненты вектора у= Сх (13.137) некоррелированы и, следовательно, независимы, так как выборка принадлежит нормальному распределению. Матрица СК 'С'=Р (13. 138) диагональная, ее элементы Ль ..., Մ— собственные значения (положительные) ковариационной матрицы К.
Из уравнения (13.137) находим т,(у)Н!)=Ь,=Ст,(х)Н,) =Сап /=0; 1. (13.139) Используя (13.137) и учитывая (13.139), получаем из (13.124) !п!(х) =(Ь, — Ь,)'СК ' С'у — — (Ь, +Ь,)'СК ' С'!Ь, — Ь,) = 2 = (Ь, — Ь,)' Ру — — (Ь, + Ь,)' Р (Ь, — Ь,). Так как второе слагаемое в (13.140) — известная компонента, то достаточной статистикой будет также а„(х) =(Ь,— Ь,)'Ру= Т,)ч(Ьм-Ьм)уь (13.141) (=! где Ьп, Ьз — компоненты векторов Ь| и Ьз.
В отличие от статистики у„(х) статистика д„(х) представляет линейную комбинацию независимых гауссовских случайных величин уь 1=1, п. 356 13ЛЧ ПРОВЕРКА ГИПОТЕЗ В УСЛОВИЯХ НЕПАРАМЕТРИЧЕСКОЙ АПРИОРНОЙ НЕОПРЕДЕЛЕННОСТИ 13.7.1. Типы задач. Ранее рассматривались задачи проверки гипотез относительно параметров функций правдоподобия (параметрических гипотез), Теперь рассмотрим некоторые типы задач проверки гипотез в условиях непараметрической априорной неопределенности (непараметрнческих гипотез), когда функции правдоподобия принадлежат непараметрическому классу (см.
и. 12.2.2). Ограничимся независимыми однородными выборками. Тогда непараметрический класс функций правдоподобия л Ю'„(к) = Ц ш(хь), ь=! (13.142) где и!(х) — произвольная одномерная плотность вероятности. Один тип задач проверки непараметрических гипотез — задачи сдвига. Гипотезе Н о том, что ы(х) =ы(х~П), противопоставляется альтернатива К и!(х)К) =и!(х — О)Н), ОФО. (13. 143) В некоторых случаях априори известно, что при гипотезе Н рассматриваемому непараметрическому классу принадлежат распределения, симметричные относительно медианы х0=хжм Тогда альтернативой в задаче сдвига является х0Фх,л.
Другой тнп задач проверки непараметрнческих гипотез — задачи масштаба. Гипотезе Н о том, что ш(х) =а!(х)Н) противопоставляется альтернатива ш (х ~ К) = ш (Ох ( Н), б ~ 1. (13. 144) Представляет интерес также задача проверки гипотезы Н о том, что выборка однородная, независимая (см, (13.142)1, против альтернативы К, что элементы выборки зависимы, т. е. )Г„(х) ~ Цп!(х„). ь=! (13. 145) Эту задачу иногда называют задачей проверки случайности. 13.7.2. Непараметрическне алгоритмы проверки гипотез. Рассмотрим дискретно-аналоговые одношаговые алгоритмы проверки непараметрической гипотезы Н против непараметрической альтернативы К. Каждый алгоритм основывается на разбиении выборочного пространства Х" на две непересекающиеся области Хн н Хя, Хн()Хк=Х".
Если выборка Х~Хн, то принимается решение Тн о том, что справедлива гипотеза Н, а если хенХк, то принимается решение Т» в пользу альтернативы К. Обозначим через шн и юя непараметрические семейства функций правдоподобия, 357 соответствующие гипотезе Н и альтернативе К. Вероятности ошибок первого и второго рода запишутся в виде а(%"„) =Р(хяХк(Н), К»енин, (13. 146) 6(Ю~) =Р(х~Хн(К), У»е-=шк. (13.
147) Обычно к непараметрическим относят алгоритмы принятия решения, для которых вероятность ошибки сохраняет постоянное значение по отношению к одной из непараметрических гипотез (Н или К). «Истинно» непараметрический алгоритм должен обладать указанным свойством по отношению к обеим непараметрическим гипотезам. 13.7.3. Критерий качества непараметрических алгоритмов проверки гипотез. Ограничимся непараметрическими состоятельными алгоритмами принятия решения, для которых вероятность а ошибки первого рода а=Р(хыХк1Н) (13.148) постоянна для всех йг„(х) ~юн. Зададимся некоторой величиной 8 вероятности ошибки второго рода. Для фиксированной альтернативы К рассмотрим две последовательности алгоритмов Ь„ и 6*„., где (и), [и*) — последовательности размеров выборок. Так как алгоритмы состоятельные, то всегда найдутся такие наименьшие размеры выборок им и*ы для которых 6 167„,, 6„„) ( ~, (1 (Ч7„., Ь„.~ ((1. (13.149) Непараметрический алгоритм 6*„* более эффективен, чем алгоритм 6, если при заданных а и 6 размер выборки и» -,пд.
Из двух непараметрических алгоритмов, поддерживающих постоянное значение ошибки первого рода, более эффективен тот, для которого заданное требование к вероятности ошибки второго рода удовлетворяется при меньшем размере выборки. Мерой эффективности алгоритма является отношение указанных размеров выборок, которое называют коэффициентом относительной эффективности 6* ° по отношению к алгоритму 6 [см. (12.34)): Р«, з(6»1 6«') = ид!иь. Алгоритм 6* ° более эффективен, чем Ь„, если р„,а )!.
Предположим, что алгоритм 6'„— оптимальный по критерию Неймана — Пирсона при полностью известных распределениях выборки как для гипотезы, так и для альтернативы. Ясно, что коэффициент относительной эффективности непараметрического алгоритма 6*„. по отношению к 6'„будет меньше нли, по крайней мере, не больше единицы.
Однако, если распределение выборки при гипотезе Н изменилось, то непараметрический алгоритм Ь „*, сохраняющий то же самое значение вероятности ошибки первого рода, становится более эффективным, чем алгоритм 6'„который уже утратил свойство оптимальности в изменившейся ситуации. эвв Хк -у„(х) )с, Хк-+у„(х) )с, или у„(х) (с„. (13.151) (13.!52) Неравенство (13,154) определяет односторонний алгоритм, а неравенства (13.152) — двусторонний.
Конечно, из условия (13.148) статистика у„(х) не определяется однозначно. Задача синтеза на эвристической основе состоит в подборе статистики у„(х), которая определяет непараметрический алгоритм 6„ (например, односторонний), удовлетворяющий ус- ловию (13.153) Р(у„(х) )с(Н) =а. При этом нет гарантии того, что может быть найдена другая статистика д„(х), удовлетворяющая такому же условию (13.153), ко торая определяет непараметрический алгоритм 6*„более эффективный, чем 6 .