Главная » Просмотр файлов » Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989)

Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996), страница 65

Файл №1141996 Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989)) 65 страницаЛевин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996) страница 652019-07-28СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 65)

124) Так как в правой части (13.124) второй член — известная константа, то достаточной статистикой будет также л У. (х) = и' х =- 2; ио хо, (13.125) о=1 где ц'= (и!,, и„) =(а! — ао)'К '. (13.125а) Статистика У„(х) как линейная комбинация зависимых гаусс совских величин подчиняется нормальному закону распределения (см. п.

3.3.8). Параметры этого распределения при гипотезе Но и альтернативе Н, т,(у„(х) ) Но) =ц'ао= (а,— а,)'К-'ао, (13.126а) т, (у„(х) ( Н!) = н'а! = (а, — ао) 'К-'аь (13.1266) )оо (Уо (х) ( Но) )оо (Уч (х) ! Н!) — о(оо (13. 126в) где Р = (а! — ао)'К-'(а,— а,). (13.127) '354 Заметим, что параметр о(„определяет «расстояние» между статистиками у„(х) при гипотезе и альтернативе [ср, с (13,82)] [т1(уо(х) !%) — ~%(уо(х) 1НО)]/[ро(уо(х)1Но, Н1)]' =с(и.

(13.128)' При и- оо «расстояние» между статистиками увеличивается, так как при этом д -о-оо. Отметим, что параметр с(„ определяет также среднее и дисперсию статистики логарифма отношения правдоподобия (13.124), которая, как и статистика (13.125), распределена по нормальному закону. Из (13.124) следует т,(1п1(х) ~ Н1) = — т,(1п /(к) 1Но) =о/о„/2, (13.129а) ро(1п 1(х) ~Н1) =ро(!п1(х) 1Но) =сРд, (13.129б) 13.6.3. Оптимальные алгоритмы. Из результатов, приведенных в $ !3.1, следует, что оптимальные дискретно-аналоговые алгоритмы принятия решения при проверке простой гипотезы Но: а= =ао против простой альтернативы Н1.а=а, (при известной не- вариационной матрице К) состоят в сравнении с порогом достаточной статистики (13.125) у„(х) = н'х К, (13.130) где порог К определяется выбранным критерием качества.

Для байесовского алгоритма, а также для алгоритмов максимальной апостериорной вероятности и максимального правдоподобия К = — (а, + а,)' К ' (а, — а ) + 1и с, (13.1311 где константа с для указанных критериев приведена в табл. 1.1. При использовании оптимальных по указанным трем критериям алгоритмов вероятности ошибок первого и второго рода а=Р(у„(х))К)Но)=1 — Р([К вЂ” (а,— ао)'К-'ао]/а'„), (13.132) р=Р(у„(х) (К/Н1) =Р([К вЂ” (а,— ао)'К 'а1]/с( ), (13.133) где Р(з) — интеграл Лапласа. Подставляя (13.131) в (13.132), (13.133), получаем а = 1 — Р (о(„/2+!и с~Я„), (13.

134) р =Р ( — с(„/2+!и с/д„). (13.135) Формулы (13.134) и (13.135) имеют тот же вид, что и (13.75), (13.76), и отличаются значением параметра с1„. Поэтому в рассматриваемом случае можно использовать формулы (13.80), (13.83), (13.84), если только подставлять в ннх значения параметра о(„ согласно (13.127) . Алгоритм принятия решения, опредсляемый неравенствами (13.130), оптимален также и по критерию Неймана — Пирсона, 12* 356 если при заданной вероятности а ошибки первого рода согласно (13.132) [ср. (13.87)) порог К= (а,— ао) 'К-'а,+г( х„. (13.136) Минимальная вероятность ошибки второго рода определяется по формулам (13.133) и (!3,!36), в которые подставляется значение параметра д„из (13.127). Если результаты наблюдений представлены не одним п-мерным вектором х, а Л' независимыми векторами хм 1=1, Л', т. е.

матрицей размером Л!Хп, то решение задачи проверки простых гипотез о векторе средних и-мерного нормального распределения сводится к рассмотренному, если выборку х заменить средним л арифметическим — ~' хгч а матрицу К вЂ” матрицей К/Л~. Величину 'ь=! лп„ в (13.127) прн этом следует заменить иа Упз,. 13.6.4. Другая форма достаточной статистики. Выражение (13.124) логарифма отношения правдоподобия можно упростить путем декорреляции случайных величин х„..., х„ (см, п.

3.1.10). Пусть С вЂ” ортогональная матрица, векторами-строками которой являются собственные (ортонормированные) векторы ~р;, != 1, и ковариационной матрицы К указанной совокупности зависимых выборочных значений [см. (3.20)]. Тогда компоненты вектора у= Сх (13.137) некоррелированы и, следовательно, независимы, так как выборка принадлежит нормальному распределению. Матрица СК 'С'=Р (13. 138) диагональная, ее элементы Ль ..., Մ— собственные значения (положительные) ковариационной матрицы К.

Из уравнения (13.137) находим т,(у)Н!)=Ь,=Ст,(х)Н,) =Сап /=0; 1. (13.139) Используя (13.137) и учитывая (13.139), получаем из (13.124) !п!(х) =(Ь, — Ь,)'СК ' С'у — — (Ь, +Ь,)'СК ' С'!Ь, — Ь,) = 2 = (Ь, — Ь,)' Ру — — (Ь, + Ь,)' Р (Ь, — Ь,). Так как второе слагаемое в (13.140) — известная компонента, то достаточной статистикой будет также а„(х) =(Ь,— Ь,)'Ру= Т,)ч(Ьм-Ьм)уь (13.141) (=! где Ьп, Ьз — компоненты векторов Ь| и Ьз.

В отличие от статистики у„(х) статистика д„(х) представляет линейную комбинацию независимых гауссовских случайных величин уь 1=1, п. 356 13ЛЧ ПРОВЕРКА ГИПОТЕЗ В УСЛОВИЯХ НЕПАРАМЕТРИЧЕСКОЙ АПРИОРНОЙ НЕОПРЕДЕЛЕННОСТИ 13.7.1. Типы задач. Ранее рассматривались задачи проверки гипотез относительно параметров функций правдоподобия (параметрических гипотез), Теперь рассмотрим некоторые типы задач проверки гипотез в условиях непараметрической априорной неопределенности (непараметрнческих гипотез), когда функции правдоподобия принадлежат непараметрическому классу (см.

и. 12.2.2). Ограничимся независимыми однородными выборками. Тогда непараметрический класс функций правдоподобия л Ю'„(к) = Ц ш(хь), ь=! (13.142) где и!(х) — произвольная одномерная плотность вероятности. Один тип задач проверки непараметрических гипотез — задачи сдвига. Гипотезе Н о том, что ы(х) =ы(х~П), противопоставляется альтернатива К и!(х)К) =и!(х — О)Н), ОФО. (13. 143) В некоторых случаях априори известно, что при гипотезе Н рассматриваемому непараметрическому классу принадлежат распределения, симметричные относительно медианы х0=хжм Тогда альтернативой в задаче сдвига является х0Фх,л.

Другой тнп задач проверки непараметрнческих гипотез — задачи масштаба. Гипотезе Н о том, что ш(х) =а!(х)Н) противопоставляется альтернатива ш (х ~ К) = ш (Ох ( Н), б ~ 1. (13. 144) Представляет интерес также задача проверки гипотезы Н о том, что выборка однородная, независимая (см, (13.142)1, против альтернативы К, что элементы выборки зависимы, т. е. )Г„(х) ~ Цп!(х„). ь=! (13. 145) Эту задачу иногда называют задачей проверки случайности. 13.7.2. Непараметрическне алгоритмы проверки гипотез. Рассмотрим дискретно-аналоговые одношаговые алгоритмы проверки непараметрической гипотезы Н против непараметрической альтернативы К. Каждый алгоритм основывается на разбиении выборочного пространства Х" на две непересекающиеся области Хн н Хя, Хн()Хк=Х".

Если выборка Х~Хн, то принимается решение Тн о том, что справедлива гипотеза Н, а если хенХк, то принимается решение Т» в пользу альтернативы К. Обозначим через шн и юя непараметрические семейства функций правдоподобия, 357 соответствующие гипотезе Н и альтернативе К. Вероятности ошибок первого и второго рода запишутся в виде а(%"„) =Р(хяХк(Н), К»енин, (13. 146) 6(Ю~) =Р(х~Хн(К), У»е-=шк. (13.

147) Обычно к непараметрическим относят алгоритмы принятия решения, для которых вероятность ошибки сохраняет постоянное значение по отношению к одной из непараметрических гипотез (Н или К). «Истинно» непараметрический алгоритм должен обладать указанным свойством по отношению к обеим непараметрическим гипотезам. 13.7.3. Критерий качества непараметрических алгоритмов проверки гипотез. Ограничимся непараметрическими состоятельными алгоритмами принятия решения, для которых вероятность а ошибки первого рода а=Р(хыХк1Н) (13.148) постоянна для всех йг„(х) ~юн. Зададимся некоторой величиной 8 вероятности ошибки второго рода. Для фиксированной альтернативы К рассмотрим две последовательности алгоритмов Ь„ и 6*„., где (и), [и*) — последовательности размеров выборок. Так как алгоритмы состоятельные, то всегда найдутся такие наименьшие размеры выборок им и*ы для которых 6 167„,, 6„„) ( ~, (1 (Ч7„., Ь„.~ ((1. (13.149) Непараметрический алгоритм 6*„* более эффективен, чем алгоритм 6, если при заданных а и 6 размер выборки и» -,пд.

Из двух непараметрических алгоритмов, поддерживающих постоянное значение ошибки первого рода, более эффективен тот, для которого заданное требование к вероятности ошибки второго рода удовлетворяется при меньшем размере выборки. Мерой эффективности алгоритма является отношение указанных размеров выборок, которое называют коэффициентом относительной эффективности 6* ° по отношению к алгоритму 6 [см. (12.34)): Р«, з(6»1 6«') = ид!иь. Алгоритм 6* ° более эффективен, чем Ь„, если р„,а )!.

Предположим, что алгоритм 6'„— оптимальный по критерию Неймана — Пирсона при полностью известных распределениях выборки как для гипотезы, так и для альтернативы. Ясно, что коэффициент относительной эффективности непараметрического алгоритма 6*„. по отношению к 6'„будет меньше нли, по крайней мере, не больше единицы.

Однако, если распределение выборки при гипотезе Н изменилось, то непараметрический алгоритм Ь „*, сохраняющий то же самое значение вероятности ошибки первого рода, становится более эффективным, чем алгоритм 6'„который уже утратил свойство оптимальности в изменившейся ситуации. эвв Хк -у„(х) )с, Хк-+у„(х) )с, или у„(х) (с„. (13.151) (13.!52) Неравенство (13,154) определяет односторонний алгоритм, а неравенства (13.152) — двусторонний.

Конечно, из условия (13.148) статистика у„(х) не определяется однозначно. Задача синтеза на эвристической основе состоит в подборе статистики у„(х), которая определяет непараметрический алгоритм 6„ (например, односторонний), удовлетворяющий ус- ловию (13.153) Р(у„(х) )с(Н) =а. При этом нет гарантии того, что может быть найдена другая статистика д„(х), удовлетворяющая такому же условию (13.153), ко торая определяет непараметрический алгоритм 6*„более эффективный, чем 6 .

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6553
Авторов
на СтудИзбе
299
Средний доход
с одного платного файла
Обучение Подробнее