Главная » Просмотр файлов » Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989)

Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996), страница 58

Файл №1141996 Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989)) 58 страницаЛевин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996) страница 582019-07-28СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 58)

Пусть 6„, и 6„, — два одношаговых алгоритма приня« > <2! тия решения по выборкам размерами и, н и, соответственно. Потребуем равенства ошибок первого и второго рода при использовании и того, и другого алгоритмов [см. (12.29) и (12.30)] а(6<'>) =а(6«п) Р(6<'>) = р(6«п). (12.33) Отношение размеров выборок р(пь пг) =пг/и, (!2.34). называют коэффициентом относительной эффективности алгорвтма бп> по отношению к алгоритму 6<ю.

Если р)1, то алгоритм 6<п лучше (эффективнее) алгоритма 6<'>. Если не удается вычислить КОЭ, то для сравнения двух алгоритмов используют предельное значение этой величины р=-1ппр(п„п,), (12.34а) л,-иа которое называют коэффициентом асимптотической относительной эффективности (КАОЭ). 12.6.3.

Характеристики оценивании. Рабочую характеристику алгоритма оценивания параметра представляет принятый критерий качества оценки, например средний риск, а для байесовской оценки — минимальный (байесовский) риск. Широко используемыми характеристиками оценок параметров являются их моменты первого и второго порядка — средние зна- 320 чения и дисперсии. Если среднее значение оценки О (х) совпада- ет при любом и со средним значением оцениваемого параметра О, т. е. т<(О (х))-О, (12.35) то ее называют несмещенной оценкой. В классе несмещенных эффективной называют оценку с наименьшей дисперсией (средним квадратом ошибки).

Если 11ппп, (О„(х)) = О, (12,35а) П-Н30 то оценку О называют асимптотичесни несмещенной оценкой параметра О. Для сравнения двух оценок О„<п и О„<м скалярного параметра О по выборке размером п используют относительную эффектив- ность в =т ((О«о — О)ь)!т ((О<'> — О)ь) (12,3ба) для оценок с заданным смещением т<(О„) — О=6 (О) н е„= (<, (Оно)/р~ (О~ и) (12.35б) для несмещенных оценок.

Если е„)1, то оценка О <и лучше (эффективнее) оценки О ">. Если О <и= (О„),ь — эффективная оценка, то е„)1 прн любых оценках О <ю. Иногда для сравнения качества двух оценок используют асимптотичесную относительную эффективность (АОЭ) и, (О<м] ]< (и< (Ь<„'<]]' (ь< (О<э(]] (<ь ( О<э<] (12.37) 32( На основе введенных в этой главе понятий и определений выявляется следующая последовательность этапов (структурная схема) решения задач статистического синтеза: формулировка задачи (цели исследования), укомплектование априорных данных, принятие критерия качества, синтез оптимального алгоритма принятия решения, анализ рабочих характеристик оптимального алгоритма.

После указанных этапов выполняют анализ сложности реали- зации оптимального алгоритма, возможные его упрощения на ос- нове квазиоптимального или эвристического алгоритма и сравне- ния рабочих характеристик последних с рабочей характеристикой оптимального алгоритма. (1 — 87 Когда имеется полный комплект априорных данных, возможен синтез оптимального байесовского алгоритма принятия решения. Таким образом, байесовский алгоритм синтезируется в условиях полной априорной информации. Неполнота априорных данных — априорная неопределенность — преодолевается различными путями.

Один из них — синтез алгоритма по критерию качества, согласованного с имеющимися априорными данными, как было указано в п. п. 12.4.3— 12.4.6. При этом, однако, всегда предполагается знание функции правдоподобия выборки, которое представляет наиболее значимую априорную информацию. В этой связи будем относить априорную неопределенность (в узком смысле) к незнанию функции правдоподобия выборки. Имея в виду два класса функций правдоподобия — параметрический и непараметрический — выделим два основных типа задач синтеза алгоритмов принятия решения в условиях априорной неопределенности: в условиях параметрической и непараметрической априорной неопределенности. Глава 13 ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 13.1.

ОДНОШАГОВЫЕ АЛГОРИТЫЫ ПРОВЕРКИ ПРОСТОЙ ГИПОТЕЗЫ ПРОТИВ ПРОСТОЙ АЛЬТЕРНАТИВЫ 13.1.1. Постановка задачи и априорные данные. Наблюдается реализация исследуемого случайного процесса. Результат наблюдения представляется в виде выборки х= (хь ..., х„) фиксированного размера и, Выдвигается простая гипотеза Н, о том, что функция правдоподобия выборки равна %'(х1Н0), против простой альтернативы, что эта функция равна )г'(х~Н,). Гипотеза (и альтернатива) называется простой, если она полностью определяет функцию правдоподобия, и сложной, если она представляет конечное, счетное или континуальное множество гипотез. Примером сложной гипотезы является предположение о том, что выборка х характеризуется параметрическим семейством У7(х(Ф) функций правдоподобия, причем Феив и  — конечное, счетное или континуальиое множество. Задача состоит в том, чтобы по результату наблюдения — выборке х — принять или отвергнуть гипотезу Ны Рассмотрим полный комплект априорных данных для этой задачи.

При фиксированном размере выборки пространством наблюдений (выборочным пространством) является и-мерное евклидово пространство Х", на котором заданы две функции правдоподобия )(У(х)Н,) и Ю'(к~Н~), хенХ". Известны, кроме того, априорные ве- 322 (13.3) (13.4) роятности гипотезы Но и альтернативы Нь которые образуют полную группу событий ро=Р(Но) =1 — Р(Н~) =1 — рь (13.1) Пространство решений Г состоит из двух элементов: уо — реше- ния принять гипотезу Н„у~ — решения принять альтернативу Н~ (отклонить гипотезу На).

Рассматривается класс !1 дискретно-аналоговых, одношаговых алгоритмов принятия решения. Каждый алгоритм (правило выбо- ра решения) бенР предписывает в этом случае разделение выбо- рочного пространства Х" на две непересекающиеся области Хо и Хь Хо()Х~=Х". Если наблюдаемая выборка попала в область Хм то принимается решение ум а если в область Хь то реше- ние уь В математической статистике область Хо принятия гипотезы Но называют допустимой, а область Х, отклонения этой гипоте- зы — критической. Матрица потерь П=("" ""~, П„)П ')О, П„)П„)0 (13.2) ~П„ П„у состоит из четырех элементов: по главной диагонали расположе- ны платы за правильные решения, а по побочной — платы Пм и Пы за ошибки первого рода уй)Но и второго рода уоДН~ соответ- ственно.

Так как при проверке простой гипотезы Но против простой альтернативы Н, функции правдоподобия Р'(х~Н,), 1!Г(х~Н~) пол- ностью известны, то согласно предложенной в и. 12.6 терминоло- гии синтез алгоритма принятия решения по любому критерию в рассматриваемом случае является синтезом в условиях полной априорной информации. 13.1.2.

Условные вероятности ошибок и априорные вероятност- ти решений. Запишем выражения для условных вероятностей оши- бок. Вероятность а ошибки первого рода [см. (12.29)1: а = Р(у,)Нь) =Р(хепХ,!На) = ~%'(х!Н,)дх. х, Вероятность правильного решения, состоящего в принятии верной гипотезы Н,, дополняет указанную вероятность до единицы, т. е. Р(у,!Но) =- Р(хепХ,~Н,)= ) Яу(х! На) дх = х, = 1 — )" 1(г (х ! Н ) дх = 1 — и. (13.3а) х, Вероятность 6 ошибки второго рода ~=Р(з! !Н ) =Р(хенХ,!Н ) = ЦГ(х!Н,)дх.

х, Вероятность правильного решения, состоящего в отклонении ложной гипотезы Но, дополняют р до единицы, так ках 11» звз (13.4а) где го = ПооР(уо ! Но)+По(Р(7((Но) = Поо (1 — а) + По(а, (137) г(=П(оР(уо)Н()+ПнР(у(((Н() =П(оро+П(((1 — лР) (13 8) (((Рт)Нт) = Р(хенХт(Нт) = ( ((т(х)Нт) ((х = х, 1 — ~ ((У(х)Н,)((х = 1 — ~. х, Вероятность а ошибки первого рода (т.

е. вероятность отверг- нуть правильную гипотезу Н,) в математической статистике на- зывают уровнем значимости, а вероятность 1 †(з отвергнуть лож- ную гипотезу — мощностью правила выбора решений '. Априорные вероятности решений уо и 7( Р (7о) = Ро Р (уо ! Но) +Р( (уо / Н() = Р о (1 — а) + р((з, (13.5а) Р(у()=роР(у(!Но)+р(Р(у(!Н() =Роа+р1(1 — Р) (135б) :определяют частоты появления отдельных решений в длинной по- следовательности принятия решений. В (13.5а и б) р((1, роа — ап- риорные вероятности ошибок, а ро(1 — а), р((1 — Р) — априорные вероятности правильных решений. Для заданного размера выборки вероятности ошибок и перво- го и второго рода невозможно одновременно сделать сколь угод- (но малыми. Например, чтобы ошибки первого рода появлялись 1редко, можно уменыпить до очень малого размера критическую область Х(.

Но прн этом допустимая область будет охватывать почти все выборочное пространство, что приведет к недопустимо- му увеличению вероятности ошибок второго рода. Поэтому для того, чтобы сформулировать то или иное правило выбора реше- ний, необходимо выработать какие-то разумные подходы. Путь к таким подходам указывают критерии качества, рассмотренные в $12.3. 13.1.3. Байесовский алгоритм. Используя указанный весь ком- плект априорных данных, запишем выражение среднего риска [см. (12.12) при т=1] И=Рого+Р(г(, (13.6) ' решающая функция Ф(х) для веракдомизироваииого правила выбора решекия Ф(х) = ( * Х, т. е.

является своеобразным счетчиком попадания вы( (, х(шх~ (О, хшхо' борки х=(хь ..., х ) в критическую область. Формулы ((33) и (134а) при помощи решающей функции Ф(х) можко записать в виде условных средних ае шо(Ф(х) ~Ню)= ) Ф(х] ЯУ(х!Но)бх, х" 1 — 5=то(Ф(х)(НВ= ) Ф(х) ЯГ(х(Нз)((х. х" Для ракдомизироваипого правила Ф(х) представляет некоторую функцию распределеиия.

324 — условные риски, соответствующие гипотезе Но и альтернативе Н. Подставляя (13.7) и (13.8) в (13.6), после простых преобразований получаем И=роПоо+РЛ1о+Ро(По1 — Поо)а— — Р1 (Пш — Пп) (1 — р). (13.9) За критерий оптимальности алгоритма принятия решения примем минимальное значение среднего риска (байесовский критерий). Тот или иной алгоритм определяется выбором области Хь Область Хо является дополнением к области Х~ в выборочном. пространстве. Зависимость среднего риска от выбора Х, проявляется через величины а и 1 — р. Подставляя (13.3) и (13.4а) в (13.9), находим указанную зависимость среднего риска )с от выбора области Х, в выборочном пространстве: Р = р, П„+ р, Пто — ( (р, (τ— П„) )аг (х) Н,)— х, — р (П, — П ) йр (х)Но)) с1х; 113.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6553
Авторов
на СтудИзбе
299
Средний доход
с одного платного файла
Обучение Подробнее