Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996), страница 58
Текст из файла (страница 58)
Пусть 6„, и 6„, — два одношаговых алгоритма приня« > <2! тия решения по выборкам размерами и, н и, соответственно. Потребуем равенства ошибок первого и второго рода при использовании и того, и другого алгоритмов [см. (12.29) и (12.30)] а(6<'>) =а(6«п) Р(6<'>) = р(6«п). (12.33) Отношение размеров выборок р(пь пг) =пг/и, (!2.34). называют коэффициентом относительной эффективности алгорвтма бп> по отношению к алгоритму 6<ю.
Если р)1, то алгоритм 6<п лучше (эффективнее) алгоритма 6<'>. Если не удается вычислить КОЭ, то для сравнения двух алгоритмов используют предельное значение этой величины р=-1ппр(п„п,), (12.34а) л,-иа которое называют коэффициентом асимптотической относительной эффективности (КАОЭ). 12.6.3.
Характеристики оценивании. Рабочую характеристику алгоритма оценивания параметра представляет принятый критерий качества оценки, например средний риск, а для байесовской оценки — минимальный (байесовский) риск. Широко используемыми характеристиками оценок параметров являются их моменты первого и второго порядка — средние зна- 320 чения и дисперсии. Если среднее значение оценки О (х) совпада- ет при любом и со средним значением оцениваемого параметра О, т. е. т<(О (х))-О, (12.35) то ее называют несмещенной оценкой. В классе несмещенных эффективной называют оценку с наименьшей дисперсией (средним квадратом ошибки).
Если 11ппп, (О„(х)) = О, (12,35а) П-Н30 то оценку О называют асимптотичесни несмещенной оценкой параметра О. Для сравнения двух оценок О„<п и О„<м скалярного параметра О по выборке размером п используют относительную эффектив- ность в =т ((О«о — О)ь)!т ((О<'> — О)ь) (12,3ба) для оценок с заданным смещением т<(О„) — О=6 (О) н е„= (<, (Оно)/р~ (О~ и) (12.35б) для несмещенных оценок.
Если е„)1, то оценка О <и лучше (эффективнее) оценки О ">. Если О <и= (О„),ь — эффективная оценка, то е„)1 прн любых оценках О <ю. Иногда для сравнения качества двух оценок используют асимптотичесную относительную эффективность (АОЭ) и, (О<м] ]< (и< (Ь<„'<]]' (ь< (О<э(]] (<ь ( О<э<] (12.37) 32( На основе введенных в этой главе понятий и определений выявляется следующая последовательность этапов (структурная схема) решения задач статистического синтеза: формулировка задачи (цели исследования), укомплектование априорных данных, принятие критерия качества, синтез оптимального алгоритма принятия решения, анализ рабочих характеристик оптимального алгоритма.
После указанных этапов выполняют анализ сложности реали- зации оптимального алгоритма, возможные его упрощения на ос- нове квазиоптимального или эвристического алгоритма и сравне- ния рабочих характеристик последних с рабочей характеристикой оптимального алгоритма. (1 — 87 Когда имеется полный комплект априорных данных, возможен синтез оптимального байесовского алгоритма принятия решения. Таким образом, байесовский алгоритм синтезируется в условиях полной априорной информации. Неполнота априорных данных — априорная неопределенность — преодолевается различными путями.
Один из них — синтез алгоритма по критерию качества, согласованного с имеющимися априорными данными, как было указано в п. п. 12.4.3— 12.4.6. При этом, однако, всегда предполагается знание функции правдоподобия выборки, которое представляет наиболее значимую априорную информацию. В этой связи будем относить априорную неопределенность (в узком смысле) к незнанию функции правдоподобия выборки. Имея в виду два класса функций правдоподобия — параметрический и непараметрический — выделим два основных типа задач синтеза алгоритмов принятия решения в условиях априорной неопределенности: в условиях параметрической и непараметрической априорной неопределенности. Глава 13 ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 13.1.
ОДНОШАГОВЫЕ АЛГОРИТЫЫ ПРОВЕРКИ ПРОСТОЙ ГИПОТЕЗЫ ПРОТИВ ПРОСТОЙ АЛЬТЕРНАТИВЫ 13.1.1. Постановка задачи и априорные данные. Наблюдается реализация исследуемого случайного процесса. Результат наблюдения представляется в виде выборки х= (хь ..., х„) фиксированного размера и, Выдвигается простая гипотеза Н, о том, что функция правдоподобия выборки равна %'(х1Н0), против простой альтернативы, что эта функция равна )г'(х~Н,). Гипотеза (и альтернатива) называется простой, если она полностью определяет функцию правдоподобия, и сложной, если она представляет конечное, счетное или континуальное множество гипотез. Примером сложной гипотезы является предположение о том, что выборка х характеризуется параметрическим семейством У7(х(Ф) функций правдоподобия, причем Феив и  — конечное, счетное или континуальиое множество. Задача состоит в том, чтобы по результату наблюдения — выборке х — принять или отвергнуть гипотезу Ны Рассмотрим полный комплект априорных данных для этой задачи.
При фиксированном размере выборки пространством наблюдений (выборочным пространством) является и-мерное евклидово пространство Х", на котором заданы две функции правдоподобия )(У(х)Н,) и Ю'(к~Н~), хенХ". Известны, кроме того, априорные ве- 322 (13.3) (13.4) роятности гипотезы Но и альтернативы Нь которые образуют полную группу событий ро=Р(Но) =1 — Р(Н~) =1 — рь (13.1) Пространство решений Г состоит из двух элементов: уо — реше- ния принять гипотезу Н„у~ — решения принять альтернативу Н~ (отклонить гипотезу На).
Рассматривается класс !1 дискретно-аналоговых, одношаговых алгоритмов принятия решения. Каждый алгоритм (правило выбо- ра решения) бенР предписывает в этом случае разделение выбо- рочного пространства Х" на две непересекающиеся области Хо и Хь Хо()Х~=Х". Если наблюдаемая выборка попала в область Хм то принимается решение ум а если в область Хь то реше- ние уь В математической статистике область Хо принятия гипотезы Но называют допустимой, а область Х, отклонения этой гипоте- зы — критической. Матрица потерь П=("" ""~, П„)П ')О, П„)П„)0 (13.2) ~П„ П„у состоит из четырех элементов: по главной диагонали расположе- ны платы за правильные решения, а по побочной — платы Пм и Пы за ошибки первого рода уй)Но и второго рода уоДН~ соответ- ственно.
Так как при проверке простой гипотезы Но против простой альтернативы Н, функции правдоподобия Р'(х~Н,), 1!Г(х~Н~) пол- ностью известны, то согласно предложенной в и. 12.6 терминоло- гии синтез алгоритма принятия решения по любому критерию в рассматриваемом случае является синтезом в условиях полной априорной информации. 13.1.2.
Условные вероятности ошибок и априорные вероятност- ти решений. Запишем выражения для условных вероятностей оши- бок. Вероятность а ошибки первого рода [см. (12.29)1: а = Р(у,)Нь) =Р(хепХ,!На) = ~%'(х!Н,)дх. х, Вероятность правильного решения, состоящего в принятии верной гипотезы Н,, дополняет указанную вероятность до единицы, т. е. Р(у,!Но) =- Р(хепХ,~Н,)= ) Яу(х! На) дх = х, = 1 — )" 1(г (х ! Н ) дх = 1 — и. (13.3а) х, Вероятность 6 ошибки второго рода ~=Р(з! !Н ) =Р(хенХ,!Н ) = ЦГ(х!Н,)дх.
х, Вероятность правильного решения, состоящего в отклонении ложной гипотезы Но, дополняют р до единицы, так ках 11» звз (13.4а) где го = ПооР(уо ! Но)+По(Р(7((Но) = Поо (1 — а) + По(а, (137) г(=П(оР(уо)Н()+ПнР(у(((Н() =П(оро+П(((1 — лР) (13 8) (((Рт)Нт) = Р(хенХт(Нт) = ( ((т(х)Нт) ((х = х, 1 — ~ ((У(х)Н,)((х = 1 — ~. х, Вероятность а ошибки первого рода (т.
е. вероятность отверг- нуть правильную гипотезу Н,) в математической статистике на- зывают уровнем значимости, а вероятность 1 †(з отвергнуть лож- ную гипотезу — мощностью правила выбора решений '. Априорные вероятности решений уо и 7( Р (7о) = Ро Р (уо ! Но) +Р( (уо / Н() = Р о (1 — а) + р((з, (13.5а) Р(у()=роР(у(!Но)+р(Р(у(!Н() =Роа+р1(1 — Р) (135б) :определяют частоты появления отдельных решений в длинной по- следовательности принятия решений. В (13.5а и б) р((1, роа — ап- риорные вероятности ошибок, а ро(1 — а), р((1 — Р) — априорные вероятности правильных решений. Для заданного размера выборки вероятности ошибок и перво- го и второго рода невозможно одновременно сделать сколь угод- (но малыми. Например, чтобы ошибки первого рода появлялись 1редко, можно уменыпить до очень малого размера критическую область Х(.
Но прн этом допустимая область будет охватывать почти все выборочное пространство, что приведет к недопустимо- му увеличению вероятности ошибок второго рода. Поэтому для того, чтобы сформулировать то или иное правило выбора реше- ний, необходимо выработать какие-то разумные подходы. Путь к таким подходам указывают критерии качества, рассмотренные в $12.3. 13.1.3. Байесовский алгоритм. Используя указанный весь ком- плект априорных данных, запишем выражение среднего риска [см. (12.12) при т=1] И=Рого+Р(г(, (13.6) ' решающая функция Ф(х) для веракдомизироваииого правила выбора решекия Ф(х) = ( * Х, т. е.
является своеобразным счетчиком попадания вы( (, х(шх~ (О, хшхо' борки х=(хь ..., х ) в критическую область. Формулы ((33) и (134а) при помощи решающей функции Ф(х) можко записать в виде условных средних ае шо(Ф(х) ~Ню)= ) Ф(х] ЯУ(х!Но)бх, х" 1 — 5=то(Ф(х)(НВ= ) Ф(х) ЯГ(х(Нз)((х. х" Для ракдомизироваипого правила Ф(х) представляет некоторую функцию распределеиия.
324 — условные риски, соответствующие гипотезе Но и альтернативе Н. Подставляя (13.7) и (13.8) в (13.6), после простых преобразований получаем И=роПоо+РЛ1о+Ро(По1 — Поо)а— — Р1 (Пш — Пп) (1 — р). (13.9) За критерий оптимальности алгоритма принятия решения примем минимальное значение среднего риска (байесовский критерий). Тот или иной алгоритм определяется выбором области Хь Область Хо является дополнением к области Х~ в выборочном. пространстве. Зависимость среднего риска от выбора Х, проявляется через величины а и 1 — р. Подставляя (13.3) и (13.4а) в (13.9), находим указанную зависимость среднего риска )с от выбора области Х, в выборочном пространстве: Р = р, П„+ р, Пто — ( (р, (τ— П„) )аг (х) Н,)— х, — р (П, — П ) йр (х)Но)) с1х; 113.