В.И.Тихонов Статистическая радиотехника (2-е издание, 1982) (1092037), страница 92
Текст из файла (страница 92)
Вероят- ность р, (Г,) отвергнуть гипотезу Н„когда она является правильной, в математической статистике называется уровнем значимости критерия. Вероятность р, (Г„) принять гипотезу Н„когда она является верной, называется мощностью критерия. 468 Обозначим через а условную вероятность ошибки первого рода, вычисленную при условии истинности события Л, (гипотезы Н,), а че- рез )) — условную вероятность ошибки второго рода, вычисленную при условии истинности события Л, (гипотезы Н,). Из введенных определе- ний следует, что а есть уровень значимости критерия, а (1 — р) — мощ- ность критерия.
Применяя правило определения вероятности попада- ния случайной величины $ в заданную область, можем написать а = р (В ~Л,) = ~ р, (х) йх, () = р(В ~ Л,) = ~ р, (х) йх. (4.6,1) г, г, Безусловные вероятности р„и рг ошибок первого и второго рода вы- ражаются через а, р и априорные вероятности событий Л, и Л,: ра =р(Ль) р(В~Ль)=рсс=р ~рь(х) йх, г, рз =р(Л.) р (В) Л) =4) р (х) й . (4.6.2) Н = ) Я (х) р (х) йх, (4.6.4) 469 Поэтому полная (суммарн я) вероятность ошибки р,=р„+р =р ~ р, (х) йх+(1 — р) ~ р, (х) йх.
(4.6.3) г, г, Основываясь на введенных вероятностях и и (), можно дать несколько определений оптимальности решения. Характер оптимальности в значительной мере зависит от двух факторов: 1) одинаковы нли различны по значимости ошибки первого и второго рода, 2) известны или нет априорные вероятности р и д. Мы приведем здесь лишь три оптимальных правила решения, которые наиболее часто применяются в радиотехнических приложениях. Критерий Байеса. Идеальный наблюдатель. В правилах решения, 'основанных на критерии Вайеса, исходят из того, что оптимальное правило должно минимизировать ущерб от принятия неправильных решений. При этом считаются заданными априорные вероятности каждой из двух гипотез р и д, а также количественные характеристики ущерба, т.
е. так называемые функции потерь ссп 1, 1 = О, 1. Здесь первая цифра подстрочного индекса означает выбранную гипотезу, а вторая — гипотезу, которая была правильной. Таким образом, каждому ошибочному решению ставится в соответствие некоторая положительная плата: с„— стоимость ошибки первого рода, с„— стоимость ошибки второго рода, Для безошибочных решений эта стоимость принимается нулевой (с„=- с„= 0). Согласно критерию Вайеса оптимальное решающее правило должно быть таким, чтобы средняя плата за ошибки была минимальной или, иначе, должен бить минимальным средний риск Я, который можно представить как среднее значение по пространству наблюдения Г от среднего риска при каждом значении х: где Я(х) — средняя плата при условии наблюдения х (апостериорный риск); р (х) — плотность вероятности наблюдений.
Получим выражения для К (х) и р (х). Пусть М есть некоторое множество значений х. Согласно закону Байеса условные вероятности событий Л, и Л, при условии, что х принадлежит множеству М, определяются формулами р(Л )М) р(М)Лв) р (Лв) р(Л )М) Р ( )Ло) Р (Ло) р (М) р (М) где р (М) = р (Л,) р (М / Л,) + р (Л,) р (М / Л,).
Если в качестве М взять множество значений, заключенных в интервале (х, х+ ах), то, используя ранее введенные обозначения, получим р (Л1)х) = г(р, (х)(р (х), р (Л,) х) = рр, (х)lр (х), (4.6.6) где р (х) = рр, (х) + с)р, (х). (4.6.7) Условные вероятности рр (Ло) = р (Ло)х) ррв (Ло) = р (Ло(х) (4 6 8) часто называют апостериорными вероятностями событий Л, и Л„ а отношение плотностей вероятностей 1(х) = р, (х)/ро (х) (4.6.9) — отношением правдоподобия. С учетом этих обозначений запишем отношение условных вероятностей ррв (Лв~(ррв (Ло) = 4рв (х)(рро (х) = (с)(р) 1 (х).
(4.6.10) Если после наблюдения х принять решение о справедливости гипотезы Н„т. е. отнести точку х к области Г„то апостериорный риск согласно формуле для математического ожидания дискретной случайной величины равен Яо'(х)=соорр,(Ло)х)+со„рр,(Л,)х)=сох рр,(Л,)х), (4.6.11) так как с„= О.
Аналогично если после наблюдения х принять решение Н„т. е. отнести точку х к области Г„то Я, (х) = с„рр, (Л, ) х) + соо ров (Ло)х) = соо ррв (Ло ) х) (4 6 12) ,Г(ля того чтобы решающее правило обеспечивало минимум среднего риска Я, достаточно, чтобы оно обеспечивало минимум апостериорного риска К (х) при каждом наблюдении х. Для этого согласно (11) и (12) решающее правило должно относить точку х к области Г, (принимать решение о справедливости гипотезы Н,), если с вРР (Лв)х) ) св Рр (Л )х). (4.6.13) При выполнении противоположного неравенства должно приниматься решение в пользу гипотезы Н,. При равенстве апостериорных рисков можно выбирать любую из гипотез (допустим, Нв).
Запишем неравенство (13) иначе: сов Ррв (Лв ) х) сов чро (х) соо ч 1 ( ) 1 (4 6 14) сд, рр, (Л,)х) с„рр, (х) см р 470 Отсюда получим окончательное реишюи(ее правило: 1(х) ( Й вЂ” принимается Н„т. е. х ~= Г„4 1(х) ) Й вЂ” принимается Н„т. е. х с= Г,, где Й вЂ” пороговая постояннал: Й = с,оР/согс).
(4.6.16) Решающее правило (15) базируется на отношении правдоподобия и поэтому называется критерием отношения правдоподобия. Этот критерий широко используется в статистике. Таким образом, критерий Байеса приводит к критерию отношения правдоподобия. Если при всех допустимых х отношение правдоподобия 1(х) является монотонной функцией х, то очень часто вместо (15) используется эквивалентное неравенство н, 1п [1 (х)] -= Й„й, 1п й.
(4.6.17) и, Из (15) видно, что вся процедура обработки наблюдения сводится к вычислению отношения правдоподобия 1(х). Априорные вероятности и стоимости не оказывают влияния на отношение правдоподобия; от них зависит только значение порога Й. Эта инвариантность процедуры обработки результатов наблюдения имеет большое практическое значение. Весьма часто функция потерь и априорные вероятности являются просто квалифицированными предположениями на основе предыдущего опыта.
Правило (15) дает алгоритм устройства обработки, рассматривая Й как переменный порог, учитывающий изменения в наших оценках априорных вероятностей и элементов функции потерь. Наиболее часто критерий Байеса используется с так называемой простой функцией потерь, когда сто = сот= 1 соо=си=0. (4.6.18) При такой функции потерь значимость ошибок первого и второго рода принимается одинаковой. В данном случае выражения (11) и (12) упрощаются: );>, (х) — р, (Л, ~ х), Я, (х) = р„, (Л, ~ х).
(4.6.19) Соответственно оптимальное решающее правило (15) примет вид но и, 1(х) ~~й=рй7 или рг,(Л,~х)(~ рт(Л !х). (4.6.20) и, и, Отсюда следует, что оптимальное решающее правило (20) максимизирует апостериорную вероятность правильного решения. Поскольку это справедливо для каждого наблюдения х, то соответствующее решающее устройство будет максимизировать полную (среднюю по наблюдениям) вероятность правильного решения или, то эквивалентно, минимизировать вероятность полной ошибки решения р,. 471 Действительно, в одномерном случае все возможные значения слу- чайной величины $ расположены на действительной оси х.
Допустим, что интервал Ро включает все значения х ( х„а Г, — значениях > х,. Тогда вероятность полной ошибки р, будет определяться формулой х, р, =- р ( ро (х) г(х + о) ~ р, (х) г(х. хо Найдем такое значение х„при котором зта вероятность минималь- на. Из условия г(р,Ыхо = 0 получаем следующее уравнение для опре- деления х,: Рг (хо)(ро (х,) = ( (х,) = Яг(. Из сравнения этого уравнения с первым соотношением (20) следует, что х, = Ь, т. е. правило решения (20) действительно обеспечивает получение минимума Р,. Правило решения (20) в литературе называют по-разному: идеальный наблюдатель, идеальное решение или наблюдатель Котельникова— Зигерта.
Итак, критерием оптимальности идеального наблюдателя (20) является то, что он минимизирует вероятность полной ошибки. Минимальное значение вероятности полной ошибки в одномерном случае определяется формулой в р, =- р ) р, (х) г(х + д ) р„(х) г(х. (4.6.21) Руководствуясь правилом (20), наблюдатель, обрабатывающий длинную последовательность повторных наблюдений, может быть уверен в том, что вред, причиняемый неверными заключениями, окажется минимальным. Пользуясь правилом решения идеального наблюдателя (20), получим теперь решения для двух приведенных примеров.
Пример 4,6.!. В данном примере вероятность Р того, что наугад выбранное изделие является бракованным, не зависит от результатов проверки других изделий и при истинности гипотезы Но равна р,. Поэтому закон распределения случайной величины З будет биномиальным: Ро (х)=С"„р~о(1 — ро) ", х=О, 1, 2, ..., п. Аналогично при справедливости гипотезы Нг Р (х) =С~ Рх(1 — Р )о х, к=о, 1, 2,, и, Записываем отношение правдоподобия Рт (х) Г РХ (1 р,) 1х ( 1 Рт о Ро (х) 1 Ро (! Рг) ! 1 ! Ро) Допустим, что среди партий готовой продукции, хранящейся на складе, одна четверть плохого качества. Если потребитель наугад выбирает одну партию изделий, то априорная вероятность р (Но) = Р = 1!4 и соответственно Р(Н,) =4= З)4. Согласно правилу (20) имеем ~ рг(! Р,) 1х р (1 рзУ (4.6.22) к( 1п~ — ( — ) 1~!п ~ 1, х=О, 1, 2..., и. (4.6.23) Таким образом, если число х бракованных изделий среди наугад выбранных п изделий удовлетворяет неравенству (23), то принимается решение о хорошем качестве полученной партии, в противном случае — решение о плохом качестве.