Васин В.И. Информационные технологии в радиотехнических системах. Под ред. И.Б.Федорова (2003) (1092038), страница 21
Текст из файла (страница 21)
Примеры ее задания будут приведены при решении конкретных задач. 116 3.2. Основные положения теории статистических решений Теперь можно сформулировать математически задачу выбора решения: на основе априорных данных о пространствах полезных сигналов б и помех )ч(, распределениях вероятностей ш(я) и и(п) на этих пространствах соответственно, способе взаимодействия сигнала и помехи и заданной функции потерь П(я, у) необходимо по полученному сигналу и оптимальным образом найти решение у — какой конкретно из полезных сигналов содержится на входе приемника. Поскольку появление того илн иного полезного сигнала в, на входе приемника и принятие решения у, являются случайными событиями, то значение функции потерь П(я„у ) — случайная величина.
Поэтому ка- чество решения можно характеризовать математическим ожиданием функции потерь Я=М(П(в,у)1=~ ~~,й(в„у )П(в„у ), (3.4) Я = ЦП(в, 7)и(в, у)йвйу, (3.5) где и(в, 7) — совместная плотность вероятности сигнала в и решения 7. Для нерандомизированных правил принятое колебание и решение связаны детерминированной зависимостью, а поэтому справедливо соотношение (3.6) ш(в,у)йвйу = и(л,и)йлйи. С учетом формулы (3.6) выражение (3.5) записывается в виде Я = ЦП(в, у„)ш(в, и)йлйи, (3.7) где ун — решение, соответствующее принятому сигналу и(г). 117 где и(я„у ) — совместная вероятность появления на входе приемника сигнала в, и принятия решения уг Величина Я характеризует средние потери при принятии решения и называется средним риском. Чем меньше средний риск, тем лучше решение (наилучшим (оптимальным) решающим правилом будет такое, для которого значение среднего риска будет наименьшим).
Правило, при котором минимизируется средний риск, называется байесовским правичо.и, нли байесовскии критерие.и. Часто его также называют крипгерием минииуиа среднего риска. В случае, когда пространства сигналов $ и решений Г непрерывны, средний риск 3. Основы теории обнаружения и различения сигналов г, =,')„П(я„у,)ле(у,,)я,) э для дискретных пространств Б и Г и г, = )П(в, у)ле(у(в)сну = )П(л, у„)и(и~в)Аи для непрерывных пространств $ и Г, где й(у ~в, ) — вероятность принятия решения у, при условии, что на входе приемника присутствует полезный сигнал вн а и(у~в) и и(и~в) — соответственно условные плотности вероятности случайных величин у и ю Согласно минимаксному критерию наилучшим считается решающее правило, которое обеспечивает наименьшее значение максимального условного риска г,.
Минимаксный критерий позволяет найти наилучшее решение для наихудшего случая. Он гарантирует, что минимально возможное значение условного риска не будет больше некоторого значения даже при самом неблагоприятном распределении и(в). На практике часто встречаются случаи, когда ошибочные решения одинаково нежелательны, например при передаче дискретных сообщений. При этом целесообразно функцию потерь задать следующим образом: с опз1 при Г ~1, П(а„у,) = О при ~'=г.
(3.8) 118 Заметим, что средний риск не является исчерпывающей характеристикой решающего правила. Более полной характеристикой качества обработки сигнала может служить, например, совокупность двух показателей: среднего риска Я и дисперсии среднего риска е)я (в общем случае — совокупность моментов функции потерь П(а, у)). Однако синтез решающего правила по совокупности показателей значительно сложнее, и на практике ограничиваются критерием минимума среднего риска. Применение байесовского критерия требует большого объема априорной информации: необходимо знать функцию потерь и совместное распределение ле(в, и), или, что то же самое, распределения и (в) и и (и~в).
Если априорное распределение сигналов й(в) неизвестно, то применять критерий Байеса нельзя, так как при этом задача оптимизации, в смысле минимума среднего риска, оказывается неопределенной. В этом случае применяют минимаксный критерий. Введем понятие условного среднего риска 3.2. Основные положения теории статистическик решений Обычно так же функция потерь задается и в тех случаях, когда ее обоснованный выбор затруднителен. Например, это имеет место в радиолокации.
Действительно, при решении задачи обнаружения сигнала, как правило, трудно оценить потери, связанные с пропуском сигнала (пропуском цели) и ложным обнаружением (ложной тревогой). Для функции потерь, определяемой выражением (3.8), средний риск определяется формулой А=С~ ~ ш(воу ), 1-~у', (3.9) где С вЂ” любая постоянная. Из выражения (3.9) следует, что величина Я с точностью до постоянного множителя совпадает с полной вероятностью ошибочных решений. Поэтому байесовский критерий прн задании функции потерь в виде выражения (3.8) имеет смысл назвать критерием минимума полной вероятности ошибки.
Его часто называют критерием идеального наблюдателя, а также критерием Котельникова — Зигерта. Другим критерием, который минимизирует полную вероятность ошибочных решений, является критерий максимума апостериорной вероятности и(в(в) = и(в)ш(п(в) ш(ц) (3.10) в соответствии с которым решение принимается в пользу сигнала в„если и(в, )в) > и(в (и), 1 = 1, ..., т, (3.11) и(в~в,)>и(а~в ), 1= 1,...,т,,у-~1 (3.12) 119 Действительно, все, что можно узнать о полезном сигнале в, на основе принятого колебания и, заключено в апостериорной вероятности и(в,.~в), которая представляет собой не что иное, как вероятность правильного приема сигналов. Поэтому если решение принимать в соответствии с выражением (3.11), то гарантируется, что полная вероятность ошибки будет минимальной.
При отсутствии априорных сведений не только о функции потерь, но и о распределении сигналов ш(в) считают, что ш(в) = сопв1, т. е. принимают распределение сигналов как равномерное. При этом апостериорная вероятность (3.10) с точностью до постоянного множителя совпадает с функцией правдоподобия и(в~в). Для обеспечения минимального среднего риска решение принимается в пользу сигнала, для которого функция правдоподобия максимальна, т. е.
в пользу сигнала в„если 3. Основы теории обнаружения и различения сигналов Критерий (3.12) целесообразно назвать критерием максимального правдоподобия. Он часто используется в математической статистике при оценке неизвестных величин. В задачах обнаружения сигнала часто применяют критерий Неймана — Пирсона, который гарантирует, что вероятность ошибки типа «ложная тревога» не превысит заранее выбранную величину, а вероятность ошибки типа «пропуск сигнала» будет минимальной. Критерий Неймана — Пирсона не требует знания априорных вероятностей присутствия и отсутствия сигнала, а также функции потерь.
В рассмотренных выше решающих правилах выбор решений проводился на основе т-мерных векторов принимаемых сигналов, причем значение т оставалось постоянным. Существует правило выбора решений, при котором размер выборки сигнала в случаен и зависит от результатов наблюдения за сигналом на предыдущих т — 1 шагах (т.
е. в моменты времени ~). Это правило предложено Вальдом н называется правилом последовательного анализа. Оптимальность критерия Вальда заключается в том, что он при заданных вероятностях ошибочных решений гарантирует минимум среднего размера выборки сигнала, или, что то же самое, минимум среднего времени наблюдения, необходимого для принятия решения. Рассмотренные в настоящем параграфе критерии будут использованы далее при синтезе оптимальных устройств обработки сигналов. 3.3.
Обнаружение сигналов ЗЗ.1. Оптимальные алгоритмы обнаружении сигналов Задача обнаружения (ее формулировка дана в З 3.1) является частным случаем общей задачи проверки статистических гипотез: необходимо на основе анализа принятого колебания и(г) сделать выбор между гипотезой Нв (утверждение, что сигнала на входе нет, т.
е. параметр О равен нулю) и альтернативной гипотезой Н, (утверждение, что сигнал на входе присутствует, т. е. параметр О равен единице). Поскольку в задаче обнаружения возможны только два решения: уо (принимается гипотеза Ня) и у1 (принимается гипотеза Н~), она называется двоичной (двухаяьтернативной). Если распределение наблюдаемого колебания и(г) зависит только от того, какое значение принял параметр О, то гипотезы Нд и Н| называются простыми. Такой случай имеет место при обнаружении детерминированного сигнала. При зтом и(г) = Оз(г)+ п(г), 120 3.3.
Обнаружение сигналов р„= )и(п)Н )йв. (3.13) 2. Справедлива гипотеза Нь Принимается решение уь Этот случай называется правильным обнаружением. Вероятность такого события 23 = )н(н)Н,)йв. (3.14) 3. Справедлива гипотеза Нл. Принимается решение ть т. е. ошибочное решение. Этот случай называется ложным обнаружением (ложной тревогой). Вероятность такого события Г„= )н (н)Н )с(н. (3.15) 4. Справедлива гипотеза Нь Принимается решение у„т. е.