Teoria_i_tekhnika_obrabotki_radiolokatsi onnoy_informatsii_na_fone_pomekh (1021138), страница 38
Текст из файла (страница 38)
Заменим элемент вероятности р (а, а) дада в (1) на ему равный р (а,а)йайа= р(а, у) даду. Совместную плотность вероятности р (а, у) выразим согласно (2) через условную р (а, у) = р (у) р (а ~ у). (!3.7) Средний риск ошибок (1) преобразуем к виду г(а,а) р(а,у)с(аду= ~ т (а(у) р(у) ду. (13.8) (у, а) (У) 188 Здесь введем условный средний риск, т. е. риск для фиксированной реализации у при выбранном алгоритме оценивания а = а (у): с(а)у) = ~ с(а,а) р(а(у)с(а.
(а) (13.9) Уточняя алгоритм оценивания, можно минимизировать условный средний риск (9), что ведет к минимизацйи безусловного среднего риска (8). Разновидностями функций стоимости ошибок с (а, а), дли которых проводится минимизация, являются: — простая функция стоимости ошибок измерения векторного параметра с' (а, а) = — б (а — а) + сопз(; (13.10) — квадратичная функция стоимости ошибок измерения скалярного параметра — частный и наиболее важный случай функции стоимости (11) при >=1=1, В„=1: с(а,а) =(а — а) . (13.12) Графики функций стоимости ошибок измерения скалярного параметра (10) и (12) схематически представлены на рис.
13.2, а, бдля нулевого значения постоянной (10). Минимальная плата за ошибку (наибольшая отрицательная плата — «премия>, рис. 13.2, а) имеет место, когда а = а. Входящие в (11) элементы Вы симметричной неособенной матрицы В = В' позволяют учесть неодинаковую важность ошибок измерения различных скалярных параметров (при различных 1 = 1) и корреляционных связей между параметрами (при различных сочетаниях с ~1). гса,аг 1 а дз -с>Са-аз Рис. 13.2 187 — квадратичная функция стоимости ошибок измерения вектор- ного параметра с(а,сс) =(а — сс) В(а — и) — >, Вы(а; — ас)(ат — ат); (13 11) с,! Условный средний риск ошибок измерения векторного параметра (9) для простой функции стоимости (10) определяется выражением т (а ! у) = — р (сс ~ у) + сопз(.
(13.13) Его минимум соответствует оценке а = а,, (у), обеспечивающей абсолютный максимум послеопытной плотности вероятности р(я(у) =макс при а=-и,„,(у). (13.14) В случае дифференцируемых и имеющих один максимум (унимодальных) функций р (а( у) оценка (14) определяется как решение системы уравнений др(а~у)/ди; =-0 при и=а,,(у) (1=1, 2,..., и), (13.15) (13.16) д 1п р (а ~ у)1д а; = 0 при сс = сс, (у). Для квадратичной функции стоимости выражения условного среднего риска ошибок измерения векторного и скалярного параметров имеют вид: г(а(у) = ~ (а — а)' В (сс — сс) р(я! У) йи, (я) с (я / у) = ~ (а — я) ' р (я ~ у) й я. (13.17) (!3.18) Минимум (17) при симметричной неособенной матрице В обеспечивается векторной оценкой условного математического ожиданияизмеряемого параметра сс, = ~ а р (а ~ у) й а = М (сс ! у).
(я) Такая оценка для скалярного случая и = 1 соответствует абсциссе центра массы, линейно распределенной по кривой одномерной после- опытной плотности вероятности р (я ~ у). Убедимся в (19), приравнивая нулю значение производной (18) по а для и = 1. Тогда я,„,= ~ яр(я(у) йа ~ р(я(у) Ня= ~ ар(а)у) йя. (1320) Ю вЂ” О 188 обеспечивающих нулевое значение производных послеопытной плотности вероятности по скалярным составляющим я; векторного параметра а. Их называют уравнениями максимума послеопытной плотности вероятности. Система уравнений (15) может быть заменена равносильной системой максимума логарифма послеопсчтной плотности вероятности К аналогичному выводу (19) для п ~'= 1, т.
е. для векторных параметр и =- (! иг !( и оценки и = 1 аз 1, придем, подставляя приведенные здесь их выражения в квадратичную форму подынтегрального выражения (17).Дифференцируя результат по составляющим ив векторной оценки, имеем д '~)" Всу(ви — ис) (сс; — и)) р(сс)у) с(и=о див (и) при а = ионе. В силу условий Вм = Вя симметрии матрицы В после диф. ференцирования придем к системе скалярных уравнений 2~Вь)и)=О (я=1,2, ...л) 1 для величин иг=и)опт ) Р(и) у) ои — ) игр(сс1у) йс=цу — ) сс р(и) у)йх.
(а) (и) () Система имеет нулевые решения: определитель неособенной матрицы В не ра- вен нулю, а вектор-столбец н = )( нз 11 тождественно обращаетгя в нулсн и =1)ссуовт 11 — ( 11 осу Ц р (и( у) Ли= О, (и) что равносильно (19). Часто зависимость р (а ( у) оказывается симметричной и унимодальной (имеющей единственный максимум). Оценка центра масс (19) совпадает в этом случае с оценкой максимума послеопытной плотности вероятности. Получаемые с помощью простой и квадратичной функций стоимости оценки, таким образом, совпадают.
Важным условием совпадения является надежное обнаружение сигнала в помехе. Рассматриваемый случай относят к случаям регулярного измерения. Регулярным будем называть измерение, для которого зависимость 1и р (а(у) от каждого из измеряемых скалярных параметров осы а„ а„..., а„является ди44еренс(ируемой, симметричной и унимодальной, Регулярное измерение проводится при еыеоком (асимптотически большом) отношении сигнал — помеха на выходе оптимальной системы обработки для дифференцируемых сигналов и в отсутствие многозначности измерений(многопиковости автокорреляционной функции в случае когерентного сигнала).
При несоблюдении любого из указанных условий наблюдаются аномалии, а измерение называют аномальным. Часто доопытная информация не уточняет результата текущих измерений: функция р (а) оказывается пологой по сравнению с р (у)а) или 1 (у(а), так что можно задаться р (а) = сопз(. Байесовские оценки максимума послеопытной плотности вероятностир (а ( у) сводятся при этом к небайесовским оценкам максимума р (у~ а), 1(у) а) или 1п1(у) а).
Эти оценки называются оценками наибольшего правдоподобия (максимума правдоподобия). Они определяются как корни 189 систем уравнений д1(у)а)1да;=-О при а=а(у)(г= — 1,2, ...,и), (13.21) д!п1(у~а)1да;=О при а=а(у)(!=1,2, ...,и). (1322) Часто встречается и противоположный случай, когда доопытные данные сравнительно точны, например в результате прогнозирования текущих параметров движения на основе предшествующих измерений. Оценки максимума послеопытной плотности вероятности предпочтительнее тогда оценок максимума правдоподобия, не учитывающих предшествующих данных. 4 3.4. Послеопытнвя плотность вероятности и корреляционная матрица ошибок регулярного измерения векторного параметра в отсутствие априорных данных Послеопытная плотность вероятности (5) в отсутствие априорных данных определяется выражением .
р (а ) у) = В01 (у ) а) = В, е (13.23) в котором В, = йр (а) = сопз1 — новый коэффициент пропорциональности. В силу регулярности измерения, функции 1 (у! а) и !п 1 (у) а) считаются однопиковыми, симметричными н дифференируемыми по каждой из скалярных составляющих вектора а.
Применительно к измерению скалярного параметра а сигнала, надежно обнаруживаемого на фоне помехи, на рис. 13.3, а, б показаны зависимости от а послеопытной плотности вероятности р (а( у), пропорциональной 1(у~а), и логарифмической функции 1п 1(у(а). Максимуму р (а ~ у) соответствует максимум 1(у ~ а), вторые производные по а этих функций отрицательны, но функция !п! (у~а) меняется в окрестности скалярной оценки а медленнее р(а ~ у). Аппроксимируя 1п 1 (у~ а) в этой окрестности, можно воспроизвести почти всю кри- вую р (а ~ у) первыми тремя членами ряЛ~а~ц! да Тейлора (полиномом второй степени). В случае векторного параметра а построение аппроксимирующего полинома основывается на ряде Тейлора функции многих переменных — т — 1п1(у!а) ж!п1(у !аг)+ ~~~~ (а!— г=! — агп) — 1п1(у! а„)+ ф ди! 1 + — ~~Р~ (а; — аг!) (а; — а„;) Х ь !=1 Х 1п1(у/аг).
(13.24) аа! аат Рис. !3.3 В силу (16) оценки наибольшего правдоподобия аи обращают в нуль коэффициенты при линейных членах полинома (24): — !п1(у!а) =0 при а=а„. (13.25) дссс Из (23) — (25) следует Рь~„|-в, «р( — ' т с,—;„,)с,,— „) '* ~ ~с„~;,)], сь 2 дссс дссз с 1=1 (13.26) где В, = В, ехр !!п 1(у ! а„)1 = В,1 (у ! а„) — новый нормирующий множитель. Зля каждой реализации у он уточняется из условия нор- СЮ мировки )г р (а ! у) йа = 1. — Ю Используя векторно-матричную запись (26), приходим к стандартной форме многомерного гауссовского (нормального) закона послеопьпного распределения случайных значений измеряемого параметра а: р(а ! у) = (2я) — "/з )С„!Ы' ехр ~ — — (а — а„)' С„(а — сс„)1.
(13.27) Здесь С„= /!Сце!! =)! — !п1(у ! ае)!! (13.28) — симметричная матрица С„= С'. Выражение логарифма отношения правдоподобия (24) представляется в виде 1п Е (у ! а) = — — (а — ае)' С„(а — ае)+ сопз!. (13,29) 2 М !(а — ар) (а — ар)'1 = М !!(ссс — аси) (сст — асн)!! (13.30) Вычисление последней с использованием (27) приводит к известному результату (а сх )(а сс )тр(сс!у)с(а (а) (13.31) Корреляционная матрица ошибок измерения (31) оказывается обратной матрицей по отношению к входящей в (27) матрице Сд. Матрицу Си называют в связи с этим обратной корреляционной матрицей ошибок измерения (матрицей точности). Определяя матрицу точности из (28) и обращая ее, находят корреляционную матрицу ошибок С„' ри Послеопытное распределение (27) полностью определяет корреляционную матрицу ошибок измерения параметра а в отсутствие априорных данных: Тем самым определяют дисперсии ошибок измерения составляющих векторного параметра а как диагональные элементы матрицы С„'.