Кузьмин С.З. Основы теории цифровой обработки радиолокационной информации (1974) (1186213), страница 64
Текст из файла (страница 64)
Оптимальное решение этойзадачи составляет содержание теории оптимальной фильтрации.В следующем параграфе излагаются необходимые сведения из теории оптимальной фильтрации.3389.2. Элементы теории оптимальной фильтрацииОбычно под фильтрацией понимают непрерывное воспроизведение некоторой переменной величины, являющейся параметром наблюдаемого случайногопроцесса. Теория оптимальной фильтрации заложена фундаментальными работами Колмогорова, Винера, Стратоновича и др. Первоначально эта теория развивалась независимо от теории статистических решений и основывалась на следующих исходных предпосылках:— фильтруемый случайный процесс является аддитивной смесью полезногосигнала (параметра) и помехи; сигнал и помеха представляют собой стационарные случайные процессы с различными корреляционными функциями;— реализация смеси задана на столь большом промежутке времени (предшествующем данному моменту времени ί), что его можно считать бесконечнобольшим;— искомая оптимальная система (фильтр) осуществляет линейное преобразование;— критерием оптимальности является минимум среднеквадратичной ошибки воспроизведения параметра или какой-либо линейной функции от параметра.Получаемая в результате решения этой задачи оптимальная линейная система для фильтрации непрерывного во времени параметра называется фильтромВинера.
Теория винеровской фильтрации изложена во многих книгах (см., например, [16, 7 и 2]). При дискретном входном сигнале аналогичная задача до Винера решалась А. Н. Колмогоровым [JOJ.Таким образом, в классической постановке задача фильтрации состоите том,чтобы по результатам -наблюдения случайного процесса на полубесконечноминтервале времена (—оо, f) оценить значение полезного сигнала б (/ + τ) с наименьшим искажением.
Решение этой задачи при τ < 0 называется фильтрациейпри интерполировании случайного процесса; при τ > 0 говорят о фильтрации приэкстраполировании случайного процесса, а при τ = 0 — о фильтрации при сглаживании случайного процесса.За последнее время сделан целый ряд попыток объединения теории оптимальной фильтрации с теорией статистических решений.
При этом неходят изследующих основных выводов последней:Д— формирование апостериорной вероятности является достаточной первичной операцией любой оптимальной системы, в том числе и системы оптимальнойфильтрации;— выражение для апостериорной вероятности можно записать и для параметра, изменяющегося во времени, если известен характер этого изменения.Широкий класс подлежащих фильтрации случайных процессов относитсяк классу марковских процессов.
Проблема формирования апостериорной вероятности для марковских изменяющихся параметров, произвольно закодированныхво входном сигнале, успешно решается в работах Р. Л. Стратоновича [5].Ниже в данном параграфе излагаются основные результаты теории фильтрации марковских параметров. Эта теория базируется на теореме Байеса и поэтомуиногда называется также байесовой фильтрацией.9.2.1. Основное уравнение оптимальной фильтрацииПусть наблюдаомый случайный процесс у (t) представляет собой аддитивнуюсмесь полезного параметра Θ (ί), являющегося марковским процессом, и стационарной помехи п (ОСтавится задача оптимальной фильтрации параметра Θ (/) по измерениям(выборкам) смеси у it). Так как формирование апостериорной вероятности является достаточной первичной операцией в любой оптимальной системе, то и задача оптимальной фильтрации сводится, прежде всего, к вычислению апостериорного распределения вероятности для фильтруемого параметра.Будем считать, что измерения производятся в дискретные моменты времениh> h> ••••»' 'п- Тогда в соответствии с формулой Байеса выражение для п-мерноЙ•339апостериорной плотности вероятности изменяющегося во времени параметразапишется в виде»(Θι....=CnPn®ltУп)«Уп\Ьи ..-.
, Θ Β ) ,ΘηΐΛЬп)тЬгУг(9.2.1)где Р п (Θ1( .„, Θη) — π-мерная априорная плотность распределения параметра;tf (ί/ΐι •••> Уп I ^!Θη) — п-мерная функция правдоподобия параметра;— нормирующий множитель, независимый от Gj.Напомним, что для марковского параметра условная плотность вероятностии* (^η I ®η-ι> ..-. Θχ) удовлетворяет соотношению* »<Θη|Θ η -ι» . . .
. Θ ^ Ξ ^ ί Θ η Ι Θ η - ι ) .' (9.2.2)Функция ty (Θή I в^-i) называется плотностью вероятности перехода из состояния Θη_, в момент времени tn-l в состояние Вп в момент времени tn: Черезату плотность вероятности я-мерное априорное распределение параметров вы"ражается в видеп•РпФи . . . . Θ η Ι - Λ ί Θ ί ) П w(bt]Qi.i).(9.2.3)где Pi (Θ,) — априорная-плотность распределения параметра в момент времениtY начала наблюдения.Предположим далее, что выборочные значения помехи в моменты измерения// (ΐ = 1, 2л) не связаны между собой, так что функцию правдоподобия.О" (Уг> •••> Уп I Θ:, ....
Θη) можно записать в виде»(У1^ηΙΘιΘη)« П w(yt\Bt).(9.2.4)Используя теперь выражения (3) и (4), выражение (1) для л-мерной апостериорной плотности марковского параметра можно записать в видеX П κί(Θί|Θ(-ι).κ>(£/ί1Θί).Аналогичным образом дляΗ»(ΘΙ,(9.2.5)п + 1-мерной апостериорной плотности получим. . . " , Θ η + ι ' | £ / ι . ••• . ί / η + ι ) = "ί=2Выражая теперь ю{91_, . . . . θ η + x l y i . ••• . Уп+ύ через ш (Θ^ ..., Θ η | у и ....
j/ n )получаем следующее рекуррентное уравнение:α»(Θΐ, . . . . θ η + i t i / i » ••• . ί/η+ι) ! =(9.2.7)Входящее в это уравнение произведение п-мерной апостериорной плотностираспределения параметра w {Θ1( .... Θη | ^ ι , . . . , ^ η ) на плотность вероятности перехода ш (Θ π+1 1 Θη) представляет собой априорную плотность распределения параметра в момент / п + 1 по данным измерений на интервалеh — in- Обозначим эту плотность вероятности через Рп (Θ1Θ2,рекуррентное уравнение (7) записывается в виде- Тогда(9.2.8)Полученное уравнение и является основным уравнением фильтрации марковского параметра.
В соответствии с "этим уравнением для формирования многомерного апостериорного распределения на очередном шаге необходимо с помощьюфункции перехода экстраполировать многомерное апостериорное распределение предыдущего шага и умножить результат экстраполяции на значениефункции правдоподобия очередного измерения, которое характеризует вновьпоступившие сведения о параметре.Рекуррентные соотношения для оценки параметра 6j получаются далее путем дифференцирования многомерного апостериорного распределения (или- егологарифма), по оцениваемым параметрам с последующим приравниванием результатов дифференцирования нулл и решением уравнения относительно Θ*.Получаемые оценки будут оптимальными оценками по критерию максимумаапостериорной вероятности.В задачах обработки радиолокационной информации, фильтрации в смысле,главным образом, последовательного сглаживания подлежат изменяющиеся вовремени параметры сопровождаемых траекторий.
Как уже отмечалось, наиболеераспространенным является представление траектории в виде детерминированного процесса, в том числе в виде набора временных полиномов с неизвестнымикоэффициентами (параметрами движения). Следовательно, в данном случае мыимеем дело с фильтрацией детерминированных сигналов с неизвестными параметрами, принимаемых на фоне аддитивных помех.Для детерминированных параметров плотность .вероятности переходаш (Θ η + 1 [ Θη.) имеет вид дельта-функции, вследствие чего многомерное апостериорное распределение предыдущего шага трансформируется на следующийс помощью неслучайного оператора экстраполяции, примененного к векторупараметров, т. е.•Задача получения рекуррентных соотношений для оценки параметров в данном случае упрощается (см.
следующий параграф).9.2.2. Некоторые задачи нелинейной оптимальной фильтрацииРассмотрим задачу фильтрации параметра, изменяющегося во времени скачкообразно. Пусть, например, при^невозмушенном движении фильтруемый параметр остается неизменным, т. е. скорость его изменения Θ = 0.
Далее, начинаяс неизвестного наблюдателю момента времени /0 и до момента tu скорость получает приращение АОд, которое может принимать дискретный ряд значений: ΔΘ0 == 0, Δθ 1 ( Авг,Д 8 т . Указанные значения приращений образуют простуюцепь Маркова с матрицей вероятностей переходовП=1—actiР,1-PJВ.Рг.0а2атО...О1—В-...00...1—10а=' ...^А-1«А-Если рассмотреть теперь двумерный процесс (yt = у (it), σ/ = б (tt)),то легко показать, что этот процесс является марковским (вследствие марковостиодной из его компонент), причем первая компонента является наблюдаемой.авторая — ненаблюдаемой. Задача состоит в том, чтобы по известному значениюнаблюдаемой компоненты случайного процесса найти распределение вероятностиненаблюдаемой его компоненты. Решение этой задачи составляет содержаниетеории условных марковских процессов и освещено в работах Р.
Л. Стратоновича (см., например, [5]).Следуя [б], получим рекуррентные соотношения для апостериорного распределения вероятности ненаблюдаемой компоненты 9j двумерного условногомарковского процесса (yi, Θ0- Для простоты положим, что Θ/ принимает толькодва возможных значения: 0 и 1, а матрица переходных вероятностей имеет вид1 —а(9.2.9)Пусть у п = |!1#1, Уз, ••-, Уп\\ — вектор-строка измеренных значений наблюдаемой компоненты случайного процесса, а Θη = j| Θ1( Θ2, .... Θη |( — аналогичный вектор для ненаблюдаемой компоненты. Вследствие марковости двумерногопроцесса (yt, 6j) плотность вероятности их совместного распределения записывается в видеП w{ylt(9.2.10)i<= 2где w(yi, Θ( ji/(_i, Θί-ι)— плотность вероятности перехода за один шаг Δ/ == it — /j_i и з состояния (yi-ι, $t-i) в состояние (yi, Θ(), равнаяw(yt,ΘίΙι/ί,,,bt-i)=P{bi\Bi.i)w(yt\Ui,yt~ltΘί-ι),Рассмотрим условную плотность вероятности и>($п\Уп) значений ненаблюдаемой компоненты Θ η , при условии, что наблюдалась реализация уп- По формуле условной вероятности имеемИли с учетом (10)и Θι) П(9.2.11)Рассуждая аналогичным образом, можно записать условную плотностьвероятности для вектора ненаблюдаемой компоненты процесса по результатамл + J измерения наблюдаемой компоненты в видеα(θπ+ιΐ!/η+ι)=гΘι) Пt/ί-ι.