1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 30
Текст из файла (страница 30)
7.2.1 изображены оценки х(1). Отметим, что оцен- ки ха(1) и ха(2) «отслеживаются» гораздо лучше, чем ха (8) = . = а (1) и ха(4) = Ь. 212 Пример 7.2.2. В качестве еще одного примера использования инвариантного погружения для решения задач идентификации рассмотрим аадачу определения ошибок -г т Я Х йу У5 рдели, се» рве. 7.2Л. Оцсвки траектории и параметров для примера 7.2.1 ( — вставное звачсвие, — — — оцопкЩ.
смещения при линейном последовательном оценивании (Сейдж И17), Сейдж и Лин И24)). Модель входного сигнала имеет вид -юг ~ ннВАРНАнтнов поггужвннв 1гл. т х(1) = 1" (1)х(1)+ С(1) н(1). (1) нвпгигывныв систимы 1.2) Уравнение наблюдения имеет вид в (») Н (»)х (») + т (»). (2) Эадача последовательного оценивания, когда желательно оценить х (»), основываясь на последовательности наблю- дений Х (») = (в (т), 0 ~( т ~(») решена многими автора.
ми (Сейдж и Мелса [127[). Обычно предполагается, что средние значения входного шума»т (») и ошибки измере- ний ч(») иавестны. Если это не так, то могут возникнуть серьезные ошибки вплоть до расходимости фильтра. Рас- смотрим применение метода максимального правдоподо- бия для построения адаптивных алгоритмов последователь- ного оцеиивания для входного шума и ошибки измерений с неизвестными средними. Известно, что максимизация функции правдоподобия эквивалентна решению детерми. нированной оптимальной задачи. Это приводит к ДТКЗ, которая решается методом инвариантного погружения, в реаультате строится последовательная оценка средних аначений имеющихся помех.
Пусть х (0), »ч (») и т (»)— некоррелированные гауссовские процессы, для которых [»„»,'» е' [»г (г)), сот (»т (»), »т (т)) =- Чг (») б (» — т), [»у»."»8[к(»)), сот(т(с), ч(т)) = Ч'т(»)6(г — т), (3) Ж(х(0)) Е~ [»„е чаг(х(0)) = У„,. Нетрудно показать, что в этом случае максимизация функ. ции правдоподобия р[Х(г»)[[»„, [»„[ для уравнений (1), (2) сводится к минимизации функции штрафа 0 ,»'= — ~ [х(~) — [»„— НЯх(»)[[»» й, (4) 1г о где оценка х (8) с минимальной дисперсией определится как х =Гх+С»» + К(з — [» — Нх), К = УН~Ч"„', У = РУ + УР'+ 6'Ч~„а — УН'Ч~-„'НУ, х(0) = [»,„ у(о)= у ИНВАРИАНТНОЕ 'ПОГРУЖЕНИЕ [гл.
т Предполагается, что средние значения помех неизменны, т. е. р„=О, (10) р„= О. (11) Таким образом, оценка смещения по методу максимального правдоподобия сводится к 'задаче теории оптимального управления. Необходимо минимизировать функцию штрафа (4) при ограничениях (5), (8),' (10) и (11). Для решения задачи, которая поставлена в нредыдущем разделе, применимы обычные методы теории оптимального управления. Это приводит к ДТКЗ (5), (10), (11) с сопряженной системой уравнений Л Н~Ф"„д(х — р„— Нх) — (Р— Н К ) Л, е = — С~Л, т = Ч"„д(г — зз„— Нх)+ КтЛ.
(12) (13) (14) Условия на концах имеют вид х (0) = р, Л(~д) = О, ю(0) = О, е(йд) О, т(0) = О, т(гг) О. Если решить эту ДТКЗ для з ~= [О, гз), то будут получены сглаженные оценки р и р на конечном интервале.' Теперь можно использовать метод инвариантного погружения для получения последовательных оценок максимального правдоподобия р, и р„. Это приводит к следующим уравнениям: )здз = (РтдзН + Рзз) Ч" .д (х — )з„— Нх), (15) )з„= (РтНт+ Р„) Ч"у'(э —,„— Нх), (16) х - "Рх + 6)з~ + (К + Рд,Нт'Р„' + РдзЧ",,') (х — )з„— Нх), (17) Рдд* (Р— КН) Рм+ Рн(Р— КН) + брдз+Р 6 — КР— Р К вЂ” (Р, Н +Р,) Чз„'(НР + Рф, (18) непгегывныи систимы Раз = (Р— КН) Р„+ ОРз — КР— (РыНт+ Рзз) Ч",,'(НР«з+ Рт) (19) Р„- (Р— КН) Р„+ 6Є— КЄ— (РыНт + Рзз) Ч"»ы (НРаз + Рзз) (20) Р = — (РтНт+ Рзз) Ч" '(НРзз+ Ртз), (21) Рзз = (Рз«Н + Рза) Ч»» (НР«з+ Рзз) (22) Рзз — (Рз«Н + Рзз) Ч» (НР«з + Рзз).
(23) Так как зто оценки максимального правдоподобия, бессмысленно пробовать определить оптимальные начальные условия, отличные от х (0), которое должно быть установлено в соответствии с априорным средним р, (0). Для других переменных можно:испольаовать «приемлемыез начальные условия. Можно также выбирать начальные условия, решая ДТКЗ для коротких промежутков времени.
Следует отметить, что решение уравнения (17) не ивляется калмановской оценкой х (з) из (5), хотя при достаточно больших ~ решения (17) сходятся к х(г)., В действительности даже не нужно решать(5), для того чтобы определить оценки максимального правдоподобия р„и р,. Необходимо, однако, решить уравнения (6) н (7), являющиеся составной частью алгоритмов метода максимального правдоподобия. В вычислительном плане такой подход имеет существенное достоинство.
Можно показать, что в (17) К значительно превосходит (РпНт + Р, ) Чз„' и, следовательно, ошибка в определении последнего члена не скажется существенно на оценке х. В то жв время ошибка вычисления (Р„Нт + Р„) Ча„' скорее всего превосходит ошибку вычисления К или У, так как уравнение Риккатв для определения Р может быть значительно более высокого порядка, чем уравнение Риккати для У.
Задача адаптивной фильтрации при неизвестном смещении (неиавестны входной шум и ошибка измерений) также может быть решена путем присоединения к модели (1) уравнений р. = 0 и р„= О. При этом стремятся получить оценки х, р н р„, обладающие минимальной дисперсией. Так как не имеется априорных данных о.р„ и р, невозможно определить яачальныв условия в ~гл. > ИНВАРИАНТНОР ПОГРУЖИНИВ получающихся алгоритмах оценивания. Получаемые алгоритмы оцепивания достаточно громоздки, а именно> х = Рх + Пй„+ (Р,„Нт + Р>а) Ч"„'(х — ' Нх — )А~), (24) (А„(Р>>Йт + Раа) Чг»~ (в — Нх — )А»).
(25) д» = (Р„Нт+ Р„„) 'Р»' (х — Нх — (А„), (26) где Е = РЕ + ЕРт — ЕйтЧ"„йЕ + Чгч Ра Рэ Р>в Р, Р»> Р>з — т — т— Р>3 Р' Ри ГНО 000 000 (27) Ч' 00 0 00 0 00 Н=(НОЦ, Ч.= Несмотря на то, что эти алгоритмы могут показаться простыми, здесь возникает серьезная проблема точности вычислений из-за того, что уравнение для Рп ке связано с другими матричными уравнениями Риккати. Фридлянд (40) доказал, что существует замена переменных, которая связывает уравнение (7) для т' с уравнениямв более высокого порядка (27).
Получаемые алгоритмы напоминают (>5) — (23). Используемый здесь подход, который включает метод максимального правдоподобия, теорию оптимального управления и инвариантное погружение, имеет преимущество, связанное с точностью вычислений, так как исходвое уравнение Риккатв для дисперсии ошибки входит как ограничение аадачи оптимального управления. К тому же этот подход применим и к нелинейным системам. 7.3. ДИСКРЕТНЫЕ СИСТЕМЫ Метод иивариантвого погружения можво также использовать для разработки алгоритмов последовательного оценввапия при идентификации дискретных систем.
Излои<еиие. в этом рааделе будет з освовном близко следовать строению предыдущего раздела, поэтому пояснения будут более лаконичными. 218 инВАРиантнок поггужвнин [РЛ. 7 Следует отметить, что уравнение (7.3.7) является точным, хотя весьма напоминает раэложвние Тейлора. Если под- ставить (7.3.7) в '(7.3.6), получим Г Ьг(с, ЬС) сгг(с, й) ) Ьг(о, Ь)) Ах — ~ ~ + ТЧ Ас+ „' 7 Т.(7.ЗЛО) сс / l Иэ уравнений (7.3Л) и (7.3.2) можно определить с1х и Ьс: Ах= х(йс+ 1) — х(7сс) = а[г(с,7с)),с,асс] — г(с,йс) (7311) Ьс = Х(й)+ 1) — Х(йс) = т] [г(с, й)), с,асс] — с. (7 ЗЛ2) Так что уравнение' (7.3.10) преобразуется к виду а [г(с, йс), с, йс] — г(с, йс) = Гсг(,а,) 8 (е,а)) ) сг(с,а)) + '„Т~(з] [г (с, йс), с, йс) — с) + — Зй — Т.
сс 1 (7.3Л3) Если бы иэ этого уравнения в частных разностях удалось найти г (с, йс), то ДТКЗ была бы полностью решена. Од- нако, как и в непрерывном случае, найти общее аналити- ческое решение уравнения (7.3ЛЗ) не удается и обычно обращаются к приближенным методам. Прежде чем про- должить эту цепочку рассуждений, полеэно обсудить вааи- мосвязь между дискретным и непрерывным вариантами инвариантного погружения, т. е. уравнениями (7.2ЛЗ) и (7.3.13). Одна иэ дискретных форм записи уравнений (7.2Л) и (7.2.2) имеет вид х (7с + 1) = Ту [х (й), Х (й), й] + х (й), й (й + 1) = Т]) [ (й), а (й), й] + 1, (й). Так что а и т) в уравнениях (7.3.1), (7.3.2) очевидным об- раэом определяются как а [х (й), Х (й), 7с] = Ту [х (й), Х (й), й] + х (й), (7.3Л4) т] [х (7с), й (й), й] = Тф [х (й), Х (й), й] + Х (й).
(7 3 15) Здесь Т предполагается малой величиной, так что проиэводную можно заменить первой разностью. Подстановка дискэвтнык систнмы 219 (7.3.14) и (7.3.15) в (7.3.13) дает Тц(г е йг)= Если теперь рааделнть это уравнение на Т и устремить Т к нулю, полагая йгТ = гг, то из (7.3.16) получим дг(с,й)) дг(е,с) т (гз с1 Й!) = д [) (г| с, Су) + д . (7.3.17) Уравнение (7.3.17) не содержит вторых производных и в этом смысле дискретное уравнение является более общим, так как, используя дискретную аппроксимацию уравнения (7.3.17), было бы невозможно получить уравнение (7.3Л6) в конечных разностях.