1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 21
Текст из файла (страница 21)
Легко показать (Сейдж [116]; Сейдж и Мелса [127]), что величина дисперсии ошибки Е = тат (х (~) — х„(1)) на выходе субоптимального фильтра х„ = гх„ + Л'„ (~) [х (Г) — Н (Г)х„ (г)] 5.2) стохАстичкскАя АппгоксимАция определяется уравнением Е = 0 (2) Е (2) + Е (2) Э~ (2) + Л;, (2) ~Р'„(2) Л т (2) + У (2) Е(ге) = тат(х(це)), где Р (Г) = à — Л;,Н. Это справедливо для фильтров пунктов 1 и 3. Особенно интересно определить величину дисперсии ошибкн в стационарном режиме для постоянного Л'„. Для этого нужно найти положительно определенное решение уравнения О = РЕ + ЕН Л-,ЖвоЧ'чЛ'.о + Ч'ю, где 0 = Š— Л;,Н. Используем функцию штрафа вида Х = е (ЯрЕ), в которую подставляются неотрицательно определенные решения Е. Для фильтра из пункта 1 усиление Л;, определяется средними значениями Ф и Ф„.
Для фильтра 'пункта 3 мы хотим определить Л;„доставляющее минимуму. В силу случайности Ф и 2м будем пользоваться методом стохастической аппроксимации. Мы хотим минимизировать выбором Л;, функцию штрафа У =Ж(ЯрЕ) при учете ограничения б = (р — л;.н) е * е (р' — н'л „') + л;, р" тг,'. + т„, где Ф и 2Є— случайные величины с известными плотностями вероятности. Определим гамильтониан, являющийся случайной величиной: Н ВрЕ+Вргй[(Е Л',Н)Е+Е(р — Н Лтм)+ „„2.т + ~Е )) здесь й — симметрическая матрица множителей Лагранжа. Оптимальная величина Л;, определяется решением следующей системы уравнений: 146 стохАстичвскАЯ АппРОксимАция ~ГЛ. 5 Из этих уравнений находим О (Р .3 Н) Е+ Е(Рт Нт®.т)+,3 ЧР,Дт + «У' Е(1+ Л(Р— 3;,Н)+ (Рт — Н~.1»",',) Л)= О, Ж(ЛЕН +ЛЗ;,Ч"„) = О.
В этом частном случае математические ожидания легко вычисляются, в результате имеем Л;, = — Р(Е)Н Чг„', где 8 (Е) определяется уравнением ограничения. Подставляя выражение для Л;, в уравнение ограничений, находим простую форму записи ограничения на выбор оптимальной ошибки Е: О=ГО(Е)+Ж(Е)Рт — 8(Е)Н~ЧР 'НР(Е)+Чг .
Мы приходим к не такому уж удивительному выводу о том, что «наилучшее» усиление калмановского фильтра, определяется подачей на фильтр Калиена средних значений «Р„и «Р„. Интересно проверить этот результат на простом примере. Рассмотрим следующую систему уравнений входного сигнала и наблюдений: и =в(~), Ч" =1, з = х (1) + Р (1); Ч"т = 1 = Ч",.
Величина Ч" равномерно распределена на отрезке (1 — а, 1 + а)'так, что чаг (Ч"„) = СЧЗ. Фактическая дисперсия ошибки определится как 60+ и 2Л; Видно, что Е также имеет равномерное распределение со средним значением лг, 1 Р (Е) оо ~~оо и максимальным отклонением ~- а/2К„. В этом частном случае мы видим, что «наилучшее», т. е. Минимизирующее 147 стохАстичвскАя АппгоксимАпий 5.23 к (Е): аначение 3;, есть М„= 1, которое получается как коэффициент усиления фильтра Калмака с характеристиками помехи Ф'„ = Чд, = 1.
Здесь «наилучшяйь относится к минимизации средней дисперсии ошибки. Так как Ч' может в действительности принимать любые значения на отрезке 1 — а ~( Ч"„ ~~ 1 + а, то д Ф Ф' а Рис. 5.2Л. Дисперсия ошибки Е кек функция ои пример 5.2.1. очевидно, что максимальное и мштмальное аначения дисперсии ошибки при использовании с„= 1 составляют Е „= [1 + (1 + а)1/2 и Е ш = [1+ (1 — а))/2, где, конечно, а(1, поскольку Ч'„) О.
Другая стратегия состоит в минимизации максимальной ошибки.. В этом случае максимальная ошибка связана со значением Ч'„= = 1 + сс, а наилучшим выбором для коэффициента усиления становится .Ж = у' Ч'„= (1+ а)'А, для которого минимальная величина максимальной ошибки составляет Едал д„„= (1 + а)сс Фактически величина ошибки Е = [(1 + а)+Ч"„И2(1+ а)['А и изменяется от 1/(1+а)'а до (1 + сс)дь Средняя ошибка при использовании минимаксного критерия составляет (2 + я)/[2 (1 + а) 1"ь На рис. 5.2 1 показано, как влияет выбор различных критериев оптимизации на величину средней дисперсии 148 стохАстичвскАяЗАЙПРоксимАция [Рлв ошибки. Минимаксный критерий приводит к несколько меньшим значениям максимальной дисперсии ошибки. Таким образом, мы могли бы прийти к выводу о том, что оба критерия приводят к довольно близким результатам.
Такое имеет место довольно часто, хотя, разумеется, не всегда. Можно считать этот факт счастливой удачей, так как минимизация среднего значения функции штрафа, хотя и достаточно трудная задача,но все же проще минимизации максимальной ошибки. Пример 5.2.2. Вернемся к примеру 5.2Л, предположив на этот раз, что неизвестны матрицы коэффициентов Г, С и Н. Таким образом, система описывается уравнениями ~(г) + 6в'И) сот(» (~), ъ(т)) — Чв р) б ( (') = хИ)+тИ), сот(ъ(ю),т(т)) =Чг„())б (, где интенсивности помех Ч" (Е) и Ч"„(т) предполагаются известными, а для Г, О и Н известны только их средние значения г, Н и Й Один из возможных способов синтеза сводится к использованию обычного фильтра Калмана в предположении, что г, б и Й есть истинные значения коэффициентов.
В стационарном случае это приводит к алгоритму х = Рх +,уг, (з (з) — Йх (~) ), % =ЕгН Ч"т', 0 = г Е + Е Рт — Е Йт'К ~йм + С Чс О' Лучшей альтернативой является использование фильтра вида х = гх(с) + Л'„(х(г) — Нх(й)), где Л' подбирается так, чтобы минимизировать математическое ожидание дисперсии ошибки е (У-„.) = В (таг(х(й) — х(С))). 5.2) стохАстическАя АппРОксимАция $49 Вычитая из уравнения системы уравнение субоптималь- ного фильтра, получим х = (Аà — Л;,АН) х (~) + (à — Л'„Й) х (Г) + 6и (~)— — Л'„т (8), где отклонения АН =- Н вЂ” Й характеризуют ошибку моделирования.
Удобно ввести вектор расширенного состояния и вектор входов Х Р) х (в) УЧ (в) чв (в) для которых справедливо новое уравнение состояния Х = А(~)Х(~)+ В(~) тЧ(~), где à — л Й ау — л ан ' 0 — л;, Хорошо известно, что дифференциальное уравнение дляо дисперсии ошибки имеет следующий вид: Чх = А (~) Чх (в) + Чх (~) А (в) + В (~) вГоРВ (~). Интересно найти решение этого уравнения в стационарном режиме; для этого положим Ч„= О. Коэффициент усиления субоптимального фильтра будет выбран так, чтобы Ж(йрЧ-) было минимальным. Так как случайные параметры Г, 0 и Н на величину Чх не влияют, то минимизация Ж (Вр Ух) полностью эквивалентна минимизации ж (Вр Уй).
Таким образом, необходимо минимизировать У=й(~рЧх) при ограничении О = А (рв Л'во) Ух + ЧхА (рв Л'во) + В (р, Л'в,) 'ГчтВ (р,оз „). 150 стохастичвская АппгойсймАции ~гл. 5 Здесь р используется для обозначения случайных параметров Р, О н Н. Определим гамильтониан (случайную величину): Н =- Яр(Чх)+ Зр(Л(АУх+ УхА + ВЧ"вВ~)) Необходимые условия минимума Алгоритм стохастической аппроксимации имеет вид: 1) задаться значением Л'; 2) выбрать реализацию случайного вектора р' = = (Рч, О*, Н'), имеющего распределение с известной плотностью вероятности; 3) выбрать симметрическую матрицу множителей Лагранжа такую, что — = 1+ Л'Аг + АгтЛ' = 0; х~ з'газо 6) вернуться к пункту 2) и повторить вычисления.
Рассмотрим систему вида Ч" (г) =1, Ч", (г) =1. х = — х(Е) + ю(Е), з = х(г)+ и(г), Здесь У = — 1 6 = 0 = 1 и Н = Й = 1. Фильтр Калмана для системы с параметрами У, (Ч и Н имеет коэффициент усиления Л'т = 0,414. Усиление субоптимального фильтра определяешься в результате минимиаации ,у=й(Зру„) =З(р-„+) „) =(„+З(у-„) 4) вычислить дН'.,~дХ„'при известных значениях З;~„ Рч, О', Н'и Л', й5) используя алгоритм стохастической аппроксимации, определить новую итерацию коэффициента уси- ления стохАстичкскАя АппРОксимАция 2.21 при ограничениях О =- — 2 (1 + Л„) Уу + 2 (Р ( 1) р- + 1 + Л', О=(Р— 1 — Л;.)Уд+(Г+1)У +, О = 2Р$"„*1. Теперь можно непосредственно воспользоваться только что построенными алгоритмами, а преобразуя три последние уравнения, легко получить 1 + Лво (1+ Р) (1 — Р) 2(1+Я;,) 2Р(Х„+1 — Р)(1+Л„) В этом выражении первый член соответствует той состав- ляющей дисперсии ошибки, которая возникает, если Р действительно равно — 1.
Вычислительная схема такова: 1) выбрать Л', 2) получить реализацию Р' в соответствии с извест- ным распределением вероятностей для Г, 3) определить ду /дЛ', 4) вычислить следующую итерацию, 5) вернуться к пункту 2) и повторить вычисления. На рис. 5.2.2 показан характер сходимости Л;,. Иэ рисунка, в частности, видно, что процесс сходится гораздо медленнее, чем можно было бы ожидать прн использовании градиентного алгоритма. Усиление субоптнмального калмановского фильтра всегда больше усиления оптимального фильтра с Р = — 1, и коэффициент усиления тем больше, чем больше неопределенность в Р. В этом примере не предпринималось никаких попыток оптимизации алгоритма с тем, чтобы обеспечить более быструю сходимость, что, вообще говоря, вполне возможно.
Полученные результаты относительно просто обобщаются на динамический случай. Рассмотрим минимизацию 152 стохАстичискАЯ АппгоксимАция 1гл. 5 функции штрафа гГ1 .1 = Ж [О, [х (й )) + О, [х (Й )) + ~ <р [х (Й), и (Й), ~ (Й), Й[) а а, (5.2.23) яри разностном ограничении вида х(й+ 1) = 1р[х(й),п(й), ь(й),й), (5.2.24) где х (й) — вектор обобщенного состояния, включающий все неизвестные параметры, а ( (Й) — векторный случайный процесс с известной плотностью вероятности Рис. 5.2.2.