1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 22
Текст из файла (страница 22)
Усиление калмаиовского фильтра; пример 5.2.2. р [( (й)[. Так же, как и в стационарном случае, можно выбрать какую-либо реализацию случайного процесса ~1(й) и поставить детерминированную задачу оптимизации. Определим гамильтониан Нг = 1р [х (й), и (й), Ь1(й) й [ + Хт (й + 1) ~р [х (й), и (й), Ьг(й), Й) . (5.2.25) сто хАстичвскАя АппРОксимАция (53 Ь.з) Вапишем канонические уравнения соответствующей двух- точечной краевой задач 1 д А = )"(й) дд [х(А )! дх (А,) дН дН дь (А+() — — = х (й + 1), — = О, ди (А) (5.2.26) Вероятность ~1 равна Р» 1 = 1, 2,...М.
Таким образом, решение исходной стохастической аадачи зквивалентно решению взвешенной последовательности задач с весо- выми коэффициентами Рс. Необходимые условия для задачи (5.2.23), (5.2.24) запишутся в виде дН дн' д-~р~ — () — х(й+ 1)1 хА~~~~ Рс д (ц = О, ,Я Р,~ — „— Х(й)1 = О, 1=1 Х ~ [~(~.)+,„„, 1 — О. 1=1 С 1 Н = й (х (й), и (й), ~ (й), й] + + Хт(й+ 1)ср(х(й),н(й), ь(й),й), „,,„+„=х(й+ ).
(5.2.27) Осуществив формальный переход от дискретного распре- деления Р, к непрерывному распределению процесса ~ (й), ' получаем запись уравнений стохастического принципа максимума для дискретной по времени задачи 154 стохАстичвскАя АппвоксимАция (гл, й Полученные результаты сразу же намечают схему использования алгоритмов стохастнческой аппроксимации: 1) выбрать п' (Й), 2) задаться х' (йх), 3) в соответствии с распределением р (~ (Й)) получить реализацию ~' (Й), 4) решить разностное уравнение с начальным условием х'(й ) х' (Й + 1) = ~р [хк (Й),пй(й), ~' (Й), Й),' 5) решить сопряженное уравнение с условием на конце дд, (х (й,н дх(й ) ),(Й)=, = —,+ —,. ) (й+1), дН д~р| д ргт дхй (й) дк~ (й) дх' (й) 6) используя алгоритм стохастической аппроксимации, определить новую итерацию управления пьп п1 ~ дН' х й > ди (5.2.28) пйы = и' — К'„~ — + —.
У (Й + 1)~, Гдч' др" . ~ диз дв' 7) используя алгоритм стохастической аппроксимации, определить новую итерацию начальных условий х"~(й ) = х'(й ) — К' ( '( ( ')) + Х'(й,)1, (5.2.29) 8) вернуться к пункту 3) и повторить вычисления. Пример 5.2.3. Система описывается уравнением х (Й + 1) = х(й) + и (Й) + ю(й), (ЙО) хз где и (Й) — случайный входной процесс с известным распределением вероятностей. Попробуем выяснить свойства Ь.З] стохАстичкскАя АппРОксимАцИя управления и (й), минимизирующего функционал = Ж*'(~,)+ —,' Х "()1.
с=с, Определим гамильтониан Н = 2 и' (й) + )с (й + 1) [х (й) + и (й) + ю (й)]. Отохастический принцип максимума приводит к следующей системе канонических уравнений: х(й+1) =х(й)+и(й)+со(й), х(йс) = хс $ (и (й) + )с (й + 1) ) = О, е (А (й 1- 1) — )с,(й)) = О, Ж (Х (йс) — х (йс)) = О.
Легко показать, что решение этих уравнений имеет вид и(й) =— х (/сО) х — Йс с с — т х(й) =х(й,)+ ~~~~ [и(й)+ в(й)]. с=и Вместо того чтобы непосредственно решать систему канонических уравнений стохастического принципа максимума, воспользуемся алгоритмом стохастической аппроксимации. В данном случае сопряженное уравнение из пункта 5) имеет вид й(й) = ~е =й(й+1), А(й,) =х(й,).
Это уравнение имеет решение )с (й) = х (йс). Запишем алгоритм стохастнческой аппроксимации для итераций управлений исы (й) = и'(й) — К' — = ис(й) — К'[й(й)+ х(й,)]. аи'(а) Отсюда видно, что если начальное приближение было выбрано постоянным, то и последующие итерации 156 стохАстичвскАя АппРОксимАция агл. 5 управления от времени не зависят. Используя запись — = и(й)+А(й+ 1) ='и(й+ 1)+х(й,), получаем, что е ) — 1 = и,с (й) + е (х' (й,)), (дз'(А) ) чаг~ — ~ = чаг(хс(йа)), ( дН '1 (даа~ (А) ~ так что дисперсия дН/дис(й) постоянна для всех й чаг ( —,) = р„(/с„). Зто также непосредственно вытекает из системы разностных уравнений при постоянном и: в — с х'(Й) = хс(йа) + ~~~~ ~]и'+ юс(й)]. аа Для проверки достаточно подсчитать моменты гс — г Ж(х'(Й,)) =х'(Й,) + ~~', й, В=м гс — 1 чаг(хс(й,)) =чзг~ ~~~~ ~и'(Й)) = )с„(йс).
з га Из того, что чаг (дН/дис(й)) = сопз1, видно, что алгоритм стохастической аппроксимации и'+' = и'— — К' (дН/ди') сходится в том смысле, что 1)ш чаг ис = О, а аа если Кс = 1/1. Однако если, как и в обычном градиентном методе, выбрать К' = сопе$, то Иш чзг (й) = оо $ аа и алгоритм расходится. Это может поставить под сомнение результаты главы 4 по сходимости градиентных алгоритмов.
первого и второго порядков. Здесь проявляется ь.ю стохАстическАя АппРОксимАция 157 Основное отличие исследуемых подходов. В градиентных методах главы 4 на всех итерациях используется одна и а же реализация случайных компонент, тогда как для метода стохастической аппроксимации характерно то, что на каждом шаге получают новую реализацию случайной последовательности ь' (й) в соответствии с известным вероятностным распределением р [ь (й)[. Таким образом, в двух последних главах вопрос о сходимости ставится по-разному.
Используя каждый раз новую реализацию, мы надеемся, что смещение оценок искомых параметров будет по всей видимости меньше, чем в случае, когда «прокручивается» одна и та же выборка случайных параметров. Дело просто в том, что испольаование разных реаливаций увеличивает объем информации о системе, за которой ведется наблюдение. Конечно, во многих практических задачах доступно только одно наблюдение, и единственная полученная реализация затем вынужденно используется на каждом шаге итерационной схемы.
Решение непрерывной задачи сразу же вытекает из результатов, полученных для дискретной постановки. Необходимо минимизировать у = й~Е, [хМ+ В, [х М+ + ~ ч~ [х(~),п(~), ь(1), Ц <й[ (5230) при ограничениях в форме дифференциальных уравнений х = 1 [х (г), и ([), ь ([), Р[. (5.2.31) Определим гамильтониан (случайную величину) и = <Р [х (й), п (з), ь (з), Ц + Ат (з) [ [х (г), и (з), ь ([), з]. (5.2.32) Запишем канонические уравнения и соответствующую двухточечную краевую задачу для стохастического принципа максимума (5.2.33) 158 стохАстичвскАя АппРОксимАция (гл.
ь В тех случаях, когда непосредственное решение уравнений (5.2.33) затруднительно, можно воспользоваться процедурой, основанной на идеях стохастической аппроксимации: 1) выбрать яачальное приближение х' (~з) и и' (г), 2) получить реализацию ~~ (1), 3) решить дифференциальное уравнение, описывающее движение системы (в прямом времени Г, ~~ (< Гг) х' = $ [х' (й), п~ ((), ь. (й), (], 4) решить сопряженное уравнение с условиями на конце (в обратном времени (Гг ~ Г ~ ГА) ан а р' а]'т У- — —, — —,—, У(г), ах'(с) ах'(с) ах'(с) (5.2.34) де [х(С )] У(г,) = (,) 5) определить новую итерацию управлений пьч(() = п'(() — К вЂ” = ан да~ (й) г а4р$ дрт = п~(г) — К', — + — )ф)1; ~да~ (й) до~ (й) (5.2.35) здесь К„' удовлетворяют всем требованиям на коэффициенты в алгоритмах стохастической аппроксимации; 6) определить новую итерацию начальных условий дв х'+1(8,) =х'(4) — Кх~ ',"" — ]~*'(]о)1; (5236) дх~ (м] 7) вернуться к пункту 2) и повторить вычисления с новой реализацией Ь1 (8).
Формальное введение в теорию стохастической аппроксимации на этом закончено. Ниже на нескольких примерах будет показано, как эти методы можно применить к идентификации. систем. $ М испОльзОВАние стохАстической АппРОксимАции (59 испОльзОВАние стОхАстическОЙ АппРОксимАции дЛЯ ПОСЛЕДОВАТЕЛЬНОГО ОцеНиВАНИЯ ДИНАМИКИ ЛИНЕЙНЫХ СИСТЕМ В этом рааделе будет проведено детальное исследование задачи идентификации матриц коэффициентов Ф и Г дискретной линейной системы с постоянными коэффициентами х (й + 1) = Фх (й) + Гш (й), (5.3.1) г (й) = Нх (й) + о(й) = у (й) + о (й). (5.3.2) Будем предполагать входной процесс одномерным, так что à — это вектор-столбец у.
Пусть и выход системы одномерный, так что Н = [1 0 0... О) = Ыт. Свободные системы — отсутствие ошибок измерений. Сначала будем считать, что на систему действует входной шум и отсутствуют ошибки измерений. Выход системы выбран скалярным прежде всего из-аа того, что в случае отсутствия ошибок намерений для идентификации системы с одномерным выходом достаточно иметь )(( измерений.
Удобно определить )т"-мерный расширенный вектор измерений и, используя (5.3.1), (5.3.2), получить ыте ытее х (0) = АФх (0), (5.3.3) е (1) уФ) = е ((у) ытен где ыт ыте (5.3.4) ытеь -т Точно так же найдем, что ытее ),т е у (2) у((Ч+ 1) = у (3) х(0) = АФх (1) = АФ'х(0) ген + у(н м) (60 стохАстн*1зскАЯ АппгоксимАцня (РЛ. 5 и в общем случае у(У+ й) = АФх(й).
Сформируем расширенную матрицу (5.3.5) ~(2Д( — 1) = [у()()) у(Д(+ 1)у(У+ 2)...у(2У вЂ” 1)] = т (() )((2) . т ()()) Р(з) к(з) ... Р(.)ч+И (5.3.6) (А() (5(11) (55(-1) Из уравнений (5.3.3), (5.3.5) и их очевидных обобщений получим а~( (2Л( — 1) = АФзз, (5.3.7) где Я = [х(0) Фх(0) Фзх(0)... Ф 'х(0)]. (5.3.8) Матрицу А часто называют матрицей наблюдаемости. Для того чтобы вектор состояния можно было восстановить по последовательности наблюдений, эта матрица должна быть нов ырожденн ой. Матрица л) называется матрицей идентифицируемости.
Идентификация системы возможна, только если ее матрица 33 не вырождена (Ли, [87]). Иэ уравнения (5.3.7) можно определить оценку матрицы коэффициентов Ф = Ф = А 1~ (2Л( — 1) 33 ', (5.3.9) которая является точной,так как входные помехи отсутствуют. Однако мы существенно использовали то обстоятельство, что передаточная матрица являлась ))( Х Ж- матрицей. Поэтому нас, конечно, беспокоит строгость полученного результата, так как в действительности матрицы А и У зависят от Ф. Эта трудность скоро будет устранена. Можно повторить рассуждения, которые привели к уравнению (5.3.7), и, используя другую расширенную матрицу данных ф. (2)()) и уравнение (5.3.3), получить следующий результат: а(-(2Л) = АФ1% = АФА 1~(2У вЂ” 1).
(5.3.10) таз) ИСПОЛЬЗОВАНИЕ СтОХАСтИЧЕСКОИ АППРОКСИМАЦИИ Е Я удобно ввести матрицу Т= АФА т (5.3Л1) так, что уравнение (5.3ЛО) преобразуется к виду У(2с"е') = Т~(2М вЂ” 1). (5.3Л2) Из уравнений (5.3.3), (5.3.5) и (5.3.9) имеем уРУ+ 1) = ту(Л). (5.3.13) Так как у ()У) = х1()У) и, кроме того, д(1) =)г у()у), (5.3Л4).
то последнее соотношение,' используя формулу (5.3.3), можно переписать в Еиде у(1) = Ь~у(Ж) = Ь~АХ(1). Формула )ет = 1ст А подтверждается. Линейные уравнения (5.3ЛЗ) и (5.3Л4): эквивалентны уравнениям (5.3Л) и (5.3.2). Т. связана с Ф преобразованием (5.3.И). Таким образозг, если определить Т из (5.3.12), то. Ф можно получить.из (5.3.11) Т = ~(2)Р)ф '(2Ф.— 1); Ф = А ХТАс (5.3Л5) о о о о (5.3Л6) — ас — ае ° ..