1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 23
Текст из файла (страница 23)
— ая Это сразу же следует иа определения Т. Для того чтобы показать это, достаточно определить обратную матрицу а' '=(а,! В,), (5.3Л7) Е э. и. сеадж, дж. л, меаса Важно отметить, что независимо от Ф матрица Т имеет. вид $62 стохАОгичвскАя АппРОксимАция ~гл. з где а — вектор-столбец. В самом деле, нли ата, = 1, ВВ 1=1, атВ =О, Ва,=О, и иэ формулы (5.3.4) видно, что — ьтш,— бт,~, ~,т я„ ~ь ьтш ЬтФ~ з вт„р-1 ьтфи-3 а — ~ В- = т""': т (5 3.13) =~Ь) т.
е. как раэ формула (5.3.16). Так как в вычислительном отношении оценить Т легче, чем Ф, то в дальнейшем будем рассматривать задачу идентификации матрицы Т. Действительно, в то время как матрица Т определяется единственным образом, не существует единственного представления для матрицы Ф. По выходу свободной линейной системы можно определить только 1У неизвестных параметров, в то время как для идентификации всей матрицы Ф необходимо выяснить значения Лз коэффициентов. Для построения полученных алгоритмов идентификации необходимо было предположение о порядке системы Ф.
Если порядок системы неизвестен, то требования наблюдаемости дают простой способ его оценки. Если предполагаемый порядок меньше или равен истинному порядку системы, то матрица наблюдаемости А всегда будет иметь обратную. Однако если предполагаемый порядок выше истинного порядка системы, то матрица наблюдаемости будет вырожденной (ненаблюдаемая система всегда редуцируема по порядку (Сейдж, (116))). Таким образом, польауясь требованием наблюдаемости, легко можно выяснить порядок системы (в простейшем случае свободной системы с незашумленными наблюдениями). Э Э) ИСПОЛЬЭОВАНИВ СтохАСтИЧВСКОЙ АППРОНсимАЦИи (ЭЗ ввынуждаемые системы — отсутствие оивибок ивмере- ний — отпУтствие динамихи в числителе нередаточной уунхгуии.
Рассмотрим систему х (Ус + 1) = Ах (й) + Гаг(й), р(Ус) =)ттх (й), (5.3.19) (5.3.20) где г = (--,'--.), г = (5.3.21) Будем считать иг(й) дискретным белым шумом с нулевым средним 8 (го (Ус)) = О, сот (и (й), го (у)) = %'„бх (й — у). Уравнение движения системы можно эапнсать как.одномерное раэностное уравнение у 'й) + ауу (Ус — 1) + а,у (Ус — 2) + ... = Ь~иг (й — 1) + + Ь,иг (й — 2) + ... + Ьнго (й — УУ), (5.3.22) где ь= .)"., ь= „„,, г.
(5.3.23) Это раэностное уравнение можно переписать в виде у (й) = — ут(й — 1) а + жт(Ус — 1) Ь, (5.3.24) и (А — УУ)) и (Ь вЂ” 2) и (Й вЂ” 1) у (ь — УУ) у(й — 1) = у (Уг — 2) у (Уг — М) (5.3.25) Для удобства предположим, что все Ь;, кроме Ьм равны О, а Ь„= 1. В этом случае р(й) т(й 1) а+ т(й — 1). (5.3.26) ве 164 стохАстичкскАИ АппРОксимАция [гл. 3 Таким образом, мы хотим определить оценку й, являющуюся корнем уравнения регрессии для уравнения (5.3.24).
Это приводит к алгоритму стохастической аппроксимации а(Й+ 1) = а(Й) — К(Й)у(Й) (у(Й+ 1)+ у (Й)а(Й)], (5.3.27) который минимизирует функционал Х е ((у(Й) + ут(Й 1) ИР) (5 3 28) Здесь К(Й) удовлетворяет ранее сформулированным требованиям, обеспечивающим сходимость. К сожалению, в рамках теории стохастической аппроксимации не существует способа выяснить оптимальный вид К(Й). Для того чтобы оценить полученный алгоритм, рассмотрим как альтернативу идентификацию по методу наименьших квадратов. Отправляясь от уравнения (5.3.26), ищем оценку а, минимизирующую функцию штрафа Х = ~~~~ ]ш(1 — 1)]з =,Я ]у(1)+ут(1' — 1)а]1. (5.3.29) 1=И+1 1=К+1 Здесь суммирование начинается с 1 = 11' + 1, так как впервые полная система для идентификации может быть получена только после (Х + 1)-го измерения. Если взять У дополнительных измерений, то Х =,Я ]у(1)+ут(1 — 1)а]1= р<М+1) у (~) У(У+2),,таз ) )) + а з Р)з) ут (за1 )) = ] у(2У) + 9 (2% — 1) а]1.
(5.3.30) Этого достаточно для того, чтобы получить оценку идентифицируемого вектора параметров. Получаем а(211') = — ]~~(21"1' — 1) е~~(21'1" — 1)] 1;г(2М вЂ” 1) у (2М). (5.3.31) ьл] ИСПОЛЬЗОВАНИИ СтОХАСТИЧНСКОЙ АППРОКСИМАЦИИ Я5 Так как 3Г. — симметрическая матрица (см. (5.3.6)), то видно, что (5.3.11) можно упростить, а именно: а (2]'т') = — [ус (2))( — 1)[ гу (2)'г'), (5.3.32) где обозначение а (2 ]т') используется для того, чтобы подчеркнуть, что для оценки а использовано 2Ф намерений. При выводе схемы последовательной идентификации форма ваписи (5.3.32) не используется а).
Определим У(2%) = [~~(2]У вЂ” 1) ф~(2М вЂ” 1)[ '. (5.3.33) Добавим еще одно измерение у (2 Р + 1) и минимиаируем новое выражение функции п]графа. Легко получить, что а (2)т'+ 1) = У (2]т'+ 1) [у (2)т') [ ~~ (2]т' + 1)) ~ (5.3.34) где Г9 [2м — ])1] У(2]'т'+ 1) = [уг~(2М вЂ” 1) ] у (2]У)) г ут(2У) — [У(2М) + у(2]У) ут[2М)[-' (5 3 35) Для того чтобы преобравовать это выражена~ к виду, более удобному для вычислений, воспользуемся леммой обращения матриц. В результате получим У(2]'т" + 1) = — У (2М) У (2М) у (2Ф) [ут (2М) У (2М) у (2М) [ 1)-г х х ут(2]т') У (2)т') (5 3 36) где требуется вычисление обратной скаляриой величины.
'Теперь нетрудно получить, что а(2М+ 1) = а(2]'т')— У (2М) у (2]Р) [ут (2М) У (2М) у (2Ф) + 1Гь х х [у (2]т'+ 1) + у~(2]т) а(2]т)). (5.3.37) «) Более систаматическое изложаиие последовательной идентификации с использованием инвариантного погружения приводится в глава 7. 166 стохьстичкскья лппгоксимлция (гл;,ь Можно повторить эту процедуру для 2]т" + 2, 2А(+ + 3, ..., откуда видно, что (5.3.37) можно переписать, заменив 2Ф на й.
Мы видим, что алгоритм стохастической аппроксимации (5.3.27) эквивалентен алгоритму метода наименьших квадратов (5.3.37), если К(й) = ~ ~ ) ° (5 3 33) 1 + ) (ь) .у (ь) у (Й) В разделе 5 1 показано, что дз (й) ведет себя как 1дй, и, таким образом, мы заключаем, что метод наименьших квадратов и метод стохастической аппроксимации ведут к сходным результатам. Вьппе предполагалось, что уравнения (5.3.36) и (5.3.37) выписываются, когда уже вьшолнено 2Ф наблюдений. Это необходимо для того, чтобы записать начальные условия а(2]У) = — [~(2А( — 1)] ду(2дд), дз(2Ад) = [а~с(2)У вЂ” 1)] з.
(5.3.39) Во многих практических ситуациях выбор начальных й и дь в вычислительной процедуре может быть достаточно произволен. Вынулсдаемые системы — отсутствие динамики в числителе — ошибки измерений. Алгоритмы идентификации по методу стохастической аппроксимации при наличии ошибок измерений судцественно усложняются. Рассмотрим систему вида х(й+1)= ---:--- х(й)+ ... ъ'(й), (5.3.40) у (й) = [1 О. . .
О] х (й), г (й) = у (й) + о (й), где э (й) — дискретный белый шум с нулевым средним, а г (й) — наблюдения. Можно записать одномерное разностное уравнение". г (й) + адг (й — 1) + аде (й — 2) + ... + акг (й — А() = Ьддо (й — 1) + Ь,ид (й — 2) + ... + Ькй (й — У) + + и(й) )-'адэ(й — 1) + ... + али(й — Х), (5.3.41) нспользовнлнии стохйстичнской аппгоксимйцин ссф которое можно переписать в виде з (й) = — зг (Й вЂ” 1) а + в (й — 1) + тт (Й вЂ” 1) а, (5.3.42) где с (й — у1) с [й — зу з (й — й) з (й — ут) з (й — 2) з (й — Х) ч(й — 1) = з(й — '1) = (5.3.43) К несчастью, уравнение (5.3.42) гораздо сложнее уравнения (5.3.26) в силу коррелированности последовательности помех тт (й — 1) а. Таким образом, 7 (Й вЂ” 1) = ю(й — 1) + тт(й — 1) а (5.3.44) уже не является белым шумом, так'как сот(Т(й — 1), 7(у — 1))+О, если ~й — у(~(УУ и сот(7(й — 1), 7(у — 1)) = О, если ~й — у()ду.
Следовательно, нужно быть осторожным, минимизируя .У =. ж (тс(й — 1)), (5.3.45) 7(й — 1) = «(Ус)+ зт (Й вЂ” 1)а. (5.3.46) и мы видим, что минимизация (5.3.45) с необходимостью приводит к смещенным результатам. Если в алгоритме Можно попробовать использовать алгоритмы стохастической аппроксимации, так ограничив выбор й, что й = О, Л + 1, 2 ЛУ + 2 и т,.
д, и тогда сот (у (й — 1), у (у — 1)) = О, ~ й — у ~ = (ут' + 1) с, с=1,2, ... Минимизация (5.3.45) приводит, конечно, к тем же ре-' зультатам, что и минимизация (5.3.28). Ошибки измерений по существу игнорируются. Мы получаем а" = — (Ж (з(ус — 1) зт(ус — 1))) сб'(з (ус — 1) з (й)). (5 3 47) Подстановка (5.3.42) дает а' = а — (й (з (й — 1) зт(й — 1))) 1г,а, ' (5.3.48) 168 стех асти ч кокая!эапц Роксимация [гл. э стохастической аппроксимации вычесть, смещение, обусловленное использованием (5.3.45),С то будут получены несмещенные оценки. Для получения осмыоленных алгоритмов стохастической аппроксимации по-прежнему необходимо при итерировании оценок а пользоваться реализациями помехи, разнесенными на Ф + 1 временной такт. Таким образом, алгоритм стохастической.
аппроксимации имеет вид а(й+ с'т'+ 1) = а(й) — К(й/Х+ 1) х Х (х(й+ ст') [г(й+ ст + 1) + зг(й + )т') а(й)[ — у,а(й)), (5.3.49) где й = О, Ф + 1, 2Х+ 2, ... Можно. легко проверить, что этот алгоритм дает несмещенную оценку. Коэффициент К (й/сс' + 1) выбирается, чтобы удовлетворить обычным для метода стохастической аппроксимации ограничениям. Отметим, что по постановке задачи необходимо знание дисперсии ошибок измерений, но не дисперсии входного шума системы. Но аналогии с (5.3.38) можно получить, что подходящее, близкое к оптимальному, аначение К определится как К вЂ” + '+ ), (5.3.50) )- ч+с1,+,т(„+дс)л,<ь) э(а+„) ( где У(й+ ст + 1) = У(й) — У(й)х(й+ Л) х Х [хт(й + Л) У (й) х (й + ДС) + Ц 'ат(й + У) У. (й).
(5.3.51) Начальные условия для й и У не критичны и могут быть выбраны, как, и в предыдущем разделе. Пример 5'.3.1. Рассматривается простейший пример идентификации Ф в случае одномерной системы х (й + 1) = Фх (й) + ю (й), у (й) = х (й), з (й) = х (й) + э (й), где сс(й) и и(й) — дискретные белые шумы с нулевым средним. Система первого порядка, поэтому сс' = 1. В этом случае алгоритм стохастической аппроксимации (5.3.49)— Б Б) испольЗОВАник стохАстичкскои АппРОксимАции 159 5.3.51) имеет вид Ф (й + 2) = Ф (й) + /ь (/с/2) (г (й + 1) (з (й .+ 2) — л ()с + 1) Ф (й)) + )/,Ф" (ь)) где ЗБ (А+ 2) 1+л (5+1)З (А) 3Б(й+2)=, „0 для к = О, 2, 4, 6, ... На рис.