1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 19
Текст из файла (страница 19)
Таким образом, в ртом случае уравнения для возмущений похожи на уравнения для задачи о замкнутой системе регулирования. Зтд уравнения здесь не приводятся из-за чрезмерной сложности получающихся алгоритмов. Построение таких алгоритмов для конкретной задачи идентификации оказывается не трудной, но часто утомительной работой. Процедура последовательного метода вторых вариаций, авторство которой в непрерывной форме принадлежит Мак-Рейнольдсу и Брайсону (97), по существу повторяет описанную выше процедуру градиентного метода второго порядка. Чисто техническое' отличие состоит в том, что производится последовательное интегрирование в обратном времени неоднородных уравнений Риккати.
Затем в прямом времени строятся уравнения (4.3.53), (4.3.54) с начальными условиями, которые определяются комбинацией выражений (4.3.58), (4.3.60), (4.3.62) и (4.3.63): Ах(йо) = [' ьр (700) [Еь*(йо) + зх (ь )а 1 + + Бгр (йо) Ега (~0)) Х (~гр(~0) еаг (~0) "ар (йо) еаь (йО)) э (4.3.64) АР(йо)=~[Вам(йо)+ з,(ь)а 1 ЕьР(700) — Ега(йо)ЕРР(йо)~х Х '~ Ра (йо) оаг (700) ~ 3(аа (700) + В (Ь )а 1 еа» Яо)~ * (4.3.65) . Иногда желательно рассматривать уравнения (4.3.53), (4.3.54) вместе с уравнениями (4.3.14), (4.3Л5).
Возможность итеративного выбора А (дХ/дп) может оказаться существенным преимуществом последовательного метода по сравнению с обычным градиентным методом второго порядка. Алгоритмы метода сопряженного градиента для решения динамических задач идентификации в идейном плане являются прямым обобщением статического варианта метода сопряженного градиента. Сначала необходимо определить начальные хоа, р~»и по. Затем в прямом времени решаются уравнения для траекторий, а в обратном Ол> методы иденти<рикьции диньмических систем $29 5) используя К, определенные в предыдущем пункте, выбрать пьм =и' — Кь сь„, ОО1 1 3 1 хе = хе — Кь,,сь„„ 1 1 1 Р<е1 = Р Кьрсьр! б) используя зти значения решить в прямом времени уравнение для траектории и в обратном времени — сопря- женное уравнение; 7) определить направления сопряженных градиентов 1+1 дН <дН(де'е~, дН)дары> сьа — — —,, + сьа, до <О'„, с' „> де',+1 О„ч ) (деее1/дхре1+ Х<е1!!1 !! ГО !!1 1 Ис;,Р 8) вернуться к пункту 4).
Таким образом мы видим, что после начальной процедуры сопряженные направле- ния используются как направления,-поиска. Для того чтобы проиллюстрировать специфические особенности вы- числительной процедуры, рассмотрим пример системы первого порядка. Пример 4.3.2. Интересно рассмотреть применение ме- тода сопряженного градиента для идентификации пара- метра Ь линейной системы х = — Ьх(й), и(С) = 1, х(0) = О. Минимизируется функция штрафа 1 Х = ~ ~ (з (г) — х (г))е й.
1 <' О Основная градиентная процедура чрезвычайно проста и представляет собой частный случай общей схемы, по- строенной в примере 4.3Л: $) задаемся начальным значением Ь', 2) решаем уравнение хе = — Ь'х'(г)+4, хе(0) =0; 5 э. и. сеадж, дж. л. меаеа 430 ГРАДИЕНТНЫЕ МЕТОДЫ ИДЕНТИФИКАПИИ ИГЛ. 4 3) решаем сопряженные уравнения Х' = г (~) — х1(~) — Ь1)е (~), Х1(~~) = О, Г' = ' У) Л1 В Г' РД = О; 4) определяем новую итерацию неизвестного пара- метра Ь" = Ь' — К'ГДО); 5) возвращаемся к пункту 2) и повторяем вычисления. Для того чтобы применить метод сопряженного гради ента, необходимо изменить процедуру, начиная с пункта 5).
4 Ф4 э 5 ) определить й., минимизирующее функцию штрафа 1г 1 з У = — ~ [г(~) — х(~))'й и вычислить Ь'"', О б) используя 51+1, решить прямое и сопряженное уравнения; 7) определить направление сопряженного градиента 1+1 ГМ1 (О) (гг41 (0)р дь с начальным приближением сддз = Г (0); 8) на следующей итерации использовать оценку параметра 5441 = Ь' — К'сд4,, 9) вернуться к пункту 2) и повторять вычисления. 4.4. ВЫВОДЫ Было построено несколько наборов алгоритмов для решения задач идентификации. В приведенных примерах рассматривалась идентификация систем путем минимизации функций штрафа, предложенных в главе 3.
Теперь будут изучаться особенности метода стохастической аппроксимации, которую можно рассматривать как статистический градиентный метод. Гааза $. ИДЕН1ИФИКАЦИЯ С ИСПОЛЬЗОВАНИЕМ С1ОХАС1ИЧЕСКОй АППРОКСИМАЦИЙ ЗЛ. ВВЕДЕНИЕ В этой главе представлен обзор методов стохастической аппроксимации и их применений к решению задачи идентификации. Мы в основном дадим физическое и эвристическое толкование стохастической аппроксимации вместо строгих доказательств, которые можно найти в цитируемой литературе. Первыми исследованиями в области стохастической аппроксимации были работы Роббинса и Монро [1121, Кифера и Вольфовица [751, Дворецкого 1331 и Влума [191, Сакрисоном [1301 написан интересный инженерный обзор методов стохастической аппроксимации.
Алгоритм Роббинса — Монро является стохастическим аналогом обычного градиентного метода для отыскания единственного корня уравнения Ь(х) = 0. (5Л.1) Этот алгоритм имеет вид хет = х' — Х'Ь(х'), (5Л.2) где Х' — последовательность вещественных чисел, на которые наложены определенные требования, обеспечивающие сходимость алгоритма. В том случае, когда измерения Ь (х) искажены помехой с конечной дисперсией (5.1.3) в = Ь (х) + ч, где т — помеха с нулевым математическим ожиданием, говорят, что Ь(х) есть функция регрессии в на х, так как для независимых х и т ОО й'(а[х) = ~ зр(в[х)дз = Ь(х). (5.1.4) Ю Теперь алгоритм (5Л.2) уже неприемлем, так как Ь (х) [З2 стохастичвская Аппэ эксим «пня [гл. 5 некаблюдаема.
Однако условное математическое ожидание определяется выражением (5Л.4), и стохастический алго- ритм для отыскания корней уравнения регрессии (5Л.4) имеет вид х[ы = х' — К'а (х'). (5Л.5) Здесь обозначение к (х') преследует цель подчеркнуть итеративный характер алгоритма. Последовательность (х') с вероятностью единица сходится к решени[о уравнения (5.1.1). Исследования Роббинса и Монро показали, что эта сходимость имеет место при выполнении трех условий: 1[ш К' = О, Таким требованиям удовлетворяет, например, простей- шая последовательность (5Л.7) Требуется также, чтобы функция регрессии )» (х) по обе стороны от истинного решения была ограничена прямыми с конечным наклоном, для того чтобы не «проскочить» решение х.
Таким образом, в одномерном случае ~ Ь (х) ~ ~( а ~ х — У ~ + Ь (а, Ь ) 0). (5Л.З) и'+' *и' — К— «НО (и') ев« (5Л.О) Последнее ограничение не является слишком суровым. Физическое толкование условий (5.1.6) будет дано в следующем разделе, в котором рассматривается динамический вариант метода стохастической аппроксимации. Кифер и Вольфовиц обобщили метод стохастической аппроксимации на отыскание экстремума унимодальной функции регрессии 6 (и). Этот алгоритм представляет собой точный аналог детерминированной градиентной процедуры, которая, как известно, использует алгоритм вввдвнив зл1 При наличии помех наблюдается 1=3(п) +3.
(5.1ЛО) И детерминистский алгоритм (5Л.9) заменяется стохастическим алгоритмом у Л(в') (5Л.11) саз Условное математическое ожидание, взятое от обеих частей (5Л.11), приводит к алгоритму (5Л.9). В некоторых случаях прямое дифференцирование с целью получить й (п~)/Ып~ невозможно и используется приближение вида + ) .( ).
5ЛЛ2) са1 2ааь Так что алгоритм Кифера — Вольфовица записывается в форме и'+' = и' — К*~ ( ) ) ~ . (5.1.13) 2аа' В этом случае условия сходимости имеют вид Иш К' = О, 11ш Ап' = О, 1 С (5.1.14) О ,", к'= ., ь=т Имеется также ограничение типа (5Л.8). Основная идея стохастической аппроксимации состоит в том, что для любого алгоритма детерминированного типа существует его стохастический двойник. Следуя этой идее, Дворецкий (33) сформулировал обобщенный метод стохастической аппроксимации, который состоит в использовании аддитивной смеси детерминированного алгоритма Я и случайной компоненты л х'+~ = е)(аа, х',...,х*)+ и'.
(5Л.15) Можно показать, что алгоритмы Роббинса — Монро и Нифера — Вольфовица являются частными случаями алгоритма Дворецкого. 134 стохастичнскАЯ АппгоксимАция ~гл. е хьа = х' — К~ в1яв (х (х~)) (5.1Л6) или (5Л.17) Нв~ Такой подход значительно ускоряет сходимость для таких функций регрессии, которые на бесконечности быстро стремятся к нулю, например, как й (х) = х ехр ( — х). Дворецкий [33) доказал, что если чаг (х (х) ~ х) < У„< оо и если функция регрессии й (х) = е (г (х)) х) ограничена, 0(А!х — х~(й(х)(В)х — х)(оо, (5Л.18) и, кроме того, ~х' — х~ (С = ( ) *, (5.1.19) то последовательность АСч У„+ 1А~С~ (5.1.20) достигает верхней грани чаг ((х* — х)') (, ' . (5Л.21) ь+(~ ) Кроме близости к градиентным методам, существует тесная свяаь между стохастической аппроксимацией-н Существуют различные способы увеличения скорости сходимости алгоритмов стохастяческой аппроксимации, которые,как мы видим, весьма близки к развитым в предыдущей главе градиентным методам.
Быть может, проще всего поддерживать К' постоянным до ивменения знака наблюдаемой величины (х (х') или 1(п')), изменяя затем К' так, чтобы удовлетворить вышеупомянутым ограничениям. Эту схему можно оправдать тем, что вдали от нуля функций Ь(х) или ЫО(п)/Ыи наиболее вероятны наблюдения одного знака, тогда как в близкой окрестности нуля знак наблюдений будет часто меняться. Этот метод сводится к использованию ~зь 1 вввдвнив рней оптимальной Фильтрации. Например, хорошо известно, что решение задачи об отыскании наилучшей линейной оценки х при заданном наблюдении х(й) = Нх+ т(й), (5Л.22) где ч (й) — белый шум с нулевым математическим ожиданием и единичной матрицей ковариации, дается формулой х (й + 1) = х (й) + Ч-, (й + 1) Н [х (й + 1) — Нх (й)] = = х(й) + Чу(Й) Н [НЧ (Й) Н + 1] ~ [х(й-]- 1) — Нх(й)], (5.1.23) где Ч-„(й+ 1) = Ч-„(й) — Ч-„(й)Н [НЧ-„(й) Н + и 'НЧ-(й) (5Л.24) илн Ч-„(й+1)Н = Ч-„(й)Н [НЧ„(й) Н + Ц т.
(5.1.25) Повторное использование (5Л.25) сразу же приводит к соотношению Ч-„(й)Н =Ч-,(0)Н [ЬНЧ„-(0)Н +1] ', так что при й- оо Ч-„(й)Н = —,Чх(0)Н [НЧ-„(0)Н~] ' (51.26) Как и ожидалось, при оценке константы дисперсия ошибки стремится к нулю. Таким образом, для больших й алгоритм фильтрации (5Л.23) имеет следующий асимптотический вид: х(й+1) = = х (й) + —, Ч-„(О) Н [Н Ч „(О) Н ] ~ [в (й + 1) — Нх (й)]. (5Л.27) Видно, что уравнение (5.1.27) является многомерным алгоритмом стохастической аппроксимации. Если предположить, что Н вЂ” квадратная невырожденная матрица, 136 стохАстичкскАя АппРОксимАция (ГЛ. 1 то из (5.1.27) следует, что х(й+ 1) = х(й) + — [х+ Н 1т(й+ 1) — х(й)).
Отсюда легко получить слабый закон больших чисел 1 х(й) = — ~ Н 'з(1). 1=1 Это краткое обсуждение (Хо (48)) взаимосвязи между стохастической аппроксимацией и теорией оптимальной линейной фильтрации показывает, что зти методы тесно связаны. Есть, однако, весьма существенное различие. В отличие от теории оптимальной фильтрации, в методе стохастической аппроксимации не используется информация об априорных распределениях. Другими словами, не метод стохастической аппроксимации, а теория оптимальной фильтрации позволяет выбрать оптимальную мав1рипу К1.
Кроме того, методы оптимальной фильтрации дают возможность легко получать эффективные решения для систем с помехами, тогда как, используя стохастическую аппроксимацию, этого не так-то просто добиться. Теперь перейдем к краткому обзору динамических алгоритмов стохастической аппроксимации и их применений к идентификации систем. 5.2. СТОХАСГИЧЕСКАЯ АППРОКСИМАЦИЯ ДЛЯ ДИНАМИЧЕСКИХ СИСГЕМ В четвертой главе отмечалось, что аначения и, соответствующие экстремуму Х = О (и), часто можно получить, используя следующую итеративную процедуру: П1+1 = П1 — К1 , аЕ(к1) л 1 В предыдущем разделе также было отмечено, что при наличии помех, когда наблюдается 1 = 0(п) + е, оптимальные значения и находятся в результате применения алгоритма П1+' = и — К— , й1(а') На э.г1 стохастичвскАя АппРОксимАция е37 где выбор К* ограничен несколькими неравенствами.