Главная » Просмотр файлов » 1626435586-15eceb6ba43f688400eaeb312dc6d98a

1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 19

Файл №844237 1626435586-15eceb6ba43f688400eaeb312dc6d98a (Сейдж, Мелса - Идентификация систем управления) 19 страница1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237) страница 192021-07-16СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 19)

Таким образом, в ртом случае уравнения для возмущений похожи на уравнения для задачи о замкнутой системе регулирования. Зтд уравнения здесь не приводятся из-за чрезмерной сложности получающихся алгоритмов. Построение таких алгоритмов для конкретной задачи идентификации оказывается не трудной, но часто утомительной работой. Процедура последовательного метода вторых вариаций, авторство которой в непрерывной форме принадлежит Мак-Рейнольдсу и Брайсону (97), по существу повторяет описанную выше процедуру градиентного метода второго порядка. Чисто техническое' отличие состоит в том, что производится последовательное интегрирование в обратном времени неоднородных уравнений Риккати.

Затем в прямом времени строятся уравнения (4.3.53), (4.3.54) с начальными условиями, которые определяются комбинацией выражений (4.3.58), (4.3.60), (4.3.62) и (4.3.63): Ах(йо) = [' ьр (700) [Еь*(йо) + зх (ь )а 1 + + Бгр (йо) Ега (~0)) Х (~гр(~0) еаг (~0) "ар (йо) еаь (йО)) э (4.3.64) АР(йо)=~[Вам(йо)+ з,(ь)а 1 ЕьР(700) — Ега(йо)ЕРР(йо)~х Х '~ Ра (йо) оаг (700) ~ 3(аа (700) + В (Ь )а 1 еа» Яо)~ * (4.3.65) . Иногда желательно рассматривать уравнения (4.3.53), (4.3.54) вместе с уравнениями (4.3.14), (4.3Л5).

Возможность итеративного выбора А (дХ/дп) может оказаться существенным преимуществом последовательного метода по сравнению с обычным градиентным методом второго порядка. Алгоритмы метода сопряженного градиента для решения динамических задач идентификации в идейном плане являются прямым обобщением статического варианта метода сопряженного градиента. Сначала необходимо определить начальные хоа, р~»и по. Затем в прямом времени решаются уравнения для траекторий, а в обратном Ол> методы иденти<рикьции диньмических систем $29 5) используя К, определенные в предыдущем пункте, выбрать пьм =и' — Кь сь„, ОО1 1 3 1 хе = хе — Кь,,сь„„ 1 1 1 Р<е1 = Р Кьрсьр! б) используя зти значения решить в прямом времени уравнение для траектории и в обратном времени — сопря- женное уравнение; 7) определить направления сопряженных градиентов 1+1 дН <дН(де'е~, дН)дары> сьа — — —,, + сьа, до <О'„, с' „> де',+1 О„ч ) (деее1/дхре1+ Х<е1!!1 !! ГО !!1 1 Ис;,Р 8) вернуться к пункту 4).

Таким образом мы видим, что после начальной процедуры сопряженные направле- ния используются как направления,-поиска. Для того чтобы проиллюстрировать специфические особенности вы- числительной процедуры, рассмотрим пример системы первого порядка. Пример 4.3.2. Интересно рассмотреть применение ме- тода сопряженного градиента для идентификации пара- метра Ь линейной системы х = — Ьх(й), и(С) = 1, х(0) = О. Минимизируется функция штрафа 1 Х = ~ ~ (з (г) — х (г))е й.

1 <' О Основная градиентная процедура чрезвычайно проста и представляет собой частный случай общей схемы, по- строенной в примере 4.3Л: $) задаемся начальным значением Ь', 2) решаем уравнение хе = — Ь'х'(г)+4, хе(0) =0; 5 э. и. сеадж, дж. л. меаеа 430 ГРАДИЕНТНЫЕ МЕТОДЫ ИДЕНТИФИКАПИИ ИГЛ. 4 3) решаем сопряженные уравнения Х' = г (~) — х1(~) — Ь1)е (~), Х1(~~) = О, Г' = ' У) Л1 В Г' РД = О; 4) определяем новую итерацию неизвестного пара- метра Ь" = Ь' — К'ГДО); 5) возвращаемся к пункту 2) и повторяем вычисления. Для того чтобы применить метод сопряженного гради ента, необходимо изменить процедуру, начиная с пункта 5).

4 Ф4 э 5 ) определить й., минимизирующее функцию штрафа 1г 1 з У = — ~ [г(~) — х(~))'й и вычислить Ь'"', О б) используя 51+1, решить прямое и сопряженное уравнения; 7) определить направление сопряженного градиента 1+1 ГМ1 (О) (гг41 (0)р дь с начальным приближением сддз = Г (0); 8) на следующей итерации использовать оценку параметра 5441 = Ь' — К'сд4,, 9) вернуться к пункту 2) и повторять вычисления. 4.4. ВЫВОДЫ Было построено несколько наборов алгоритмов для решения задач идентификации. В приведенных примерах рассматривалась идентификация систем путем минимизации функций штрафа, предложенных в главе 3.

Теперь будут изучаться особенности метода стохастической аппроксимации, которую можно рассматривать как статистический градиентный метод. Гааза $. ИДЕН1ИФИКАЦИЯ С ИСПОЛЬЗОВАНИЕМ С1ОХАС1ИЧЕСКОй АППРОКСИМАЦИЙ ЗЛ. ВВЕДЕНИЕ В этой главе представлен обзор методов стохастической аппроксимации и их применений к решению задачи идентификации. Мы в основном дадим физическое и эвристическое толкование стохастической аппроксимации вместо строгих доказательств, которые можно найти в цитируемой литературе. Первыми исследованиями в области стохастической аппроксимации были работы Роббинса и Монро [1121, Кифера и Вольфовица [751, Дворецкого 1331 и Влума [191, Сакрисоном [1301 написан интересный инженерный обзор методов стохастической аппроксимации.

Алгоритм Роббинса — Монро является стохастическим аналогом обычного градиентного метода для отыскания единственного корня уравнения Ь(х) = 0. (5Л.1) Этот алгоритм имеет вид хет = х' — Х'Ь(х'), (5Л.2) где Х' — последовательность вещественных чисел, на которые наложены определенные требования, обеспечивающие сходимость алгоритма. В том случае, когда измерения Ь (х) искажены помехой с конечной дисперсией (5.1.3) в = Ь (х) + ч, где т — помеха с нулевым математическим ожиданием, говорят, что Ь(х) есть функция регрессии в на х, так как для независимых х и т ОО й'(а[х) = ~ зр(в[х)дз = Ь(х). (5.1.4) Ю Теперь алгоритм (5Л.2) уже неприемлем, так как Ь (х) [З2 стохастичвская Аппэ эксим «пня [гл. 5 некаблюдаема.

Однако условное математическое ожидание определяется выражением (5Л.4), и стохастический алго- ритм для отыскания корней уравнения регрессии (5Л.4) имеет вид х[ы = х' — К'а (х'). (5Л.5) Здесь обозначение к (х') преследует цель подчеркнуть итеративный характер алгоритма. Последовательность (х') с вероятностью единица сходится к решени[о уравнения (5.1.1). Исследования Роббинса и Монро показали, что эта сходимость имеет место при выполнении трех условий: 1[ш К' = О, Таким требованиям удовлетворяет, например, простей- шая последовательность (5Л.7) Требуется также, чтобы функция регрессии )» (х) по обе стороны от истинного решения была ограничена прямыми с конечным наклоном, для того чтобы не «проскочить» решение х.

Таким образом, в одномерном случае ~ Ь (х) ~ ~( а ~ х — У ~ + Ь (а, Ь ) 0). (5Л.З) и'+' *и' — К— «НО (и') ев« (5Л.О) Последнее ограничение не является слишком суровым. Физическое толкование условий (5.1.6) будет дано в следующем разделе, в котором рассматривается динамический вариант метода стохастической аппроксимации. Кифер и Вольфовиц обобщили метод стохастической аппроксимации на отыскание экстремума унимодальной функции регрессии 6 (и). Этот алгоритм представляет собой точный аналог детерминированной градиентной процедуры, которая, как известно, использует алгоритм вввдвнив зл1 При наличии помех наблюдается 1=3(п) +3.

(5.1ЛО) И детерминистский алгоритм (5Л.9) заменяется стохастическим алгоритмом у Л(в') (5Л.11) саз Условное математическое ожидание, взятое от обеих частей (5Л.11), приводит к алгоритму (5Л.9). В некоторых случаях прямое дифференцирование с целью получить й (п~)/Ып~ невозможно и используется приближение вида + ) .( ).

5ЛЛ2) са1 2ааь Так что алгоритм Кифера — Вольфовица записывается в форме и'+' = и' — К*~ ( ) ) ~ . (5.1.13) 2аа' В этом случае условия сходимости имеют вид Иш К' = О, 11ш Ап' = О, 1 С (5.1.14) О ,", к'= ., ь=т Имеется также ограничение типа (5Л.8). Основная идея стохастической аппроксимации состоит в том, что для любого алгоритма детерминированного типа существует его стохастический двойник. Следуя этой идее, Дворецкий (33) сформулировал обобщенный метод стохастической аппроксимации, который состоит в использовании аддитивной смеси детерминированного алгоритма Я и случайной компоненты л х'+~ = е)(аа, х',...,х*)+ и'.

(5Л.15) Можно показать, что алгоритмы Роббинса — Монро и Нифера — Вольфовица являются частными случаями алгоритма Дворецкого. 134 стохастичнскАЯ АппгоксимАция ~гл. е хьа = х' — К~ в1яв (х (х~)) (5.1Л6) или (5Л.17) Нв~ Такой подход значительно ускоряет сходимость для таких функций регрессии, которые на бесконечности быстро стремятся к нулю, например, как й (х) = х ехр ( — х). Дворецкий [33) доказал, что если чаг (х (х) ~ х) < У„< оо и если функция регрессии й (х) = е (г (х)) х) ограничена, 0(А!х — х~(й(х)(В)х — х)(оо, (5Л.18) и, кроме того, ~х' — х~ (С = ( ) *, (5.1.19) то последовательность АСч У„+ 1А~С~ (5.1.20) достигает верхней грани чаг ((х* — х)') (, ' . (5Л.21) ь+(~ ) Кроме близости к градиентным методам, существует тесная свяаь между стохастической аппроксимацией-н Существуют различные способы увеличения скорости сходимости алгоритмов стохастяческой аппроксимации, которые,как мы видим, весьма близки к развитым в предыдущей главе градиентным методам.

Быть может, проще всего поддерживать К' постоянным до ивменения знака наблюдаемой величины (х (х') или 1(п')), изменяя затем К' так, чтобы удовлетворить вышеупомянутым ограничениям. Эту схему можно оправдать тем, что вдали от нуля функций Ь(х) или ЫО(п)/Ыи наиболее вероятны наблюдения одного знака, тогда как в близкой окрестности нуля знак наблюдений будет часто меняться. Этот метод сводится к использованию ~зь 1 вввдвнив рней оптимальной Фильтрации. Например, хорошо известно, что решение задачи об отыскании наилучшей линейной оценки х при заданном наблюдении х(й) = Нх+ т(й), (5Л.22) где ч (й) — белый шум с нулевым математическим ожиданием и единичной матрицей ковариации, дается формулой х (й + 1) = х (й) + Ч-, (й + 1) Н [х (й + 1) — Нх (й)] = = х(й) + Чу(Й) Н [НЧ (Й) Н + 1] ~ [х(й-]- 1) — Нх(й)], (5.1.23) где Ч-„(й+ 1) = Ч-„(й) — Ч-„(й)Н [НЧ-„(й) Н + и 'НЧ-(й) (5Л.24) илн Ч-„(й+1)Н = Ч-„(й)Н [НЧ„(й) Н + Ц т.

(5.1.25) Повторное использование (5Л.25) сразу же приводит к соотношению Ч-„(й)Н =Ч-,(0)Н [ЬНЧ„-(0)Н +1] ', так что при й- оо Ч-„(й)Н = —,Чх(0)Н [НЧ-„(0)Н~] ' (51.26) Как и ожидалось, при оценке константы дисперсия ошибки стремится к нулю. Таким образом, для больших й алгоритм фильтрации (5Л.23) имеет следующий асимптотический вид: х(й+1) = = х (й) + —, Ч-„(О) Н [Н Ч „(О) Н ] ~ [в (й + 1) — Нх (й)]. (5Л.27) Видно, что уравнение (5.1.27) является многомерным алгоритмом стохастической аппроксимации. Если предположить, что Н вЂ” квадратная невырожденная матрица, 136 стохАстичкскАя АппРОксимАция (ГЛ. 1 то из (5.1.27) следует, что х(й+ 1) = х(й) + — [х+ Н 1т(й+ 1) — х(й)).

Отсюда легко получить слабый закон больших чисел 1 х(й) = — ~ Н 'з(1). 1=1 Это краткое обсуждение (Хо (48)) взаимосвязи между стохастической аппроксимацией и теорией оптимальной линейной фильтрации показывает, что зти методы тесно связаны. Есть, однако, весьма существенное различие. В отличие от теории оптимальной фильтрации, в методе стохастической аппроксимации не используется информация об априорных распределениях. Другими словами, не метод стохастической аппроксимации, а теория оптимальной фильтрации позволяет выбрать оптимальную мав1рипу К1.

Кроме того, методы оптимальной фильтрации дают возможность легко получать эффективные решения для систем с помехами, тогда как, используя стохастическую аппроксимацию, этого не так-то просто добиться. Теперь перейдем к краткому обзору динамических алгоритмов стохастической аппроксимации и их применений к идентификации систем. 5.2. СТОХАСГИЧЕСКАЯ АППРОКСИМАЦИЯ ДЛЯ ДИНАМИЧЕСКИХ СИСГЕМ В четвертой главе отмечалось, что аначения и, соответствующие экстремуму Х = О (и), часто можно получить, используя следующую итеративную процедуру: П1+1 = П1 — К1 , аЕ(к1) л 1 В предыдущем разделе также было отмечено, что при наличии помех, когда наблюдается 1 = 0(п) + е, оптимальные значения и находятся в результате применения алгоритма П1+' = и — К— , й1(а') На э.г1 стохастичвскАя АппРОксимАция е37 где выбор К* ограничен несколькими неравенствами.

Характеристики

Тип файла
DJVU-файл
Размер
2,97 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6392
Авторов
на СтудИзбе
307
Средний доход
с одного платного файла
Обучение Подробнее