Главная » Просмотр файлов » 1626435586-15eceb6ba43f688400eaeb312dc6d98a

1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 22

Файл №844237 1626435586-15eceb6ba43f688400eaeb312dc6d98a (Сейдж, Мелса - Идентификация систем управления) 22 страница1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237) страница 222021-07-16СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 22)

Усиление калмаиовского фильтра; пример 5.2.2. р [( (й)[. Так же, как и в стационарном случае, можно выбрать какую-либо реализацию случайного процесса ~1(й) и поставить детерминированную задачу оптимизации. Определим гамильтониан Нг = 1р [х (й), и (й), Ь1(й) й [ + Хт (й + 1) ~р [х (й), и (й), Ьг(й), Й) . (5.2.25) сто хАстичвскАя АппРОксимАция (53 Ь.з) Вапишем канонические уравнения соответствующей двух- точечной краевой задач 1 д А = )"(й) дд [х(А )! дх (А,) дН дН дь (А+() — — = х (й + 1), — = О, ди (А) (5.2.26) Вероятность ~1 равна Р» 1 = 1, 2,...М.

Таким образом, решение исходной стохастической аадачи зквивалентно решению взвешенной последовательности задач с весо- выми коэффициентами Рс. Необходимые условия для задачи (5.2.23), (5.2.24) запишутся в виде дН дн' д-~р~ — () — х(й+ 1)1 хА~~~~ Рс д (ц = О, ,Я Р,~ — „— Х(й)1 = О, 1=1 Х ~ [~(~.)+,„„, 1 — О. 1=1 С 1 Н = й (х (й), и (й), ~ (й), й] + + Хт(й+ 1)ср(х(й),н(й), ь(й),й), „,,„+„=х(й+ ).

(5.2.27) Осуществив формальный переход от дискретного распре- деления Р, к непрерывному распределению процесса ~ (й), ' получаем запись уравнений стохастического принципа максимума для дискретной по времени задачи 154 стохАстичвскАя АппвоксимАция (гл, й Полученные результаты сразу же намечают схему использования алгоритмов стохастнческой аппроксимации: 1) выбрать п' (Й), 2) задаться х' (йх), 3) в соответствии с распределением р (~ (Й)) получить реализацию ~' (Й), 4) решить разностное уравнение с начальным условием х'(й ) х' (Й + 1) = ~р [хк (Й),пй(й), ~' (Й), Й),' 5) решить сопряженное уравнение с условием на конце дд, (х (й,н дх(й ) ),(Й)=, = —,+ —,. ) (й+1), дН д~р| д ргт дхй (й) дк~ (й) дх' (й) 6) используя алгоритм стохастической аппроксимации, определить новую итерацию управления пьп п1 ~ дН' х й > ди (5.2.28) пйы = и' — К'„~ — + —.

У (Й + 1)~, Гдч' др" . ~ диз дв' 7) используя алгоритм стохастической аппроксимации, определить новую итерацию начальных условий х"~(й ) = х'(й ) — К' ( '( ( ')) + Х'(й,)1, (5.2.29) 8) вернуться к пункту 3) и повторить вычисления. Пример 5.2.3. Система описывается уравнением х (Й + 1) = х(й) + и (Й) + ю(й), (ЙО) хз где и (Й) — случайный входной процесс с известным распределением вероятностей. Попробуем выяснить свойства Ь.З] стохАстичкскАя АппРОксимАцИя управления и (й), минимизирующего функционал = Ж*'(~,)+ —,' Х "()1.

с=с, Определим гамильтониан Н = 2 и' (й) + )с (й + 1) [х (й) + и (й) + ю (й)]. Отохастический принцип максимума приводит к следующей системе канонических уравнений: х(й+1) =х(й)+и(й)+со(й), х(йс) = хс $ (и (й) + )с (й + 1) ) = О, е (А (й 1- 1) — )с,(й)) = О, Ж (Х (йс) — х (йс)) = О.

Легко показать, что решение этих уравнений имеет вид и(й) =— х (/сО) х — Йс с с — т х(й) =х(й,)+ ~~~~ [и(й)+ в(й)]. с=и Вместо того чтобы непосредственно решать систему канонических уравнений стохастического принципа максимума, воспользуемся алгоритмом стохастической аппроксимации. В данном случае сопряженное уравнение из пункта 5) имеет вид й(й) = ~е =й(й+1), А(й,) =х(й,).

Это уравнение имеет решение )с (й) = х (йс). Запишем алгоритм стохастнческой аппроксимации для итераций управлений исы (й) = и'(й) — К' — = ис(й) — К'[й(й)+ х(й,)]. аи'(а) Отсюда видно, что если начальное приближение было выбрано постоянным, то и последующие итерации 156 стохАстичвскАя АппРОксимАция агл. 5 управления от времени не зависят. Используя запись — = и(й)+А(й+ 1) ='и(й+ 1)+х(й,), получаем, что е ) — 1 = и,с (й) + е (х' (й,)), (дз'(А) ) чаг~ — ~ = чаг(хс(йа)), ( дН '1 (даа~ (А) ~ так что дисперсия дН/дис(й) постоянна для всех й чаг ( —,) = р„(/с„). Зто также непосредственно вытекает из системы разностных уравнений при постоянном и: в — с х'(Й) = хс(йа) + ~~~~ ~]и'+ юс(й)]. аа Для проверки достаточно подсчитать моменты гс — г Ж(х'(Й,)) =х'(Й,) + ~~', й, В=м гс — 1 чаг(хс(й,)) =чзг~ ~~~~ ~и'(Й)) = )с„(йс).

з га Из того, что чаг (дН/дис(й)) = сопз1, видно, что алгоритм стохастической аппроксимации и'+' = и'— — К' (дН/ди') сходится в том смысле, что 1)ш чаг ис = О, а аа если Кс = 1/1. Однако если, как и в обычном градиентном методе, выбрать К' = сопе$, то Иш чзг (й) = оо $ аа и алгоритм расходится. Это может поставить под сомнение результаты главы 4 по сходимости градиентных алгоритмов.

первого и второго порядков. Здесь проявляется ь.ю стохАстическАя АппРОксимАция 157 Основное отличие исследуемых подходов. В градиентных методах главы 4 на всех итерациях используется одна и а же реализация случайных компонент, тогда как для метода стохастической аппроксимации характерно то, что на каждом шаге получают новую реализацию случайной последовательности ь' (й) в соответствии с известным вероятностным распределением р [ь (й)[. Таким образом, в двух последних главах вопрос о сходимости ставится по-разному.

Используя каждый раз новую реализацию, мы надеемся, что смещение оценок искомых параметров будет по всей видимости меньше, чем в случае, когда «прокручивается» одна и та же выборка случайных параметров. Дело просто в том, что испольаование разных реаливаций увеличивает объем информации о системе, за которой ведется наблюдение. Конечно, во многих практических задачах доступно только одно наблюдение, и единственная полученная реализация затем вынужденно используется на каждом шаге итерационной схемы.

Решение непрерывной задачи сразу же вытекает из результатов, полученных для дискретной постановки. Необходимо минимизировать у = й~Е, [хМ+ В, [х М+ + ~ ч~ [х(~),п(~), ь(1), Ц <й[ (5230) при ограничениях в форме дифференциальных уравнений х = 1 [х (г), и ([), ь ([), Р[. (5.2.31) Определим гамильтониан (случайную величину) и = <Р [х (й), п (з), ь (з), Ц + Ат (з) [ [х (г), и (з), ь ([), з]. (5.2.32) Запишем канонические уравнения и соответствующую двухточечную краевую задачу для стохастического принципа максимума (5.2.33) 158 стохАстичвскАя АппРОксимАция (гл.

ь В тех случаях, когда непосредственное решение уравнений (5.2.33) затруднительно, можно воспользоваться процедурой, основанной на идеях стохастической аппроксимации: 1) выбрать яачальное приближение х' (~з) и и' (г), 2) получить реализацию ~~ (1), 3) решить дифференциальное уравнение, описывающее движение системы (в прямом времени Г, ~~ (< Гг) х' = $ [х' (й), п~ ((), ь. (й), (], 4) решить сопряженное уравнение с условиями на конце (в обратном времени (Гг ~ Г ~ ГА) ан а р' а]'т У- — —, — —,—, У(г), ах'(с) ах'(с) ах'(с) (5.2.34) де [х(С )] У(г,) = (,) 5) определить новую итерацию управлений пьч(() = п'(() — К вЂ” = ан да~ (й) г а4р$ дрт = п~(г) — К', — + — )ф)1; ~да~ (й) до~ (й) (5.2.35) здесь К„' удовлетворяют всем требованиям на коэффициенты в алгоритмах стохастической аппроксимации; 6) определить новую итерацию начальных условий дв х'+1(8,) =х'(4) — Кх~ ',"" — ]~*'(]о)1; (5236) дх~ (м] 7) вернуться к пункту 2) и повторить вычисления с новой реализацией Ь1 (8).

Формальное введение в теорию стохастической аппроксимации на этом закончено. Ниже на нескольких примерах будет показано, как эти методы можно применить к идентификации. систем. $ М испОльзОВАние стохАстической АппРОксимАции (59 испОльзОВАние стОхАстическОЙ АппРОксимАции дЛЯ ПОСЛЕДОВАТЕЛЬНОГО ОцеНиВАНИЯ ДИНАМИКИ ЛИНЕЙНЫХ СИСТЕМ В этом рааделе будет проведено детальное исследование задачи идентификации матриц коэффициентов Ф и Г дискретной линейной системы с постоянными коэффициентами х (й + 1) = Фх (й) + Гш (й), (5.3.1) г (й) = Нх (й) + о(й) = у (й) + о (й). (5.3.2) Будем предполагать входной процесс одномерным, так что à — это вектор-столбец у.

Пусть и выход системы одномерный, так что Н = [1 0 0... О) = Ыт. Свободные системы — отсутствие ошибок измерений. Сначала будем считать, что на систему действует входной шум и отсутствуют ошибки измерений. Выход системы выбран скалярным прежде всего из-аа того, что в случае отсутствия ошибок намерений для идентификации системы с одномерным выходом достаточно иметь )(( измерений.

Удобно определить )т"-мерный расширенный вектор измерений и, используя (5.3.1), (5.3.2), получить ыте ытее х (0) = АФх (0), (5.3.3) е (1) уФ) = е ((у) ытен где ыт ыте (5.3.4) ытеь -т Точно так же найдем, что ытее ),т е у (2) у((Ч+ 1) = у (3) х(0) = АФх (1) = АФ'х(0) ген + у(н м) (60 стохАстн*1зскАЯ АппгоксимАцня (РЛ. 5 и в общем случае у(У+ й) = АФх(й).

Сформируем расширенную матрицу (5.3.5) ~(2Д( — 1) = [у()()) у(Д(+ 1)у(У+ 2)...у(2У вЂ” 1)] = т (() )((2) . т ()()) Р(з) к(з) ... Р(.)ч+И (5.3.6) (А() (5(11) (55(-1) Из уравнений (5.3.3), (5.3.5) и их очевидных обобщений получим а~( (2Л( — 1) = АФзз, (5.3.7) где Я = [х(0) Фх(0) Фзх(0)... Ф 'х(0)]. (5.3.8) Матрицу А часто называют матрицей наблюдаемости. Для того чтобы вектор состояния можно было восстановить по последовательности наблюдений, эта матрица должна быть нов ырожденн ой. Матрица л) называется матрицей идентифицируемости.

Идентификация системы возможна, только если ее матрица 33 не вырождена (Ли, [87]). Иэ уравнения (5.3.7) можно определить оценку матрицы коэффициентов Ф = Ф = А 1~ (2Л( — 1) 33 ', (5.3.9) которая является точной,так как входные помехи отсутствуют. Однако мы существенно использовали то обстоятельство, что передаточная матрица являлась ))( Х Ж- матрицей. Поэтому нас, конечно, беспокоит строгость полученного результата, так как в действительности матрицы А и У зависят от Ф. Эта трудность скоро будет устранена. Можно повторить рассуждения, которые привели к уравнению (5.3.7), и, используя другую расширенную матрицу данных ф. (2)()) и уравнение (5.3.3), получить следующий результат: а(-(2Л) = АФ1% = АФА 1~(2У вЂ” 1).

(5.3.10) таз) ИСПОЛЬЗОВАНИЕ СтОХАСтИЧЕСКОИ АППРОКСИМАЦИИ Е Я удобно ввести матрицу Т= АФА т (5.3Л1) так, что уравнение (5.3ЛО) преобразуется к виду У(2с"е') = Т~(2М вЂ” 1). (5.3Л2) Из уравнений (5.3.3), (5.3.5) и (5.3.9) имеем уРУ+ 1) = ту(Л). (5.3.13) Так как у ()У) = х1()У) и, кроме того, д(1) =)г у()у), (5.3Л4).

то последнее соотношение,' используя формулу (5.3.3), можно переписать в Еиде у(1) = Ь~у(Ж) = Ь~АХ(1). Формула )ет = 1ст А подтверждается. Линейные уравнения (5.3ЛЗ) и (5.3Л4): эквивалентны уравнениям (5.3Л) и (5.3.2). Т. связана с Ф преобразованием (5.3.И). Таким образозг, если определить Т из (5.3.12), то. Ф можно получить.из (5.3.11) Т = ~(2)Р)ф '(2Ф.— 1); Ф = А ХТАс (5.3Л5) о о о о (5.3Л6) — ас — ае ° ..

Характеристики

Тип файла
DJVU-файл
Размер
2,97 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6417
Авторов
на СтудИзбе
307
Средний доход
с одного платного файла
Обучение Подробнее