Главная » Просмотр файлов » 1626435586-15eceb6ba43f688400eaeb312dc6d98a

1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 23

Файл №844237 1626435586-15eceb6ba43f688400eaeb312dc6d98a (Сейдж, Мелса - Идентификация систем управления) 23 страница1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237) страница 232021-07-16СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 23)

— ая Это сразу же следует иа определения Т. Для того чтобы показать это, достаточно определить обратную матрицу а' '=(а,! В,), (5.3Л7) Е э. и. сеадж, дж. л, меаса Важно отметить, что независимо от Ф матрица Т имеет. вид $62 стохАОгичвскАя АппРОксимАция ~гл. з где а — вектор-столбец. В самом деле, нли ата, = 1, ВВ 1=1, атВ =О, Ва,=О, и иэ формулы (5.3.4) видно, что — ьтш,— бт,~, ~,т я„ ~ь ьтш ЬтФ~ з вт„р-1 ьтфи-3 а — ~ В- = т""': т (5 3.13) =~Ь) т.

е. как раэ формула (5.3.16). Так как в вычислительном отношении оценить Т легче, чем Ф, то в дальнейшем будем рассматривать задачу идентификации матрицы Т. Действительно, в то время как матрица Т определяется единственным образом, не существует единственного представления для матрицы Ф. По выходу свободной линейной системы можно определить только 1У неизвестных параметров, в то время как для идентификации всей матрицы Ф необходимо выяснить значения Лз коэффициентов. Для построения полученных алгоритмов идентификации необходимо было предположение о порядке системы Ф.

Если порядок системы неизвестен, то требования наблюдаемости дают простой способ его оценки. Если предполагаемый порядок меньше или равен истинному порядку системы, то матрица наблюдаемости А всегда будет иметь обратную. Однако если предполагаемый порядок выше истинного порядка системы, то матрица наблюдаемости будет вырожденной (ненаблюдаемая система всегда редуцируема по порядку (Сейдж, (116))). Таким образом, польауясь требованием наблюдаемости, легко можно выяснить порядок системы (в простейшем случае свободной системы с незашумленными наблюдениями). Э Э) ИСПОЛЬЭОВАНИВ СтохАСтИЧВСКОЙ АППРОНсимАЦИи (ЭЗ ввынуждаемые системы — отсутствие оивибок ивмере- ний — отпУтствие динамихи в числителе нередаточной уунхгуии.

Рассмотрим систему х (Ус + 1) = Ах (й) + Гаг(й), р(Ус) =)ттх (й), (5.3.19) (5.3.20) где г = (--,'--.), г = (5.3.21) Будем считать иг(й) дискретным белым шумом с нулевым средним 8 (го (Ус)) = О, сот (и (й), го (у)) = %'„бх (й — у). Уравнение движения системы можно эапнсать как.одномерное раэностное уравнение у 'й) + ауу (Ус — 1) + а,у (Ус — 2) + ... = Ь~иг (й — 1) + + Ь,иг (й — 2) + ... + Ьнго (й — УУ), (5.3.22) где ь= .)"., ь= „„,, г.

(5.3.23) Это раэностное уравнение можно переписать в виде у (й) = — ут(й — 1) а + жт(Ус — 1) Ь, (5.3.24) и (А — УУ)) и (Ь вЂ” 2) и (Й вЂ” 1) у (ь — УУ) у(й — 1) = у (Уг — 2) у (Уг — М) (5.3.25) Для удобства предположим, что все Ь;, кроме Ьм равны О, а Ь„= 1. В этом случае р(й) т(й 1) а+ т(й — 1). (5.3.26) ве 164 стохАстичкскАИ АппРОксимАция [гл. 3 Таким образом, мы хотим определить оценку й, являющуюся корнем уравнения регрессии для уравнения (5.3.24).

Это приводит к алгоритму стохастической аппроксимации а(Й+ 1) = а(Й) — К(Й)у(Й) (у(Й+ 1)+ у (Й)а(Й)], (5.3.27) который минимизирует функционал Х е ((у(Й) + ут(Й 1) ИР) (5 3 28) Здесь К(Й) удовлетворяет ранее сформулированным требованиям, обеспечивающим сходимость. К сожалению, в рамках теории стохастической аппроксимации не существует способа выяснить оптимальный вид К(Й). Для того чтобы оценить полученный алгоритм, рассмотрим как альтернативу идентификацию по методу наименьших квадратов. Отправляясь от уравнения (5.3.26), ищем оценку а, минимизирующую функцию штрафа Х = ~~~~ ]ш(1 — 1)]з =,Я ]у(1)+ут(1' — 1)а]1. (5.3.29) 1=И+1 1=К+1 Здесь суммирование начинается с 1 = 11' + 1, так как впервые полная система для идентификации может быть получена только после (Х + 1)-го измерения. Если взять У дополнительных измерений, то Х =,Я ]у(1)+ут(1 — 1)а]1= р<М+1) у (~) У(У+2),,таз ) )) + а з Р)з) ут (за1 )) = ] у(2У) + 9 (2% — 1) а]1.

(5.3.30) Этого достаточно для того, чтобы получить оценку идентифицируемого вектора параметров. Получаем а(211') = — ]~~(21"1' — 1) е~~(21'1" — 1)] 1;г(2М вЂ” 1) у (2М). (5.3.31) ьл] ИСПОЛЬЗОВАНИИ СтОХАСТИЧНСКОЙ АППРОКСИМАЦИИ Я5 Так как 3Г. — симметрическая матрица (см. (5.3.6)), то видно, что (5.3.11) можно упростить, а именно: а (2]'т') = — [ус (2))( — 1)[ гу (2)'г'), (5.3.32) где обозначение а (2 ]т') используется для того, чтобы подчеркнуть, что для оценки а использовано 2Ф намерений. При выводе схемы последовательной идентификации форма ваписи (5.3.32) не используется а).

Определим У(2%) = [~~(2]У вЂ” 1) ф~(2М вЂ” 1)[ '. (5.3.33) Добавим еще одно измерение у (2 Р + 1) и минимиаируем новое выражение функции п]графа. Легко получить, что а (2)т'+ 1) = У (2]т'+ 1) [у (2)т') [ ~~ (2]т' + 1)) ~ (5.3.34) где Г9 [2м — ])1] У(2]'т'+ 1) = [уг~(2М вЂ” 1) ] у (2]У)) г ут(2У) — [У(2М) + у(2]У) ут[2М)[-' (5 3 35) Для того чтобы преобравовать это выражена~ к виду, более удобному для вычислений, воспользуемся леммой обращения матриц. В результате получим У(2]'т" + 1) = — У (2М) У (2М) у (2Ф) [ут (2М) У (2М) у (2М) [ 1)-г х х ут(2]т') У (2)т') (5 3 36) где требуется вычисление обратной скаляриой величины.

'Теперь нетрудно получить, что а(2М+ 1) = а(2]'т')— У (2М) у (2]Р) [ут (2М) У (2М) у (2Ф) + 1Гь х х [у (2]т'+ 1) + у~(2]т) а(2]т)). (5.3.37) «) Более систаматическое изложаиие последовательной идентификации с использованием инвариантного погружения приводится в глава 7. 166 стохьстичкскья лппгоксимлция (гл;,ь Можно повторить эту процедуру для 2]т" + 2, 2А(+ + 3, ..., откуда видно, что (5.3.37) можно переписать, заменив 2Ф на й.

Мы видим, что алгоритм стохастической аппроксимации (5.3.27) эквивалентен алгоритму метода наименьших квадратов (5.3.37), если К(й) = ~ ~ ) ° (5 3 33) 1 + ) (ь) .у (ь) у (Й) В разделе 5 1 показано, что дз (й) ведет себя как 1дй, и, таким образом, мы заключаем, что метод наименьших квадратов и метод стохастической аппроксимации ведут к сходным результатам. Вьппе предполагалось, что уравнения (5.3.36) и (5.3.37) выписываются, когда уже вьшолнено 2Ф наблюдений. Это необходимо для того, чтобы записать начальные условия а(2]У) = — [~(2А( — 1)] ду(2дд), дз(2Ад) = [а~с(2)У вЂ” 1)] з.

(5.3.39) Во многих практических ситуациях выбор начальных й и дь в вычислительной процедуре может быть достаточно произволен. Вынулсдаемые системы — отсутствие динамики в числителе — ошибки измерений. Алгоритмы идентификации по методу стохастической аппроксимации при наличии ошибок измерений судцественно усложняются. Рассмотрим систему вида х(й+1)= ---:--- х(й)+ ... ъ'(й), (5.3.40) у (й) = [1 О. . .

О] х (й), г (й) = у (й) + о (й), где э (й) — дискретный белый шум с нулевым средним, а г (й) — наблюдения. Можно записать одномерное разностное уравнение". г (й) + адг (й — 1) + аде (й — 2) + ... + акг (й — А() = Ьддо (й — 1) + Ь,ид (й — 2) + ... + Ькй (й — У) + + и(й) )-'адэ(й — 1) + ... + али(й — Х), (5.3.41) нспользовнлнии стохйстичнской аппгоксимйцин ссф которое можно переписать в виде з (й) = — зг (Й вЂ” 1) а + в (й — 1) + тт (Й вЂ” 1) а, (5.3.42) где с (й — у1) с [й — зу з (й — й) з (й — ут) з (й — 2) з (й — Х) ч(й — 1) = з(й — '1) = (5.3.43) К несчастью, уравнение (5.3.42) гораздо сложнее уравнения (5.3.26) в силу коррелированности последовательности помех тт (й — 1) а. Таким образом, 7 (Й вЂ” 1) = ю(й — 1) + тт(й — 1) а (5.3.44) уже не является белым шумом, так'как сот(Т(й — 1), 7(у — 1))+О, если ~й — у(~(УУ и сот(7(й — 1), 7(у — 1)) = О, если ~й — у()ду.

Следовательно, нужно быть осторожным, минимизируя .У =. ж (тс(й — 1)), (5.3.45) 7(й — 1) = «(Ус)+ зт (Й вЂ” 1)а. (5.3.46) и мы видим, что минимизация (5.3.45) с необходимостью приводит к смещенным результатам. Если в алгоритме Можно попробовать использовать алгоритмы стохастической аппроксимации, так ограничив выбор й, что й = О, Л + 1, 2 ЛУ + 2 и т,.

д, и тогда сот (у (й — 1), у (у — 1)) = О, ~ й — у ~ = (ут' + 1) с, с=1,2, ... Минимизация (5.3.45) приводит, конечно, к тем же ре-' зультатам, что и минимизация (5.3.28). Ошибки измерений по существу игнорируются. Мы получаем а" = — (Ж (з(ус — 1) зт(ус — 1))) сб'(з (ус — 1) з (й)). (5 3 47) Подстановка (5.3.42) дает а' = а — (й (з (й — 1) зт(й — 1))) 1г,а, ' (5.3.48) 168 стех асти ч кокая!эапц Роксимация [гл. э стохастической аппроксимации вычесть, смещение, обусловленное использованием (5.3.45),С то будут получены несмещенные оценки. Для получения осмыоленных алгоритмов стохастической аппроксимации по-прежнему необходимо при итерировании оценок а пользоваться реализациями помехи, разнесенными на Ф + 1 временной такт. Таким образом, алгоритм стохастической.

аппроксимации имеет вид а(й+ с'т'+ 1) = а(й) — К(й/Х+ 1) х Х (х(й+ ст') [г(й+ ст + 1) + зг(й + )т') а(й)[ — у,а(й)), (5.3.49) где й = О, Ф + 1, 2Х+ 2, ... Можно. легко проверить, что этот алгоритм дает несмещенную оценку. Коэффициент К (й/сс' + 1) выбирается, чтобы удовлетворить обычным для метода стохастической аппроксимации ограничениям. Отметим, что по постановке задачи необходимо знание дисперсии ошибок измерений, но не дисперсии входного шума системы. Но аналогии с (5.3.38) можно получить, что подходящее, близкое к оптимальному, аначение К определится как К вЂ” + '+ ), (5.3.50) )- ч+с1,+,т(„+дс)л,<ь) э(а+„) ( где У(й+ ст + 1) = У(й) — У(й)х(й+ Л) х Х [хт(й + Л) У (й) х (й + ДС) + Ц 'ат(й + У) У. (й).

(5.3.51) Начальные условия для й и У не критичны и могут быть выбраны, как, и в предыдущем разделе. Пример 5'.3.1. Рассматривается простейший пример идентификации Ф в случае одномерной системы х (й + 1) = Фх (й) + ю (й), у (й) = х (й), з (й) = х (й) + э (й), где сс(й) и и(й) — дискретные белые шумы с нулевым средним. Система первого порядка, поэтому сс' = 1. В этом случае алгоритм стохастической аппроксимации (5.3.49)— Б Б) испольЗОВАник стохАстичкскои АппРОксимАции 159 5.3.51) имеет вид Ф (й + 2) = Ф (й) + /ь (/с/2) (г (й + 1) (з (й .+ 2) — л ()с + 1) Ф (й)) + )/,Ф" (ь)) где ЗБ (А+ 2) 1+л (5+1)З (А) 3Б(й+2)=, „0 для к = О, 2, 4, 6, ... На рис.

Характеристики

Тип файла
DJVU-файл
Размер
2,97 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6417
Авторов
на СтудИзбе
307
Средний доход
с одного платного файла
Обучение Подробнее