1626435586-15eceb6ba43f688400eaeb312dc6d98a (Сейдж, Мелса - Идентификация систем управления), страница 9

DJVU-файл 1626435586-15eceb6ba43f688400eaeb312dc6d98a (Сейдж, Мелса - Идентификация систем управления), страница 9 Основы вычислительной физики (3890): Книга - 7 семестр1626435586-15eceb6ba43f688400eaeb312dc6d98a (Сейдж, Мелса - Идентификация систем управления) - DJVU, страница 9 (3890) - СтудИзба2021-07-16СтудИзба

Описание файла

DJVU-файл из архива "Сейдж, Мелса - Идентификация систем управления", который расположен в категории "". Всё это находится в предмете "основы вычислительной физики" из 7 семестр, которые можно найти в файловом архиве НГУ. Не смотря на прямую связь этого архива с НГУ, его также можно найти и в других разделах. .

Просмотр DJVU-файла онлайн

Распознанный текст из DJVU-файла, 9 - страница

Символ Е (й!) используется для обозначения всех з(й), Йо «( Й «( Й! Для первых двух условных моментов имеем следующие выражения: 8(х(й)[х(йо)) =Н(й)х(й) =Н(й)Ф(й» йо)х(йо)» (31Л5] чаг [х(й) [х(йю)) = Ч„(й), (3.1Л6) где т — т Ф(й, й,) = Ц Ф(!+1, !). (ЗЛЛ7) у=!», Функция правдоподобия, или условная плотность Е (й!) относительно х (й ), является гауссовской и !»! ~ (ъ)" 'им~ (~)[ч )с ехр [ — 0,5 [з(й) — Е. "(Й) х(й)[т Ч„''(Й) [х(й)— — Н(й)х(й)[)[. (ЗЛ.18) Видно, что максимизация (3.1Л8) эквивалентна минимизации штрафной функции метода наименьших квадратов: а! ! = 2,Я [[з(й) — Н(й)х(й)[ д .

(ЗЛ.19) а-а,+1 чт ро Эта минимизация должна производиться по х(й,), причем (3.1.20) х (Й) = Ф (й, Йо) х (й»»). Объединяя два предыдущих уравнения, дифференцируя по х (йо) и приравнивая производную нулю, легко получить к! хмп (йо) = М '(й/, Усе) Х Ф (Й» Й»») Нт(й) Ч '(й) х(й)» в=а»+! (3.1.21) вввдвник где з~ М(й,, й,) =,'Я Ф'(й, й,)Н'®У„-"®Н®Ф(й,й,). В=за+1 (3.1.22) Для существования решения уравнения (3.1.21) М (йя й,) должна быть обратимой.

Требование обратимости М (йп я,) известно под названием условия наблюдаемости (Сейдж [116)). Можно получить непрерывный вариант рассмотренной задачи, сгущая точки фиксации так, чтобы й -»- оо, )9 Т -~- -~ г„йеТ -~- ге и ЙТ -~ г. Используем определения Р (~) = 1[ш [Ф ((й + 1) Т, йТ) — Ц/Т, (3.1.23) кгт с НР) = [[ш Н(йт), (3.1.24) о кт-~ Ф (9 = Иш ТЧ„(йТ). (3.1.25) зт с Плотность распределения вероятности вида (3.1.18) не существует, так как становится бесконечномерной, но уравнение (ЗЛЛ9) сохраняет силу и превращается в пределе при уменьшении шага фиксации в формулу Г= ~ [в(() — Н(Ю)х(г)~ з й. (ЗЛ.26) е Разностное уравнение (ЗЛЛ1) заменяется дифференциальным х = Р($) х(г), (3.1.27) которое следует использовать в качестве ограничения при минимизации (3.1.26).

Записав решение (ЗЛ.27) в виде х ( ) = Ф (г, ~.) х( .), (ЗЛ.28) подставив зто соотношение в (ЗЛ 26), продифференцировав бе ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДКНТИФИКАЦИИ ИГЛ, Э его по х(го) и приравняв результат нулю, получим !г х(~о) = М ~(~аа ао) ~ Ф (а ~о)Н (а) х(а)й, (ЗЛ.29) где матрица 0 М(~, ~.) = ~ Ф'(~, ~.) Н'(~) Ч~„-'(~) Н(~) Ф(г, ~,) й (3.1.30) обратима, если система наблюдаема (Сейдж [116[). В тех же обозначениях, использованных нами для определения оценки МП, на основе (3.1ЛО) можно получить выражение функции плотности вероятности для нахождения оценки МАВ.

Поскольку р [Е (йу)[ не зависит от переменной, по которой производится максимизация, то задача максимизации р [х (ко)[ Е (й~)[ полностью эквивалентна максимизации беаусловной совместной плотности вероятности р [х(йо), Е(Усу)[ = р [Е(7с~) [х(/со)[ р [х(йо)[. (31.31) Очевидно, что для выполнения желаемой оптимизации необходимо большее количество статистической информации. В частности, необходимо знание плотности (априорной) распределения х(ко).

Предположим, что она является гауссовской со средним значением р и дисперсией о'о,. Совместная плотность распределения, согласно (ЗЛЛЗ), примет вид р[х(а ), Е®[ = ( )"и[а оу,)'А ехр[ — 0,5[х(аоо) — [о,,'["' о) х 1 ~' У, оа з~ 1 (зя)и'[аооч (а))ал — Н(й)Ф(й, /со)х(йо)[о ы ). (3 1 32) ч ~щ Максимизация атой функции плотности вероятности ввкднннн зл1 эквивалентна минимизации штрафной функции вида 7'= ~ [х(йз) — р .['г- + ю зу + —,Я [х(й) — Н(й)Ф(Ус„7с,)х(7с,)[, .

(ЗЛ.ЗЗ) з=зв+1 тт ое Приравнивание нулю градиента по х (1с,) этой штрафной функции метода наименьших квадратов приводит к следующему выражению для оценки: хмАВ(йо) = [Ухе + Мф/ь Йз)) Х "с Х ~У,'[ь, + ~~~~~ Ф~(Рс, й,) Н(й) У '(й) Е(7с)~, (ЗЛ.34) з=з.+г где М (й7, лз) определяется формулой (ЗЛ.22). Интересно вычислить дисперсии ошибок оценок МП и МАВ, которые определяются формулами чаг(хмп(йз)) а чаг(х(йз) — хмп(йо)) =М '(Ья йо), (ЗЛ.35) тат(хмав(йо)) = чзг(х(йо) — хмлв(йо)) = [Ул', + М(Ь~йо)) '.

(ЗЛ.Зб) Видно, что дисперсия ошибки оценки (или идентификации) по методу МАВ меньше, чем по методу МП. Легко показать, что обе оценки — несмещенные. Эти утверждения основаны на предположении о правильном выборе параметров априорного распределения, используемого для улучшения алгоритмов идентификации. Если априорное распределение выбрано ошибочно, оценка МП может оказаться лучше оценки МАВ.

Полный анализ ошибок, вопросов выбора априорного распределения и связанных с этим вопросов чувствительности, читатель может найти в главах 6 и 8 книги Сейджа и Мелсы [127). Выражение оценки МАВ в непрерывном времени легко получить, если уплотнить точки фиксации и использовать определения (3.1.23) — (3.1.25).

Уравнение (3.1.33) примет 52 Функции штРАФА в 3АдАЯАх идвнтиФикоции !гл. 3 вид Х = — 21х(~о) — М~,'- + ж сс + ~!!х(с) — Н(г)Ф(М, Ео)х(йо)~' с й. (ЗЛ.37) с, чъ со Оценка МАВ теперь эапишется в виде ХМАВ (~о) = (У,,' + М И,, «о))-' + сс + Ц Ф~(Г, Го) Н(Г) сР„с У) хай -~- У,',)о„~, (ЗЛ.З8) сэ где М (оя со) определяется уравнением (ЗЛ.ЗО). Дисперсии ошибок двух непрерывных оценок равны тат (хмп(г~)) = уаг(х(со) — хмпИо)) =М о(~г ~о) (ЗЛ 39) тат (хмлв(го)) = тат(ХИо) — хмов(со)) = (Ръ+ М(бя го)1 ~ (ЗЛ.40) По-прежнему дисперсия ошибки оценки МАВ меныпе, чем дисперсия ошибки оценки МП. Может показаться, что эти линейные схемы построе- ния оценок не применимы к задачам идентификации, ко- торые часто нелинейны.

Исключение составляет иденти- фикация весовой функции линейной системы. Однако нелинейные задачи идентификации можно линеариэовать, как, например, в главе 6 (кваэилинеариэация). В этом случае методы 'данного раздела применимы непосредст- венно.

Есть ситуации, в которых 'методы, рассмотренные в этом разделе, неприменимы. Они возникают при наличии неизвестных входных сигналов, управляющих поведе- нием системы. Обратимся теперь к этой Задаче и рассмот- рим вопросы оценки динамики нелинейных систем. 3.2. ИДЕНТИФИКАЦИЯ НО КРИТЕРИЮ МАКСИМУМА АПОСТЕРИОРНОЙ ВЕРОЯТНОСТИ В этом раэделе будет исследован байесовский подход, или метод максимума апостериорной вероятности (МАВ) в применении к обобщенным Задачам оценивания, эадачам идентификации. Мы.покажем, что многие Задачи иденти- а.гу ИАксимум АпоствРиОРИОИ ВвРОятности оз фикации можно сформулировать как задачи оценивания по критерию максимума апостериорной вероятности. Будет показано, что при гауссовском априорном распределении оценка по максимуму апостериорной вероятности эквивалентна некоторой оценке по методу наименьших квадратов. Приводятся также развернутые формулировки соответствующих функций штрафа и двухточечных краевых задач, для решения которых можно применить вычислительные методы глав 4 — 7.

Наибольшее внимание в этом разделе уделяется дискретным моделям оценивания. Основные результаты будут затем переформулированы для непрерывных моделей. Дискретные модели формирования сигнала и наблюдений задаются уравнениями *) х(Й+ г) = ер[х(Й), Й[+ Г [х(Й), Й[ж(Й), (3.2.1) в (Й) = Л [х (Й), Й) + у (Ус), (3.2.2) где х (Й) — Ут-мерный вектор состояния, ~р [х (Й), Й[— У[7-мерная вектор-функция, множество значений которой охватывает все возможные входные сигналы, Г [х(Й), Й) — У[7 Х М-матрица, м (Й) — М-мерный вектор входного шума, х (Й) — В-мерный вектор наблюдений, Л [х (Й), Й[ — В-мерная вектор-функция, у(Й) — В-мерный вектор помехи измерений.

Через х(Й) обозначен обобщенный вектор состояния в. Й-й точке фиксации х(У„) или х(ЙТ„). В дискретных моделях оценивания тт (Й) и ч (Й) предполагаются независимыми марковскими последовательностями гауссовских независимых случайных величин с нулевыми средними значениями и такими, что 8[те(Й)тат(у)) Ч (Й)бк(Й вЂ” у) (323) 8(У(ус) Ут (У)) = Ч„(Й) Ьк (Й вЂ” У), (3.2.4) где бк (Й вЂ” Уу — символ Кронекера, а Ч (Й) и Ч„(Й)— симметричные неотрицательно определенные ковариационные матрицы размерности М Х М и В х В сооответственно.

° у Точная постановка аадачн вдентвфвканкк в такой форме будет дана ниже е атом раздела. 60 ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДЕНТИФИКАЦИИ [ГЛ. 3 Непрерывную модель оценивания часто выводят с помощью не вполне строгого предельного перехода, так что она получается непосредственно из дискретной модели по мере сгущения точек фиксации, т. е. когда Гоы— — го = Т„ (шаг фиксации) стремится к нулю, Эта непрерывная модель оценивания задается уравнениями х(с) =1[х(ю), г]+ 6 [х(г), г] оо(г), (3.2.5) (3.2.11) (3.2Л2) з(о) = Ь[х9), Е]+ у(о), (3.2.6) в которых оо (~) и т (~) считаются белыми гауссовскими шумами с нулевыми математическими ожиданиями, так что 8 (оо(~) тот (т)» = Ча„, (г) бо (~ — т) (3.2.7) Ф (у(о)'чт (т)) =Жч(~) бв (~ т) (3.2.8) Связь дискретной и непрерывной моделей устанавлива- ется следующими нестрогими предельными соотношениями: Ь.

1 $[х(~), г] =11Ш вЂ” (ор[х(й), »о] — х(й)», (3.2.9) т. о~о о„о 1 6 [х (Г), Е] = 11ш — (Г [х (й), й]), т о 1) Ь [х (г), 1] = 1[ш Ь [х (»о), й], То о 'о ' Ч"~(~) = 1»ш Т~уо,(»о), т о К оР:о (~) = 1[ш ТАЧо (й). то о оо Отметим, что определяющее непрерывную модель диф- ференциальное уравнение (3.2.5) записано в не вполне корректной форме и должно быть заменено стохастическим дифференциальным уравнением о]х(й) =1[х(о), Ц й+ 6[х(й), й] би(й), (3.2.14) 2.2) МАКСИМУМ АПОСтвРИОРНОЙ «ркРОЯткостк 62 где п(2) — винеровский процесс. Точно так же соотношения (3.1.9) — (ЗЛЛЗ) следует, вообще говоря, получить строгим образом с помощью стохастического анализа (Сейдж н Мелса [127]).

Свежие статьи
Популярно сейчас
Зачем заказывать выполнение своего задания, если оно уже было выполнено много много раз? Его можно просто купить или даже скачать бесплатно на СтудИзбе. Найдите нужный учебный материал у нас!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5259
Авторов
на СтудИзбе
421
Средний доход
с одного платного файла
Обучение Подробнее