1626435586-15eceb6ba43f688400eaeb312dc6d98a (Сейдж, Мелса - Идентификация систем управления), страница 9
Описание файла
DJVU-файл из архива "Сейдж, Мелса - Идентификация систем управления", который расположен в категории "". Всё это находится в предмете "основы вычислительной физики" из 7 семестр, которые можно найти в файловом архиве НГУ. Не смотря на прямую связь этого архива с НГУ, его также можно найти и в других разделах. .
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 9 - страница
Символ Е (й!) используется для обозначения всех з(й), Йо «( Й «( Й! Для первых двух условных моментов имеем следующие выражения: 8(х(й)[х(йо)) =Н(й)х(й) =Н(й)Ф(й» йо)х(йо)» (31Л5] чаг [х(й) [х(йю)) = Ч„(й), (3.1Л6) где т — т Ф(й, й,) = Ц Ф(!+1, !). (ЗЛЛ7) у=!», Функция правдоподобия, или условная плотность Е (й!) относительно х (й ), является гауссовской и !»! ~ (ъ)" 'им~ (~)[ч )с ехр [ — 0,5 [з(й) — Е. "(Й) х(й)[т Ч„''(Й) [х(й)— — Н(й)х(й)[)[. (ЗЛ.18) Видно, что максимизация (3.1Л8) эквивалентна минимизации штрафной функции метода наименьших квадратов: а! ! = 2,Я [[з(й) — Н(й)х(й)[ д .
(ЗЛ.19) а-а,+1 чт ро Эта минимизация должна производиться по х(й,), причем (3.1.20) х (Й) = Ф (й, Йо) х (й»»). Объединяя два предыдущих уравнения, дифференцируя по х (йо) и приравнивая производную нулю, легко получить к! хмп (йо) = М '(й/, Усе) Х Ф (Й» Й»») Нт(й) Ч '(й) х(й)» в=а»+! (3.1.21) вввдвник где з~ М(й,, й,) =,'Я Ф'(й, й,)Н'®У„-"®Н®Ф(й,й,). В=за+1 (3.1.22) Для существования решения уравнения (3.1.21) М (йя й,) должна быть обратимой.
Требование обратимости М (йп я,) известно под названием условия наблюдаемости (Сейдж [116)). Можно получить непрерывный вариант рассмотренной задачи, сгущая точки фиксации так, чтобы й -»- оо, )9 Т -~- -~ г„йеТ -~- ге и ЙТ -~ г. Используем определения Р (~) = 1[ш [Ф ((й + 1) Т, йТ) — Ц/Т, (3.1.23) кгт с НР) = [[ш Н(йт), (3.1.24) о кт-~ Ф (9 = Иш ТЧ„(йТ). (3.1.25) зт с Плотность распределения вероятности вида (3.1.18) не существует, так как становится бесконечномерной, но уравнение (ЗЛЛ9) сохраняет силу и превращается в пределе при уменьшении шага фиксации в формулу Г= ~ [в(() — Н(Ю)х(г)~ з й. (ЗЛ.26) е Разностное уравнение (ЗЛЛ1) заменяется дифференциальным х = Р($) х(г), (3.1.27) которое следует использовать в качестве ограничения при минимизации (3.1.26).
Записав решение (ЗЛ.27) в виде х ( ) = Ф (г, ~.) х( .), (ЗЛ.28) подставив зто соотношение в (ЗЛ 26), продифференцировав бе ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДКНТИФИКАЦИИ ИГЛ, Э его по х(го) и приравняв результат нулю, получим !г х(~о) = М ~(~аа ао) ~ Ф (а ~о)Н (а) х(а)й, (ЗЛ.29) где матрица 0 М(~, ~.) = ~ Ф'(~, ~.) Н'(~) Ч~„-'(~) Н(~) Ф(г, ~,) й (3.1.30) обратима, если система наблюдаема (Сейдж [116[). В тех же обозначениях, использованных нами для определения оценки МП, на основе (3.1ЛО) можно получить выражение функции плотности вероятности для нахождения оценки МАВ.
Поскольку р [Е (йу)[ не зависит от переменной, по которой производится максимизация, то задача максимизации р [х (ко)[ Е (й~)[ полностью эквивалентна максимизации беаусловной совместной плотности вероятности р [х(йо), Е(Усу)[ = р [Е(7с~) [х(/со)[ р [х(йо)[. (31.31) Очевидно, что для выполнения желаемой оптимизации необходимо большее количество статистической информации. В частности, необходимо знание плотности (априорной) распределения х(ко).
Предположим, что она является гауссовской со средним значением р и дисперсией о'о,. Совместная плотность распределения, согласно (ЗЛЛЗ), примет вид р[х(а ), Е®[ = ( )"и[а оу,)'А ехр[ — 0,5[х(аоо) — [о,,'["' о) х 1 ~' У, оа з~ 1 (зя)и'[аооч (а))ал — Н(й)Ф(й, /со)х(йо)[о ы ). (3 1 32) ч ~щ Максимизация атой функции плотности вероятности ввкднннн зл1 эквивалентна минимизации штрафной функции вида 7'= ~ [х(йз) — р .['г- + ю зу + —,Я [х(й) — Н(й)Ф(Ус„7с,)х(7с,)[, .
(ЗЛ.ЗЗ) з=зв+1 тт ое Приравнивание нулю градиента по х (1с,) этой штрафной функции метода наименьших квадратов приводит к следующему выражению для оценки: хмАВ(йо) = [Ухе + Мф/ь Йз)) Х "с Х ~У,'[ь, + ~~~~~ Ф~(Рс, й,) Н(й) У '(й) Е(7с)~, (ЗЛ.34) з=з.+г где М (й7, лз) определяется формулой (ЗЛ.22). Интересно вычислить дисперсии ошибок оценок МП и МАВ, которые определяются формулами чаг(хмп(йз)) а чаг(х(йз) — хмп(йо)) =М '(Ья йо), (ЗЛ.35) тат(хмав(йо)) = чзг(х(йо) — хмлв(йо)) = [Ул', + М(Ь~йо)) '.
(ЗЛ.Зб) Видно, что дисперсия ошибки оценки (или идентификации) по методу МАВ меньше, чем по методу МП. Легко показать, что обе оценки — несмещенные. Эти утверждения основаны на предположении о правильном выборе параметров априорного распределения, используемого для улучшения алгоритмов идентификации. Если априорное распределение выбрано ошибочно, оценка МП может оказаться лучше оценки МАВ.
Полный анализ ошибок, вопросов выбора априорного распределения и связанных с этим вопросов чувствительности, читатель может найти в главах 6 и 8 книги Сейджа и Мелсы [127). Выражение оценки МАВ в непрерывном времени легко получить, если уплотнить точки фиксации и использовать определения (3.1.23) — (3.1.25).
Уравнение (3.1.33) примет 52 Функции штРАФА в 3АдАЯАх идвнтиФикоции !гл. 3 вид Х = — 21х(~о) — М~,'- + ж сс + ~!!х(с) — Н(г)Ф(М, Ео)х(йо)~' с й. (ЗЛ.37) с, чъ со Оценка МАВ теперь эапишется в виде ХМАВ (~о) = (У,,' + М И,, «о))-' + сс + Ц Ф~(Г, Го) Н(Г) сР„с У) хай -~- У,',)о„~, (ЗЛ.З8) сэ где М (оя со) определяется уравнением (ЗЛ.ЗО). Дисперсии ошибок двух непрерывных оценок равны тат (хмп(г~)) = уаг(х(со) — хмпИо)) =М о(~г ~о) (ЗЛ 39) тат (хмлв(го)) = тат(ХИо) — хмов(со)) = (Ръ+ М(бя го)1 ~ (ЗЛ.40) По-прежнему дисперсия ошибки оценки МАВ меныпе, чем дисперсия ошибки оценки МП. Может показаться, что эти линейные схемы построе- ния оценок не применимы к задачам идентификации, ко- торые часто нелинейны.
Исключение составляет иденти- фикация весовой функции линейной системы. Однако нелинейные задачи идентификации можно линеариэовать, как, например, в главе 6 (кваэилинеариэация). В этом случае методы 'данного раздела применимы непосредст- венно.
Есть ситуации, в которых 'методы, рассмотренные в этом разделе, неприменимы. Они возникают при наличии неизвестных входных сигналов, управляющих поведе- нием системы. Обратимся теперь к этой Задаче и рассмот- рим вопросы оценки динамики нелинейных систем. 3.2. ИДЕНТИФИКАЦИЯ НО КРИТЕРИЮ МАКСИМУМА АПОСТЕРИОРНОЙ ВЕРОЯТНОСТИ В этом раэделе будет исследован байесовский подход, или метод максимума апостериорной вероятности (МАВ) в применении к обобщенным Задачам оценивания, эадачам идентификации. Мы.покажем, что многие Задачи иденти- а.гу ИАксимум АпоствРиОРИОИ ВвРОятности оз фикации можно сформулировать как задачи оценивания по критерию максимума апостериорной вероятности. Будет показано, что при гауссовском априорном распределении оценка по максимуму апостериорной вероятности эквивалентна некоторой оценке по методу наименьших квадратов. Приводятся также развернутые формулировки соответствующих функций штрафа и двухточечных краевых задач, для решения которых можно применить вычислительные методы глав 4 — 7.
Наибольшее внимание в этом разделе уделяется дискретным моделям оценивания. Основные результаты будут затем переформулированы для непрерывных моделей. Дискретные модели формирования сигнала и наблюдений задаются уравнениями *) х(Й+ г) = ер[х(Й), Й[+ Г [х(Й), Й[ж(Й), (3.2.1) в (Й) = Л [х (Й), Й) + у (Ус), (3.2.2) где х (Й) — Ут-мерный вектор состояния, ~р [х (Й), Й[— У[7-мерная вектор-функция, множество значений которой охватывает все возможные входные сигналы, Г [х(Й), Й) — У[7 Х М-матрица, м (Й) — М-мерный вектор входного шума, х (Й) — В-мерный вектор наблюдений, Л [х (Й), Й[ — В-мерная вектор-функция, у(Й) — В-мерный вектор помехи измерений.
Через х(Й) обозначен обобщенный вектор состояния в. Й-й точке фиксации х(У„) или х(ЙТ„). В дискретных моделях оценивания тт (Й) и ч (Й) предполагаются независимыми марковскими последовательностями гауссовских независимых случайных величин с нулевыми средними значениями и такими, что 8[те(Й)тат(у)) Ч (Й)бк(Й вЂ” у) (323) 8(У(ус) Ут (У)) = Ч„(Й) Ьк (Й вЂ” У), (3.2.4) где бк (Й вЂ” Уу — символ Кронекера, а Ч (Й) и Ч„(Й)— симметричные неотрицательно определенные ковариационные матрицы размерности М Х М и В х В сооответственно.
° у Точная постановка аадачн вдентвфвканкк в такой форме будет дана ниже е атом раздела. 60 ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДЕНТИФИКАЦИИ [ГЛ. 3 Непрерывную модель оценивания часто выводят с помощью не вполне строгого предельного перехода, так что она получается непосредственно из дискретной модели по мере сгущения точек фиксации, т. е. когда Гоы— — го = Т„ (шаг фиксации) стремится к нулю, Эта непрерывная модель оценивания задается уравнениями х(с) =1[х(ю), г]+ 6 [х(г), г] оо(г), (3.2.5) (3.2.11) (3.2Л2) з(о) = Ь[х9), Е]+ у(о), (3.2.6) в которых оо (~) и т (~) считаются белыми гауссовскими шумами с нулевыми математическими ожиданиями, так что 8 (оо(~) тот (т)» = Ча„, (г) бо (~ — т) (3.2.7) Ф (у(о)'чт (т)) =Жч(~) бв (~ т) (3.2.8) Связь дискретной и непрерывной моделей устанавлива- ется следующими нестрогими предельными соотношениями: Ь.
1 $[х(~), г] =11Ш вЂ” (ор[х(й), »о] — х(й)», (3.2.9) т. о~о о„о 1 6 [х (Г), Е] = 11ш — (Г [х (й), й]), т о 1) Ь [х (г), 1] = 1[ш Ь [х (»о), й], То о 'о ' Ч"~(~) = 1»ш Т~уо,(»о), т о К оР:о (~) = 1[ш ТАЧо (й). то о оо Отметим, что определяющее непрерывную модель диф- ференциальное уравнение (3.2.5) записано в не вполне корректной форме и должно быть заменено стохастическим дифференциальным уравнением о]х(й) =1[х(о), Ц й+ 6[х(й), й] би(й), (3.2.14) 2.2) МАКСИМУМ АПОСтвРИОРНОЙ «ркРОЯткостк 62 где п(2) — винеровский процесс. Точно так же соотношения (3.1.9) — (ЗЛЛЗ) следует, вообще говоря, получить строгим образом с помощью стохастического анализа (Сейдж н Мелса [127]).