1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 15
Текст из файла (страница 15)
3.4.2. Зависимость штрафаТот Ф нри раенмл еначенияв Ъ; пример 3.4Л (Ь вЂ” число наблшдений, У„= $,0; У„= $6,0, ач = = 0,5). ,7/Ущ) Ю» ф' тм РРЛРаРЕСЛРЕ Рвс. 3.4.3. Зависвмость функции штрафа от ~У„, при раенмх УсЛ~в', првмер 3.4Л (р = У,Л'и, ау = 900 — ввело наблюдений, *е = = 0,0). 98 югнкпни штглфа в задаччах идннтиеикации ~гл. з Применяя разложение в ряд Тейлора к уравнению (3.4.22), мы видим, что появляется необходимость в выражении для Ы [х(й ] й — 1, 8)], котороо, конечно, по-прежнему определяется формулой (3.4.21).
Алгоритм одношаговой Ф„ишиииии . Рис. 3.4.4. Оависвмость Оуявцив штрафа от Ууе прв разных Ь (Ре/К, = р 9,0, Х вЂ” число паблюдепай, зе = 0,0). экстраполяции (3.4.43) в данном случае уже не годится, так как х (Й + 1) = ~р [х (Й), Й] + Г [х (Й), й] тт (Й), и аппроксимация первого порядка принимает вид х(й+1[й, 8) = ~р [х(й] 8), й]+ Г [х(й), й] е [тт(й) [Е(й), 8], (3.4.44) что можно записать в виде х(й+ 1 [й, 8) = ~р[х(й] 8), Ц + Г [х(й), Ц Х (3.4.45) х Ч~(й) Ч з(й]й — 1, 8)(з(й) — Ы[х(й] Й вЂ” 1, 8), Ц], применяя теорему об условном математическом ожидании (3.4.28) и соотношение чаг(ж(й)] Е(й), 8) = Ч„(й) — Ч „(й) Ч,т(й[й — 1) Ч„„(й). (3.4.46) КРИТНРИИ МАИСИМУМА ПРАВДОПОДОБИЙ ОУ Таблица 3.4.2 Алгоритмы первого порядка идентификации по максимуму правдоподобия (коррелированные шумы объекта и наблюдений» Уравнение фильтра условного среднего х(й+1, 9)=х(й+1[й, 9)+ К(й+Ц[*(й+1)— — )с[ (й+1[й, 9), й+Ц) Уравнение одношаговой экстраполяции х (й + 1[ й, 9) = ср [х (й[ 9), й] + Кр (й) (г (й)— — й [ * (й [ й — 1, 9), ~]) Уравнение для коэффициента усиления фильтра К(й+ Ц = д)ст[х(й+ 1 [й, 9), й+ Ц = У- (й + 1[ й, 9) + ' ' + У,'(й + 1[ й, 9) дх(й+1[й, 9) Уравнение для априорной дисперсии ошибки идентификации дср [х (й [ 9), й] 1 [ дср~ [ х (й [ 9), й] 1 Ух(й+1] 9) 1 (й[9) 1 Уй(~) ~ д (й[9) ~ + + Г [ х (й [ 9), й]У и (й) Гт [ х (й [ 8), й]— — Кр(й) У (й[й — 1, 9)К'„'(й)— д'У[ ("[ ) й] К(й)у (й)Гт[х(й[9) й] д х (й [ 9) дсрт [ х (й [ 9), й] — Гт[ х (й [ 9), й] У .„ (й) Кт (й) Уравнение для дисперсии ошибки фильтрации У, -.(й+1 [ 9) = Г д)с~[х(й+1[й, 9), й+ Ц1 ] = 1 — К(й+Ц~ ' ' ~ ) У-„(й+1[й, 9) дх(й+1 [ й, 8) Уравнение для коэффипиента усиления одношаговой экстраполяции Кр(й) = 1'[х(й [9), й] Уи„(й) Уг (й+ 1 [й, 9) 4 Э.
П. Сеадж, дж. Л. Мелса 93 ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДВНТИФИКАЦИИ ИГЛ. Э Т з б л к ц а 3.4.2 (нгодо.енеение) Остальные алгоритмы первого порядка фильтрации условного математического ожидания нуждаются в аналогичных изменениях. Этя изменения вносятся без труда, и получающиеся в результате приближенные алгоритмы сведены в табл. 3.4.2. Пример 3.4.2. Вернемся к примеру 3.4Л, предполагая, что теперь имеется второе наблюдение, определяемое уравнением гз (й) = и Це) + из (й), причем шумы объекта и наблюдений коррелированы, так что в( ) ~ (Ь)1 ~ (А)+ (А)1» й ( ®, й) = [*(')~, ® = ~ Гуо 0 ~0 У+У Применение алгоритмов из табл. 3.4.2 немедленно приводит к следующей функции штрафа и ограничениям ЗА) критвРИЙ мАксимумА пРАВдоподовия 99 в форме равенств К) у — — ~~~~ ~) )и т)еь ( г', + Р'- (й ~ )с — 1, Ф) + к-к, т + (*(й) — *(й(й-1, ФИ 1 )'.+)'-,(й! — 1 ) ~' К 2()с+1~1с, Ф) =Фй()с~й — 1, Ф) +, ", хв(й)-(- о са ФГ (й(й — 1, Ф) + Р (цй 1 Ф) ) р" (х()т) "()с~й 1 Ф)) х т Фар у- (й) й — 1, Ф) рт Р2()с+11)с Ф) у (й1й 1 Ф)+у +У у +р й т т~ На рис.
3.4.5 показана зависимость функции штрафа Х от Ф для ряда значений У . Очевидно, что при У -ь оо рпс. 3.4.3. Заввсвмость функции штрафа от Ф прп двух разных апачевввх Кщ, пРимеР 3.4.2. (Г ~/К = 1, вс — — О, й1 = 800). наблюдение х, ()с) становится бесполезным, и алгоритмы этого примера вырождаются в соответствующие алгоритмы примера 3.4.1. ЦЮ ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДЕНТИФИКАЦИИ [ГЛ. 3 з.б. выводы В этой главе были сформулированы и изучены функции штрафа для задач идентификации дискретных систем по критериям максимума апостериорной вероятности и максимума правдоподобия. Для нескольких примеров был осуществлен вывод ДТКЗ идентификации и переход к непрерывному случаю.
Теперь мы обратимся к вычислительным методам определения состояния и параметров в задачах идентификации. Гааза 4 ГРАДИЕНТНЫЕ МЕТОДЫ ИДЕНТИФИКАЦИИ 4.1. ВВЕДЕНИЕ Рассмотрим теперь вычислительные методы идентификации. В етой главе будет исследован один класс прямых методов, известных под названием градиентных. Эти методы получили название прямых из-за того, что при их использовании на каждом шаге минимизируется функция штрафа, тогда как в косвенных методах таких, как квазилинеариаация (см. главу 6), предпринимается попытка решения двухточечной краевой задачи, появление которой связано с тем, что на каждой итерации используются принципы теории оптимального управления.
Сначала будут рассмотрены статические или одношаговые задачи с последующим переходом к изучению многошаговых и непрерывных ситуаций. В дополнение к основному градиентному методу или градиентному методу первого порядка рассматривается также разложение нелинейностей до членов второго порядка малости, позволяющее строить градиентные методы второго порядка или методы вторых вариаций, которые обладают преимуществом более быстрой сходимости. В заключение будет изучен метод сопряженного градиента, в котором определяются сопряженные направления поиска, и в результате, за т шагов минимизируется положительно определенная квадратичная форма т переменных.
Этот метод сочетает многие преимущества градиентных методов первого и второго порядков. Применение градиентных методов демонстрируется на примере идентификации нескольких систем. Наиболее доступное изложение градиентных методов можно найти в книгах Сейджа [116) и Брайсона и Хо [24). В стих книгах градиентные методы применяются в основном для решения задач оптимального управления.
Беки и Карплюс [12) пользуются градиентными методами первого 102 ГРАдикнтныв метОды идвнтиФикации П'л. ь порядка в гибридных вычислениях. Градиентным методам посвящено много журнальных статей, однако большинство из них связано с решением задач теории оптимального управления, а не идентификации. Многие из этих статей включены в библиографию. 4.2. ГРАДИЕНТНЫЕ МЕТОДЫ ИДЕНТИФИКАЦИИ СТАТИЧЕСКИХ СИСТЕМ Вот уже много лет известен способ решения экстремальных задач, основанный на применении классического градиентного метода или метода наискорейшего спуска.
Принципиально задача состоит в отыскании экстремума скалярной функции М-вектора: Х = О(п). (4.2Л) Как известно из дифференциального исчисления, в экстремальной точке должны выполняться следующие необходимые условия: (4.2.2) Вектор НХЫп часто называют градиентом, а условие оО (п)Яп = О определяет систему М нелинейных уравнений, которая может быть достаточно сложна, чтобы из нее можно было найти оптимальный вектор й. Если это так, то можно воспользоваться итеративным методом, основанным на разложении О (и) в ряд Тейлора в окрестности какого-то значения и'. Имеем Х=О(п) = О(п')+ ~ —,.
1 (и — и')+ 1 лв (и~) 1т ек' + — (и — и') — ~ — (и — и ) +... (4.2.3) т РО(4 2 Иэ)' Огранкчившись линейными членами разложения, по- лучим Х=О(п)=О(п')+ ~, 1 (и — пз). (4.2.4)' лк' »з~ метолы идвнтиФикАЦии стАтических систем ЦЦ 8(п) 8(п) ~ ~~ ~1 Ьп», (4.2.5) гдв ЬХ' = Х вЂ” Х', 'Ьп' = п — п'. (4.2.6) Хочется выбрать Ьп» таким, чтобы ЬХ» было как можно меньше нуля, обеспечивая тем самым наискорейший спуск в направлении минимума Х.
Иэ уравнения (4.2.5) ясно, что для минимиаации ЬХ» при условии (Ьп»)тЬп» * а необходимо Ьп» вЂ” К вЂ”, » ез (п») »»п» (4.2.7) где К вЂ” положительное число, являющееся, быть может, функцией номера итерации»; зто число выбирается из соображений обеспечения сходнмости, скорости сходи- мости и т. п. Оптимальный вектор й определяется путем пряма»х вычислений. Используется какое-то приближение и» и вычисляется»»8 (п»)/бп». Ьп» определяется иэ (4.2.7), а для п'+' имеем п»ы = п'+ Ьп' = п' — К» — ~~ ~, (4.2.8) » Вычисления продолжаются до тех пор, пока заметны существенные изменения п от итерации к итерации. Однако в сходимости процедуры нельзя быть уверенным, если не ограничить выбор К». Это утверждение иллюстрируется простым примером. Пример 4.2.1 Необходимо решить систему линейных алгебраических уравнений Ап = Ь относительно п.
Ясно, что п = А»Ь; однако реализация этой формулы в случае системы высокого порядка может привести к сложной вычислительной процедуре. Известно, что неотрицательная функция штрафа Х 0 (п) — етКе = -2- (Ап — Ь)т К (Ап — Ь), Теперь допустим, что значение функции Х при п п»- известно н вычислим $С4 гРАдиинтныи мвтоды идентиФиклции )гл.
1 где К = положительно полуопределенная матрица весов, обращается в нуль только при и = А 'Ь. Таким образом, минимизация Х эквивалентна решению системы Ап = = Ь. Используя уравнение (4.2.8), получаем п)'~ = и' — К)А К(АИ) — Ь). Ошибка вычислений связана с изменением Х от итерации к итерации. Имеем Х = 2 ~Аи) — Ь!)ца, Х1 и = — ~ Ап) — К)ААтй (Апз — Ь) — Ь ~ка = 1 Ьз — 2 ))Аи )11 К)Алга)тк(1 К)ААТИ). Для устойчивости вычислительной процедуры необходимо, чтобы Х)+1( Х' или чтобы матрица 21 — К)АтИА была положительно определенной.