Kim D.P. Teoriya avtomaticheskogo upravleniya. T. 2. Mnogomernye, nelinejnye, optimal'nye i adaptivnye sistemy. (950615), страница 79
Текст из файла (страница 79)
Алгоритм идентификации, получаемый путем минимизации функционала (11.67), будем называть ЫНК-алеорит.мом идентификации с экспоненциальной потерей памяти, а идентификатор, построенный на основе такого алгоритма, МНК-идентификап)ором с экспоненциальной потерей памяти. 29 Д.П. Кям 450 Гл. 11. Адапптеные системы управления Утверждение 11.7. МНК-плевр»тм иденп>ифин>ганн с знспоненпиальной потерей памяти имеет вид а(1) = — Р(1)И' (1)е„(1), (11.68а) Р(1) = ЛЯРЯ вЂ” РЯИ'тЯИ'ЯРЯ, (11.686) и он обеспечиваегп параметрическую сяодимость (а(1) — ь а(1) при 1 — + оо), если выполняется условие постоянноео возбуждения (11.59).
Как видим, уравнение для а(1) остается таким же, как и при обычном МПК-алгоритме, изменяется только уравнение для матрицы коэффиционтов усиления. П о к а з а т е л ь с т в о. Условие минимума функционала (11.67) имеет вид — = — ( ехр — ( Л(т) дт) [у(в) — И" (в) а(1)[ Иг(в) йв = О. г >и г т да и После транспонирования это равенство можно представить в виде 1 ... (-1.(,>;) и (,>и(.>; = > =).* (-/и>.>и) '>.».>и»и.
> . > и Продифференцируем обе части по времени. Тогда получим )-Ю «и(-)~>.>и.) и" >. и>.>ив + и'>>и>~> = и =(-и>~> «р(-(и> >и )и">.>и >.>ир>и.ии'И>и В>ие>~ о ~/..«р( (и>,>и.)и'Ь>и>.>и>1>и.. а В первых интегралах обоих частях последнего равенства функции> — Л(1) можно вынести за знак интеграла, и в силу равенства (11.69) их можно сократить. После сокращения из последнего равенства получим (11.68а): 1,( )И,т( ) где -'»=/. (-) >.>.) '>>иь>и.
и Продифференцируем обе части последнего равенства по времени: и „'"' = (-яэ>. р(- /и» и)и">.>ив> и-~и'р>и>е>. и 153. Адоиитеное рирааиение с идентификатором 451 Отсюда, используя (11.70), находим = — Л(1)Р ~(1) + ИР~(1)ИР(1). (11.71) Подставив это выражение в (11.64), получим (11.68б). Осталось доказать параметрическую сходимость. Чтобы сделать это, найдем в явном виде параметрическуи) ошибку и выражение для обратной матрицы коэффициентов усиления.
Умножив обе части (11.68а) слева на Р 2(1) и произведя подстановку а = а и е„(1) = ИР(1)а, получим Р (в)й(0) = — И' (1)ИР(в)а(0). Это равенство, подставив в него выражение для И'т(4)ИР(в), которое получается из (11.71), можно представить в виде или — (Р ~(в)а(1)) = — Л(в)Р ~(в)а(в). решение этого уравнения имеет вид '(1)Ва) = ° р(-("2( )0 )) '( ° )И(0). о Отсюда имеем ва)= р( — (2( )0 )Р(1)Р '(0)В( ° ). (1172) а Непосредственной проверкой можно убедиться, что функция Р '(1)=Р '(О). р( — )'2( )0)Р о с р)' р(-) 2()0 )И' ()И()0.
(1172) а 0 является решением уравнения (11.71). Подставив это выражение в (11.72), получим в(1) = (Р '(0)+1'. (12()0 )и '())Р()0) Р-'(0)в(0), о а 7 ° « ° .«0()2(,)0,)) 01, ) '(а ° вар 7 5 растает быстрее, чем Р '(1) в (11.656). Следовательно, МНК-алгоритм идентификации с экспоненциальной потерей памяти улучшает 29* 452 Гл. 11.
Адаптивные системы управления параметрическую сходимость по сравнению с обычным МНК-алгоритмом идентификации. Кроме того, из последней формулы также следует, что условие бесконечности интеграла в (11.65б) по-прежнему гарантирует экспоненциальную сходимость оцениваемых параметров. А это значит, что условие постоянного возбуждения сигнальной матрицы Иг(1) может гарантировать параметрическую сходимость при МНК-алгоритме с экспоненциальной памятью.
Рассмотрим идентификацию одного параметра с постоянным коэффициентом потери памяти. В этом случае минимизируемым функционалом будет У = / е. ло(1 с)[у(т) по(т)а(1))2 с1т о и МНК-алгоритм с экспоненциальной потерей памяти (11.68) примет вид а(1) = — р(1)ш(1)е„(1), р(1) = Лор(1) — р (1)ю (1). Уравнение (11.71) принимает вид Р (1) Л вЂ” 1(1) +, 2(1) де и его решением будет , — 1(1) — 1(р)Š— Ло1+ / — Ло(1 — о~ 2( ) Н о Параметрическая ошибка (11.72) принимает вид а(1) е — лоер(1)р — 1 (6)а(6) Если ио(1) подчиняется условию постоянного возбуждения, то функция р 1(1) ограничена снизу положительным числом, а функция р(1) сверху, и ошибка й(1) сходится к нулю со скоростью Лс.
11.3.5. Выбор коэффициента потери памяти. При выборе коэффициента потери памяти нужно проявлять осторожность. Если коэффиционт потери памяти выбрать 1лавным нулю (обычный МНК- идентификатор)., то матрица коэффициентов усиления стремится к нулю; в этом случае невозможно слежение за изменяющимися параметрами и при наличии постоянного возбуждения. Если коэффициент потери памяти выбрать постоянным, то это может привести к резкому росту коэффипиентов усиления, а при отсутствии постоянного возбуждения к возникновению сильных колебаний оцениваемых параметров. Так как сигнал может иметь различные уровни возбуждения, то желательно иметь подстраиваемый коэффициент потери памяти. Зна 1ение нормы матрицы коэффициентов усиления зависит от уровня возбуждения матриць1 сигналов.
Поэтому коэффициент 163, Адаптивное уприеаеное е идентификатором 453 потери памяти естественно связать с величиной ((Р(1)(!. Одним из возможных алгоритмов изменения коэффициента потери памяти в зависимости от ~~Р(1) ~( определяется соотношением [69) Л(1) — Л (1 — ) ко (1 1.74) 11.3.6.
Сравнительная характеристика различных методов получения оценки. В этом параграфе были рассмотрены различные методы построения идентификатора; градиентный метод, метод наименьших квадратов и метод наименьших квадратов с экспоненциальной потерей памяти. Важным условием получения качественной оценки является условие постоянного возбуждения сигналов.
Большинство рассмотренных идентификаторов нс обладают одновременно хорошим качеством сходимости и высокой робастностью. Градиентный идентификатор является простым, но обладает медленной сходимостью. Обычный МНК-идентификатор хорошо проти- где Ло - константа., определяющая максимальный коэффициент потери памяти; Йо константа, определяющая максимальное значение нормы матрицы коэффициентов усиления и удовлетворяющая нерву йо > !1Р(0)~1. Если коэффициент потери памяти выбирается в соответствии с формулой (11.74), то параметрическая ошибка и норма матрицы коэффициентов усилония всегда ограничены сверху (69). Если матрица сигналов И'(1) удовлетворяет условию постоянного возбуждения, то оценка параметров сходится экспоненциально, и матрица Р(е) ограничена снизу и сверху положительно определенными матрицами.
Из соотношения (11.74) следует, что при малом ~~Р(1)~~ коэффициент потери памяти приблизительно равен Ло, и с ростом ()Р(1)() коэффициент потери памяти убывает, обращаясь в нуль, когда ((Р(1) (( принимает максимальное значение. Большое значение Ло означает большую скорость забывания и лучшее отслеживания измсняюгпихся параметров. Однако чем больше Ло., тем больше колебания параметров. Поэтому при выборе Ло приходится исходить из противоположных требований хорошее отслеживание изменяющихся параметров и низкий уровень их колебаний. Константа ко должна быть больше ЩО) ~~. При этом норма матрицы Р(1) не превышает йо независимо от уровня постоянного возбуждения.
Это связано с тем, что, когда норма (Р(е) ~ становится равной ко, коэффициент потери памяти становится равным нулю, и матрица Р(1) начинает убывать. Константа йо влияет на скорость обновления данных и на колебания оцениваемых параметров из-за возмущения так же, как и константа Ло. Поэтому выбор ко приходится производить при таких же противоречивых требованиях,что и при выборе Ло. 454 1'и. 11. Адапгпиеные еиегпемы рпраепения востоит шумам, но не позволяет получить оценку изменяющихся параметров. МНК-идентификатор с экспоненциальной потерей памяти обладает способностью отслеживать переменные параметры, но элементы его матрицы коэффициентов усиления могут резко возрастать при отсутствии постоянного возбуждения сигналов, что приводит к большим колебаниям оценки.
МНК-идентификатор с автоматической настройкой коэффициента потери памяти позволяет сохранить достоинство МНК-идентификатора с экспоненциальной потерей памяти и исключить резкий рост коэффициентов усиления при отсутствии постоянного возбуждения, т. е. этот идентификатор обеспечивает хорошую сходимость и высокую робастность. Чтобы МНК-идентификатор с автоматической настройкой коэффициента потери памяти обладал хорошей характеристикой, нужно соответствующим образом сделать выбор: полосы пропускания фильтра при построении идентификационной модели; начальных значений параметров и матрицы коэффициентов усиления; . -. констант, определяющих максимальный коэффициент потери памяти и максимальное значение нормы матрицы коэффициентов усиления. При выборе указанных выше величин нужно исходить из компромисса; полосу пропускания фильтра нужно выбрать больше, чем полоса пропускания объекта, для того, чтобы сигналы системы могли проходить через него без искажения; но в то же время она должна быть меньше ширины частотного спектра шума.
Начальные значения оцениваемых параметров, естественно, должны быть заданы как можно точнее. Начальные значения коэффициентов усиления должны быть выбраны так, чтобы обеспечить определенную скорость сходимости и необходимую робастность. Константы Ла и па в соотношении (11.74), определяющие коэффициент потери памяти, должны быть выбраны довольно большими, чтобы как можно точнее отслеживать изменяющиеся параметры. Однако они не должны быть слишком болыпими, чтобы не вызвать недопустимо большие колебания оцениваемых параметров.