Kim D.P. Teoriya avtomaticheskogo upravleniya. T. 2. Mnogomernye, nelinejnye, optimal'nye i adaptivnye sistemy. (950615), страница 78
Текст из файла (страница 78)
Согласно градиентному алгоритму а = — уИ'е„. В этом случае уравнение для ошибки оценки принимает вид а= — уИ' а, Гл. 11. Адаптпивные системы управления или да Игд а Проинтегрировав последнее уравнение от О до 1, получим Отсюда следует, что ошибка а сходится к нулю, осли !1ш /Ит (т) Йт = оо. в / И' (т)Ит(т) Йт > о1, (11.59) то параметрическая ошибка экспоненциально сходится к нулю при 1 — > со.
Выше в алгоритме оценивания (11.57) был использован скалярный коэффициент 7. Несколько более общий алгоритм идентификации получим, если вместо скалярного коэффициента усиления принять положительно определенную матрицу Г., называемукг матриией коэффициентов усилению а = — 1И' еп.
Устойчивость этого алгоритма можно доказать, приняв в качестве кандидата на функцию Ляпунова квадратичную форму т'(а) = — атГ-га Коэффициент усиления 7 (матрица коэффициентов усиления Г) оказывают сильное влияние на характер сходимости алгоритма идентификации. В случае одного параметра легко видеть, что чем больше 7, тем скорость сходимости больше. В случае многих параметров связь между 7 и скоростью сходимости не такая простая. Как показывают исследования ~69], на некотором малом интервале увеличение Последнее условие будет выполнено, и параметрическая ошибка будет экспоненциально сходится к нулю, если существуют положительные постоянные Т и о такие, что при любых 1 > О имеет место неравенство свт ~ И' (т) Йт > а, т.е. выполняется условие постоянного возбуждения сигнала И'(1).
Ясно, что если Ит® является константой, то гарантируется экспоненциальная сходимость. Полученный выше результат для одного параметра можно распространить на случай многих параметров ~69]: если матрица сигналов Ит(1) удовлетворяет условию постпоянноео воэбулсдения, т.е. существуют положительные константы Т и о такие, что при любых 1 > О имеет место неравенство 11.3. Адаптивное уираваение е иденти>1>инатороее 445 оценочного коэффициента усиления может привести к увеличеник> скорости сходимости. Но вне указанного интервала дальнейшее увеличение этого коэффициента может привести к колебаниям и более медленной сходимости. Кроме влияния на скорость сходимости, выбор у оказывает также влияние на способность идентификатора следить за изменяющимися параметрами и противостоять возмущениям.
Свойство робастиости. Чтобы идентификатор имел практическое значение, он должен обладать робастностью (грубостью), т. е, он должен выдавать удовлетворительную оценку при изменении параметров, при наличии шума измерения и других возмущений. Качество градиентного идентификатора зависит от нескольких факторов, главными из которых являются: уровень постоянного возбуждения матрицы сигналов Ие(1); — скорости изменения параметров и уровня непараметрической неопределенности; величины оценочного коэффициента усиления у.
Уровень постоянного возбуждения Иг(1) определяется задачей управления. Постоянное возбуждение существенно для робастности идентификатора. Если сигнал постоянно не возбуждается, параметры не будут сходиться к точному значению даже при отсутствии не- параметрической неопределенности. При наличии непараметрической неопределенности идентификатор может стать неустойчивым. Может оказаться, что нужно добавлять некоторое возмущающее воздействие к управлению, чтобы получить качественную оценку параметров. Если оцениваемые параметры изменяются, то чем быстрее происходят эти изменения, тем больше непараметричоские неопределенности влияют на качество оценки параметров. Очевидно, чом быстрое изменяются параметры, тем труднее получить точную оценку.
Кроме того, чем выше уровень шума и больше неучтенных возмущений и динамики, тем идентификатор функционирует хуже. Пример 11.4. Задан объект у+ а>у = Ьои, где а>, Ьо неизвестные параметры. Требуется определить алгоритм адаптивного управления, при котором по окончании процесса адаптации свободное движение основного контура будет описываться функцией у = Се е (а ) 0). Решение. Свободное движение будет описываться указанной функцией, если уравнение основного контура при отсутствии внешнего воздействия будет иметь вид у+ау = О. Пусть алгоритм управления основного контура имеет вид а = — Йу.
446 Гл. 11. Адоптивные системы управление или й= а — ае Ь Но так как параметры аз и Ьо не известны, .воспользуемся их оценками. Тогда. для алгоритма управления получим Π— Ое и = — у. Ь Найдем алгоритм идентификации. Идентификационная модель имеет вид у = И"а, где.
Иг=(д й), а=(Л вЂ” аз Ьо) 1 1 у= — у, й= — и. р+Л ' р+Л Градиентный алгоритм идентификации (11.57) принимает вид или аз = ууе„, Ьо = — уйе„, где е„= И'а — у = (у и), — у = у Л вЂ” у аь + й Ьо — у. Ь Подставив это выражение в алгоритм идентификации, получим аь = у у(УЛ вЂ” У аз + й Ьо — У) Ьо = — Уй (УЛ вЂ” У йз + й Ьо У). Уравнения фильтров, на выходах которых получаем у и й, имеют вид у= — Лу+у, й= — Лй+и. 11.3.3. МНК-идентификатор. Пля получения оценки параметров широкое применение находит метод наименьших квадратов. При этом методе оценка получается путем минимизации интегральной прогнозируемой ошибки (невязки) ,1 = — / ~у(т) — И1(т)а(тЯ Йт. (11.60) о Алгоритм идентификации, получаемый методом наименьших квадратов, .будем называть МНК-алгоритмом или МНК-алгоритмом Подставив это выражение в уравнение объекта, получим у+ (аь + Ьой)у = О.
Это уравнение примет требуемый вид, если имеет место равенство аз + Ьой = о, П.Х Адаптоивное управление с идентификатором 447 идентификации, а идентификатор, построенный на основе такого алгоритма, МНК-идентификатором. Интегральная невязка (11.60) учитывает все измерения, которые производится до текущего момента. Поэтому оценки, получаемые методом наименьших квадратов, имеют то преимущество, что они меньше зависят от шумов измерения, так как в процесса измерения и интегрирования они сглаживаются. МНК-алгоритмы хорошо противостоят не только шумам измерения, но и другим возмущающим воздействиям. Утверждение 11.6.
МНК-алгоратм идентификации имеет вид а(1) = — РЯИгт(1)е„(У), (11.61) где е„(1) — прогноэируемая ошибка (невязка), РЯ матрица коэффициентов усиления, которая определяетася из уравнения РЯ = — РЯИг (Е)И'(1)Р(1). (11.62) Алгоритм (11.61), (11.62) обеспечивает параметрическую сходимость (а(г) — з О при 1 -+ со), если выполняется условие постоянного возбуждения сигнала (11.59). Показательство. Запишем интегральную невязку в виде д = — ~[у(т) — И'(т)а(1)) [у(т) — Ит(т)а(1)) еЕт.
о При дифференцировании этого соотношения по времени следует обратить внимание на то, что интегрирование производится по т, и оно на оценку а(1) не распространяется, так как она зависит от 1. Это связано с тем, что неизвестные параметры считаются постоянными, и при ззолучении оценки в момент 1 для определения невязки используются значения неизвестных параметров в момент 1.
Необходимое условие минимума дд/д а = О, которос в данном случае является и достаточным, принимает вид ~[у(т) — Ит(т)а(1))~И'(т) дт — О. о Произведя транспонирование подынтегрального выражения, послед- нее равенство можно записать в виде / Итт(1)И'(1) а(1) дт = ~Итт(т) у(т) дт. о о Продифференцируем обе части по й И ~(Х)Ит(1)а(Х) + ~Итт(т)И'(т) дт. а(1) = Игт(1)УЯ. о 448 Ель 11. Адаппьиеные системы упраепения Отек>да, если положить е Р '(й) = / И г(т)Ре'(т) сЕт (11.63) (11.64) Р (е)а(1) = — И' (1)И"(1)а(1).
Так как и = а, то последнее равенство можно записать в виде Р (е)а(е) = — Иг (1)И'(е)а(1). Подставив сюда выражение для И'т(1)Ие(1) из (11.65а), получим йр 'Я Р ~(1)а(1) + а(1) = О, или — [Р з(1)а(С)[ = О. Отсюда Р ~(1)а(1) — Р ~(0)а(0) = О, или а(1) = Р(1)Р 1(0)а(0). (11.66) Из этого равенства следует, что параметрическая ошибка а(1) будет сходиться к нулю, если будет выполнено предельное соотношение Р(4) — Г О при 1 — > оо, или Р (1) -э со при 1 — > оо.
и учесть, что е„(е) = у(1) — у(е) и у(й) = И'(е)а(1), получим МНК- алгоритм (11.61). Теперь покажем, что матрица коэффициентов усиления Р(1) определяется из уравнения (11.62). Из очевидного равенства д (рр,) рр, +р д (р,) Р= —.Р ~ (Р )Р. Подставив в это равенство выражение йр '(1) др (1) И т( ))4 ( ) (11.65а) которое находится путем дифференцирования (11.63), получим (11.62). Покажем параметрическую сходимость при МНК-алгоритме. Проинтегрировав (11.65а) от 0 до 1, будем иметь Р ~(1) = Р '(0) + /И г(т)Ит(т) с)т. (11.656) о Умножив обе части соотношения (11.61) слева на Р '(1) и подставив выражение для невязки из (11.58), получим 163.
Адаптивное управление с идентификатором 449 Как следует из (11.65б), это соотношение будет выполнено, если ?А) (т)Ит(т) Йт -+ со при 1 — в оо. о А это условие будет выполнено, если будет выполнено условие постоянного возбуждения (11.59). действительно, для любого целого числа ?У нт+т х ?'-о?' / % (т)Ит(т)йт = ~~ / % (т)Иг(т)йт ) ?Уо1. '=о т Следовательно, если выполняется условие постоянного возбуждения, то Р(1) — ? 0 и а(1) — > 0 при 1-в оо.
Утверждение 11.6 полностью доказано. Кратко рассмотрим, как влияют начальные значения а(0) и Р(0) на оценку. Положив Р(0) = ро1 и подставив выражение для Р(1) из (11.656) в (11.66), получим ? — 1 во)= ~)+р)и '),)я),)?) аа). о Отсюда видно, что малая ошибка при выборе а(0) приводит к малым ошибкам в течение всего процесса оценивания. Кроме того, чем больше ро, тем меньше ошибка.
Поэтому ро нужно выбирать настолько большим, насколько позволяет чувствительность к шумам. 11.3.4. МНК-идентификатор с экспоненциальной потерей памяти. Ло сих пор предполагалось, что неизвестные параметры вовсе не изменяются или изменяются очень медленно: за время адаптации они практически не меняются. Однако если эти параметры в действительности, хотя и медленно, изменяются, старые данные при оценке текущих значений неизвестных параметров обесцениваются, так как они отражают старые значения параметров. Поэтому представляется разумным, чтобы старые данные оказывали меньшее влияние на оценку, чем новые данные. Эти соображения привели к методу наименыпих квадратов, при котором вклад старых данных на значение оценки экспоненциально убывает. Экспоненциальное «забывание» достигается за счет того, что в этом случае в качестве минимизируемого функционала принимается интеграл ) ? = — о( — 1 )) )ю ))у) ) — в) )Р)1)) л, ))) 67) 2,/ о в где Л(т) ) 0 переменный коэффициент потери памяти.