Ким Д.П. Сборник задач по теории автоматического управления (2008) (1151995), страница 47
Текст из файла (страница 47)
Однако будет ли она стремится к нулю, зависит от сигнальной матрицы И'(Ф), которая, в свою очередь, зависит от внешних воздействий. Коэффициент у в (11.15) оказывает сильное влияние на характер сходимости алгоритма оценивания. В случае одного параметра чем больше у, тем скорость сходимости больше. В случае многих параметров связь между т и скоростью сходимостн не такая простая. На некотором малом интервале увеличение оценочного коэффициента усиления может привести к увеличению скорости сходимости, но вне указанного интервала дальнейшее увеличение этого коэффициента может привести к колебаниям и более медленной сходимости. Кроме влияния на скорость сходимости, выбор у оказывает также влияние на способность идентификатора следить за изменяющимися параметрамн и противостоять возмущениям. Свойство робастности.
Чтобы идентификатор имел практическое значение, ои должен обладать робастностью (грубостью), т.е. он должен выдавать удовлетворительную оценку при изменении параметров, при наличии шума измерения и других возмущений. Качество градиентного идентификатора зависит от нескольких факторов, главными нз которых являются: — уровень постоянного возбуждения матрицы сигналов ИГ(Ф); — скорости изменения параметров и уровня непараметрической неопределенности; — величины оценочною коэффициента усиления у.
Уровень постоянного возбуждения 1г'(8) определяется задачей управления. Постоянное возбуждение существенно для робастности идентификатора. Если сигнал постоянно не возбуждается, параметры не будут сходиться точному значению даже при отсутствии непараметрической неопределенности. При наличии непараметрической неопределенности идентификатор может стать неустойчивым. Может оказаться, что нужно добавлять некоторое возмущающее воздействие к управлению, чтобы получить качественную оценку параметров. Если оцениваемые параметры изменяются, то чем быстрее происходят эти изменения, тем больше непараметрические неопределенности влияют на качество оценки параметров. Очевидно, чем быстрее изменя- 302 Ги 1Д йдантивные системы улравеения ются параметры, тем труднее получить точную оценку.
Кроме того, чем выше уровень шума и больше неучтенных возмущений и динамики, тем идентификатор функционирует хуже. Пример 1!.3. Задан объект передаточной функцией 2р2 ! бзр+ 1 рз+ Зрз+ 2р+ 2' где З2 — неизвестный параметр. Определить градиентный алгоритм идентификации неизвестного параметра при условии, что собственный оператор фильтров имеет вид Ао(р) рз + 4рз+ 4р+ 3 Решен не. В данном случае ач = 4, аз = 4, аз = 3, и уравнения фильтров принимают вид Й = у1 уз = уз уз = — Зу~ — 4уз — 4уз+у а~ =аз, йз = аз, йз = — Зй! — 4йз — 4аз+а.
Так какая — а! =4 — 3=1, аз — аз=4 — 2=2, аз — аз =3 — 2=1, 61 = 2, Ьз = 1, то для оценки вектора параметров имеем Ит(2) = (уз,уз,упйз,йз,й~), п=(1 2 1 2 б2 1)~. Оценка выходной переменной и градиентный алгоритм идентификации принимают вид у = рг'(Ф)а = уз + 2уз + р + 2йз + узйз + йы Ь2 = —.~й,(У-- У). МНК-идентификатор. Для получена» оценки параметров широкое применение находит метод наименьших квадратов.
При этом методе оценка получается путем минимизации интегральной прогнозируемой ошибки (неелзки) 1 ! 2 ,У = — ~ !у(т) — ьу(т)а(т)~ сгт. 2~ (11.16) о Алгоритм идентификации, получаемый методом наименьших квадратов, будем называть МНК-алгоритмом или МНК-алгоршпмом идентификации, идентификатор, построенный иа основе такого алгоритма, — МНК-идентификатором. Интегральная невязка (11.16) учитывает все измерения, которые производятся до текущего момента. Поэтому оценки, получаемые методом наименьших квадратов, имеют то преимущество, что оии меньше зависят от шумов измерения, так как в процессе измерения и интегри- Н.2. Адаптивное управление с идентификатором 303 рования они сглаживаются. МНК-алюритмы хорошо противостоят не только шумам измерения, но и другим возмущающим воздействиям. Утверждение !1.3.
МНК-алгоритм идентификации имеет еид а(т) = — Р(1) Ьут(т) (т), (11.17а) где е„($) — прогнозируемая ошибка (нееязка), Р($) — матрица коэф- фициентое усиления, которая определяеп1ся из ураенения РЯ = -Р(с)1»' (1)1»'(с)Р(Ф). (11.1?б) При выборе начальных значений а(0) и Р(0) = роХ следует иметь в виду, что малая ошибка в а(0) приводит к малым ошибкам в течение всего процесса оценнвания. Кроме того, чем больше ро, тем меньше ошибка. Поэтому ро нужно выбирать настолько большим, насколько позволяет чувствительность к шумам. МНК-идентификатор с вкспоненциальной потерей памяти.
До сих пор предполагалось, что неизвестные параметры вовсе не изменяются или изменяются очень медленно: за время адаптации практически не меняются. Однако, если этн параметры в действительности, хотя и медленно, изменяются, старые данные при оценке текущих значений неизвестных параметров обесцениваются, так как они отражают старые значения параметров. Поэтому представляется разумным, чтобы старые данные оказывали меньшее влияние на оценку, чем новые данные. Эти соображения привели к методу наименьших квадратов, при котором вклад старых данных на значение оценки экспоненциально убывает. Экспоненциальное «забывание» достигается за счет тою, что в этом случае в качестве минимизируемого функционала принимается интеграл ,У = — ~ ехр — ! Л(т)йт ~у(з) — И"(з)а(Ф)~ йз, 11 (11.18) где Л(т) > 0 — переменный коэффициент потери памяти.
Алгоритм идентификации, получаемый путем минимизации функционала (11.18), будем называть МНК-алгоритмом идентификации с экспоненциальной потерей памяти, а идентификатор, построенный на основе такого алюритма — МНК-идентификатором с экспоненциальной потерей памяти. Алгоритм (11.17) обеспечивает параметрическую сходимость (а(с) — 0 при 1 - оо), если еыполняется условие постоянного еозбуждения сигнала. Гл. П.
Адаптивные системы управление Утверждение 11.4. МНК-алгоритм идентификации с экспоненциальной потерей памяти имеет вид а(!) = — Р(1) 1Э'~(!)е„(Ф), (1! .! 9а) Р(!) = Л(!)Р(!) Р(!))т'т(!)УУ(!)Р(!) (1! 19б) и он обеспечивает параметрическую сходимость (а(Ф) -+ а(1) при $ — оо), если выполняется условие постоянного возбуждения. Выбор коэффициента потери памяти. При выборе коэффициента потери памяти нужно проявлять осторожность.
Если коэффициент потери памяти выбрать равным нулю (обычный МНК-идентификатор), то в этом случае невозможно слежение за изменяющимися параметрами и при наличии постоянного возбуждения. Если коэффициент потери памяти выбрать постоянным, то это может привести к резкому росту коэффициентов усиления и при отсутствии постоянного возбуждения возникновению сильных колебаний оцениваемых параметров. Так как сигнал может иметь различный уровень возбуждения, то желательно иметь подстранваемый коэффициент потери памяти. Значение нормы матрицы коэффициентов усиления зависит от уровня возбуждения матрицы сигналов. Поэтому, естественно, коэффициент потери памяти связать с величиной ЗР(г)~1 Одним из возможных алгоритмов изменения коэффициента потери памяти в зависимости от )~Р(!)!) определяется 11Р(!)1! где Ло — константа, определяющая максимальный коэффициент потери памяти, ко — константа, определяющая максимальное значение нормы матрицы коэффициентов усиления и удовлетворяющая неравенству йо > )~Р(0)~).
При малом ))Р(!))! коэффициент потери памяти приблизительно равен Ло, н с ростом ~(Р(!и коэффициент потери памяти убывает, обращаясь в нуль, когда ЗР(!)!! принимает максимальное значение. Большое значение Ло означает большую скорость забывания и лучшее отслеживания изменяющихся параметров. Однако чем больше Ло, тем больше колебания параметров. Поэтому при выборе Лз приходится исходить из противоположных требований — хорошее отслеживание изменяющихся параметров и низкий уровень их колебаний. Константа «о должна быть больше !)Р(0)(1 При этом норма матрицы Р(!) не превышает йе независимо от уровня постоянного возбуждения.
Это связано с тем, что когда норма !)Р(Ф)!! становится равной йо, коэффициент потери памяти становится равным нулю и матрица Р(г) начинает убывать. Константа йо влияет на скорость обновления данных и на колебания оцениваемых параметров из-за возмущения так же, как и константа Ле. /62. Адантиеное управление е иденти инатором 305 Поэтому выбор йо приходится производить при таких же противоречи- вых требованиях, что и прн выборе Ло. Пример 11.4.
Задан объект передаточной функцией И"о = рз+Зрт+2р+аз где Ьз, аз — неизвестные параметры. При условии, что собственный оператор фильтров имеет вид Ао(р) = рз + 4рз + 4р+ 3 определить: а) МНК вЂ” алгоритм идентификации неизвестных параметров; б) МНК вЂ” алгоритм идентификации неизвестных параметров с экспоненциальной потерей памяти с коэффициентом потери памяти Л =1. Р ею е н и е. В данном случае оп = 4, аз = 4, аз = 3, и уравнения фильтров принимают вид у1 = уп уз = уз. уз = — Зу1 — 4уз — 4уз+у й~ = йз, йз =йз, йз = -Зй1 — 4йз — 4йз+п. Так как сз1 — а| = 4 — 3 = 1, аз — аз = 4 — 2 = 2, Ь1 = О, Ьт = О, то для оценки вектора параметров имеем а = (1 2 аз О О Ьз)т Оценка выходной переменной и МНК-алгоритм идентификации принимают вид у — ыг(З)а = у| + 2уз + азу~ + Ь|йп аз = йз(у у), Ьз = йз(у у) где йз, йе — элементы третьей и четвертой строк матрицы-столбца К = = Р(т) тг'(З)~ (см.