Диссертация (1150745), страница 11
Текст из файла (страница 11)
Рассмотрим систему (1.1), считая, что управление, как и в предыдущем параграфе, складывается из двух компонент u1 и u2 , имеющих различныезапаздывания, обусловленные различной вычислительной сложностью: h и 1.Получаем системуx(k + 1) = f x(k), u1 (k − h) + u2 (k − 1) ,4.2.1k = 0, 1, . . .(4.13)Схема компенсации запаздыванияЧтобы построить компенсатор запаздывания для нелинейной системы, удобно переформулировать метод компенсации, разработанный для линейных систем [32; 62; 64], в следующем виде, основанном на понятии предсказателя будущего состояния системы.Пусть дана линейная система с одним запаздыванием:x(k + 1) = Ax(k) + Bu(k − h),k = 0, 1, .
. .Для нее запаздывание компенсируется следующим образом:84• для текущего состояния x(k) и прошлых управлений u(·) предсказательP x(k), u(·) будущего состояния x(k+h) вычисляется интегрированиемсистемы какP(x(k), u(·)) = A x(k) +hh−1Xκ=0Ah−1−κ Bu(k − h + κ);• выполняется преобразование состояния по формулеp(k) = P x(k), u(·) ;• преобразованная система не содержит запаздывания:p(k + 1) = Ap(k) + Bu(k);• состояние p(k) стабилизируется, например, управлениемu(k) = F p(k);• для исходной системы управление имеет видu(k) = F P x(k), u(·) .Предположим теперь, что в системе есть несколько запаздываний, например, два: 0 (слагаемое без запаздывания) и h > 0:x(k + 1) = Ax(k) + B0 u(k) + B1 u(k − h),k = 0, 1, . . .В этом случае буквальное предсказание x(k + h) в текущий момент k затруднительно, т.
к. оно подразумевает либо знание будущих управлений, либо некоторое предположение о них. Первый вариант нарушает временну́ю причинностьи приводит к нереализуемому регулятору, а второй требует неявного заданиярегулятора. В [32; 62; 64], однако, используется фактически «предсказание с нулевым будущим управлением». Это не буквальное предсказание в том смысле,что будущее управление не обязательно должно оказаться нулем в действительности. Управление строится следующим образом:85• предсказатель P x(k), u(·) определяется как прогноз x(k + h) с заданным прошлым управлением u(·) и нулевым будущим управлением, т.
е.u(k + κ) = 0 при k > 0. ФормальноP x(k), u(·) = ξ(h),ξ(κ + 1) = Aξ(κ) + B1 u(k − h + κ),κ = 0, 1, . . . , h − 1,ξ(0) = x(k)или, что эквивалентно,P(x(k), u(·)) = A x(k) +hh−1Xκ=0Ah−1−κ B1 u(k − h + κ);• выполняется преобразование состоянияp(k) = P x(k), u(·) ;• преобразованная система вновь не содержит запаздывания:p(k + 1) = Ap(k) + (Ah B0 + B1 )u(k);• p(k) стабилизируется управлениемu(k) = F p(k);• для исходной системы управление естьu(k) = F P x(k), u(·) .Метод компенсации запаздывания разработан также для нелинейных системс одним запаздыванием в управлении видаx(k + 1) = f x(k), u(k − h) .Управление построено и исследовано в [60], используя ту же идею, что и влинейном случае: построить предсказатель P x(k), u(·) будущего состояния86x(k + h), ввести новую переменную p(k) = P x(k), u(·) , которая преобразуетсистему к виду без запаздыванияp(k + 1) = f p(k), u(k) ,и стабилизировать ее обратной связью u = κ(p).
После этого доказывается, чтостабилизация исходной системы достигается управлениемu(k) = κ P x(k), u(·) .Следуя принципам компенсации нескольких запаздываний в линейных системах, описанным выше, определим предсказатель P x(k), u(·) для системы(4.13) как прогноз будущего состояния x(k + h) при нулевом будущем управлении.
Нелинейная версия предсказывающего преобразования (4.3), таким образом, определяется равенствомp(k) = P x(k), u(·) ,(4.14)где отображение P задано системойP x(k), u(·) = ξ(h),ξ(0) = x(k),ξ(1) = f ξ(0), u1 (k − h) + u2 (k − 1) ,ξ(2) = f ξ(1), u1 (k − h + 1) ,ξ(3) = f ξ(2), u1 (k − h + 2) ,...ξ(h) = f ξ(h − 1), u1 (k − 1) .Это определение содержит алгоритм: чтобы найти p(k), следует последовательно найти ξ(1), ξ(2), . . . , ξ(h) при ξ(0) = x(k) и положить p(k) = ξ(h).Замечание.
Вообще говоря, такое определение p(k) может быть некорректным, если движение нелинейной системы уходит на бесконечность за конечное87число шагов. Это препятствие обходится в [60], где предполагается продолжимость вправо (forward completeness) всех решений разомкнутой системы, и в[76], где на правую часть системы накладываются линейные ограничения. Вданной работе существование отображения P(x(k), u(·)) гарантируется предположением 4.Теорема 11.
Система (4.13) после преобразования (4.14) принимает видp(k + 1) = f p(k), u1 (k) + Φ p(k), u1 (·) u2 (k) + o(u2 (k)),(4.15)где матрица Φ определяется системойΦ p(k), u1 (·) = Z(h),Z(1) = B ξ(1), u1 (k − h + 1) ,Z(2) = A ξ(2), u1 (k − h + 2) Z(1),Z(3) = A ξ(3), u1 (k − h + 3) Z(2),...Z(h) = A ξ(h), u1 (k) Z(h − 1),ξ(h) = p(k),ξ(h − 1) = f −1 ξ(h), u1 (k − 1) ,ξ(h − 2) = f −1 ξ(h − 1), u1 (k − 2) ,...ξ(1) = f −1 ξ(2), u1 (k − h + 1) .Доказательство. По определению переменная p(k) находится из системыp(k) = ξ(h),ξ(0) = x(k),ξ(1) = f ξ(0), u1 (k − h) + u2 (k − 1) ,ξ(2) = f ξ(1), u1 (k − h + 1) ,88ξ(3) = f ξ(2), u1 (k − h + 2) ,...ξ(h) = f ξ(h − 1), u1 (k − 1) ,а p(k + 1) — из системы¯p(k + 1) = ξ(h),¯ = x(k + 1),ξ(0)¯¯ = f ξ(0),u1 (k − h + 1) + u2 (k) ,ξ(1)¯ = f ξ(1),¯ξ(2)u1 (k − h + 2) ,¯¯ = f ξ(2),u1 (k − h + 3) ,ξ(3)...¯ = f ξ(h¯ − 1), u1 (k) .ξ(h)Заметим, что¯ = f x(k), u1 (k − h) + u2 (k − 1) =ξ(0)= f ξ(0), u1 (k − h) + u2 (k − 1) == ξ(1),¯ = f ξ(0),¯ξ(1)u1 (k − h + 1) + u2 (k) == f ξ(1), u1 (k − h + 1) + u2 (k) == f ξ(1), u1 (k − h + 1) ++ B ξ(1), u1 (k − h + 1) u2 (k) + o(u2 (k)) == ξ(2) + Z(1)u2 (k) + o(u2 (k)),¯ = f ξ(1),¯ξ(2)u1 (k − h + 2) == f ξ(2) + Z(1)u2 (k) + o(u2 (k)), u1 (k − h + 2) == f ξ(2), u1 (k − h + 2) ++ A ξ(2), u1 (k − h + 2) Z(1)u2 (k) + o(u2 (k)) =89= f ξ(2), u1 (k − h + 2) + Z(2)u2 (k) + o(u2 (k)) == ξ(3) + Z(2)u2 (k) + o(u2 (k)),¯ = ξ(4) + Z(3)u2 (k) + o(u2 (k)),ξ(3)...¯ − 1) = ξ(h) + Z(h − 1)u2 (k) + o(u2 (k)),ξ(h¯ = f ξ(h) + Z(h − 1)u2 (k) + o(u2 (k)), u1 (k) =ξ(h)= f ξ(h), u1 (k) + Z(h)u2 (k) + o(u2 (k)).Следовательно,p(k + 1) = f p(k), u1 (k) + Φ p(k), u1 (·) u2 (k) + o(u2 (k)),что и требовалось доказать.Замечание.
В результате преобразования (4.14) запаздывание из системыисключилось не полностью: матрица Φ в преобразованной системе (4.15) зависит от прошлых значений u1 . Тем не менее, эта система аффинна по управлениюu2 (k), которое теперь входит без запаздывания.4.2.2Устойчивость нелинейного регулятора скомпенсацией запаздыванияКак указано выше, задачей низкочастотного регулятора u1 является построение программной последовательности ū(k). Этой последовательности соответствует программная траектория x̄(k), которая стабилизируется высокочастотным регулятором.
В преобразованной системе программную траекторию обозначим p̄(k).Замечание. Для выбора управления u1 (k) подходят уже известные результаты, касающиеся метода компенсации для нелинейных систем с одним запаздыванием [60], т. к. предсказывающее преобразование (4.14), где будущие значенияu2 предполагаются нулевыми, эквивалентно отсутствию u2 , т. е.
случаю одногозапаздывания.90Рассмотрим систему в отклонениях от программной траектории:π(k + 1) = A p̄(k), u1 (k) π(k) + Φ p̄(k), u1 (·) u2 (k) + o(π(k)) + o(u2 (k)),гдеπ(k) = p(k) − p̄(k).Полагая u2 (k) = F2 p̄(k), u1 (·) π(k) и линеаризуя систему в отклонениях, получаемπ(k + 1) = A p̄(k), u1 (k) + Φ p̄(k), u1 (·) F2 p̄(k), u1 (·) π(k).Следующее утверждение касается стабилизации системы (4.15) выбором F2и следующей из этого стабилизации исходной системы (4.13). Оно сформулировано в форме прямого метода Ляпунова для управляемых систем [33]: еслиуправляемая функция Ляпунова (control-Lyapunov function) убывает при некотором управлении, то система стабилизируема.Теорема 12.
Пусть при всех p̄(k) ∈ X и u1 (k−κ) ∈ U (κ = 1, 2, . . . , h−1)существует (m × n)-матричная функцияF2 p̄(k), u1 (k − h), u1 (k − h + 1), . . . , u1 (k − 1)и симметрические положительно определенные (n × n)-матричные функцииV p̄(k), u1 (k − h), u1 (k − h + 1), . . . , u1 (k − 1)иW p̄(k), u1 (k − h), u1 (k − h + 1), . . .
, u1 (k − 1) ,связанные равенствомĀT p̄(k), u1 (·) V p̄(k), u1 (·) Ā p̄(k), u1 (·) − V p̄(k), u1 (·) = −W p̄(k), u1 (·) ,гдеĀ p̄(k), u1 (·) = A p̄(k), u1 (k) + Φ p̄(k), u1 (·) F2 p̄(k), u1 (·) .91Тогда управлениеu2 (k) = F2 p̄(k), u1 (·) P x(k), u1 (·) − p̄(k)стабилизирует систему (4.13).Доказательство. Доказательство проводится полностью аналогично линейному случаю, при этом в качестве функционала Ляпунова — Красовского вместо(4.8) используется выражениеv(k) = kp(k)k2 + ku2 (k − 1)k2 .V p̄(k),u1 (·)Квадратичные оценки функционала получаются благодаря линейной ограниченности правой части системы (4.13).Замечание. С помощью функционала Ляпунова — Красовского, используемого в доказательстве теоремы 12, можно исследовать и робастность регулятораu2 аналогично тому, как это сделано в теореме 10.Теорема 12 предлагает следующий алгоритм выбора управления u2 (k) приизвестном программном управлении u1 (k) и известной программной траектории p̄(k):1.
На такте k, имея x(k), u1 (k − h), u1 (k − h + 1), . . . , u1 (k − 1), u2 (k − 1),построить ξ(κ) из определения отображения (4.14).2. Положить p(k) = ξ(h).3. Выбратьu2 (k) = F2 p̄(k), u1 (·) p(k) − p̄(k) .На следующем такте повторить алгоритм.92Глава 5Примеры5.1Система первого порядкаРассмотрим системуẋ(t) = sin x(t) + u(t)и функционал качестваZ∞(5.1)x2 (t) + u2 (t) dt.0Оптимальное управление в данном случае может быть вычислено в явном виде:u = − sin x − sign xpx2 + sin2 x.Для моделирования система дискретизирована с шагом 0,1.На рис. 5.1 пунктиром показано управление и движение в системе, замкнутой оптимальной обратной связью.