Деменков Н.П. - Вычислительные методы решения задач оптимального управления на основе принципа максимума Понтрягина - 2015 (842911), страница 5
Текст из файла (страница 5)
) -то же,что и предыдущая функция, но возвращает еще информацию о результатах оптимизации (выходная структура)output;• [x,fval,attainfactor,exitflag,output,lambda] = fgoalattaint( ... ) -то же, что и предыдущая функция, но возвращает еще множителиЛагранжаlambda.Аргументы функции• fun -fgoalattain:векторная функция векторного аргумента; должнабыть задана либо с помощью функцииinline,например,>> fun = inline('sin(x.
*х)');либо как m-файл:function F = myfun(x)F= ...Если задано вычисление градиента('GradObj','on')),( функцией options = optimsetто m-файл должен возвращать не только значениефункции F, но и значения градиентовG:function[F,G] = myfun(x)F = ... % Вычисление векторной функцииG = ... % Вычисление градиента• goal - вектор задаваемых целевых значений той же размерности, что и вектор fun;• weight - вектор весов той же размерности, что и вектор целей, часто принимается равным abs(goal);• nonlcon - функция, возвращающая значения функцийограничений, а при необходимости ( если задано options = optimset('GradConstr' ,'on')) и их градиентов; должна быть оформлена в виде m-файла, например:function[c,ceq] = mycon(x)с = ... % Вычисление левых частей нелинейных неравенствceq = ... % Вычисление левых частей нелинейных равенствfunction [c,ceq,GC,GCeq] = mycon(x)с = ... % Вычисление левых частей нелинейных неравенств29ceq = ...
% Вычисление левых частей нелинейных равенствGC = ... % Градиенты неравенствGCeq = ... % Градиенты равенств• Options - опции (их можно изменять, используя функциюoptimset):DerivativeCheck - проверка соответствия производных,определенных пользователем, их вычисленным оценкам ввиде первых разностей;Diagnostics -ввод диагностической информации о минимизируемой функции;DiffМaxChangeопределение максимальных значений-изменений переменных при определении первых разностей;DiffМinChange-определение минимальных значений изменений переменных при определении первых разностей;отображение уровня:Display -ции отсутствует;'iter' -'off' -вывод информавывод информации о поиске решения на каждой итерации;'final' -вывод только итоговой информации;GoalExactAchieve -определение количества целей, которые должны быть достигнуты «точно»;GradConstr - использование градиентов для ограничений(опция имеет смысл в случае применения аргументаnonlcon), возможные ее значения: 'off' и 'on';GradObj - приложение градиента для целевой функции,определяемого пользователем (возможные ее значения:'off' и 'on');MaxFunEvals -ввод максимального числа вычисленийфункции;Maxlter -ввод максимального допустимого числа итераций;MeritFunction честваустанавление вида функции оценки кадостиженияцели'multiobj' или 'singleobj');TolCon - допуск останова(возможныееезначениявычислений при нарушенииограничений;TolFun -допуск останова вычислений по изменениюфункции;TolX 30допуск останова вычислений по изменению х;коэффициент достижения цели, усредненное• attainfactor -значение несоответствий заданным целям, выраженное в долевом(процентном) виде; если данный коэффициент отрицательный, цели были достигнуты; если положительный• exitflag --цели не достигнуты;информация о характере завершения вычислений;если этот аргумент положительный, то вычисления завершилисьнахождением решения х; если он равен нулю, то останов произошел в результате выполнения предельного числа итераций; еслиданный аргумент отрицательный, то решение не найдено;множители Лагранжа для различных типов огра-• lambda ничений:lambda.lower - для нижней границы lb;lambda.upper - для верхней границы ub;lambda.ineqlin - для линейных неравенств;lambda.eqlin - для линейных равенств;lambda.ineqnonlin - для нелинейных неравенств;lambda.eqnonlin - для нелинейных равенств;• output - информация о результатах оптимизации:output.Iterations - число выполненных итераций;output.funcCount - число вычислений функции;output.algorithm - используемый алгоритм.Пример 1.3.
Пусть некоторая замкнутая динамическаясистема третьего порядка описывается уравнениями:х= Ах + Ви · у = С х · и = Ку''где матрицыо-0.5А=ооо10-2 10 ·В= -2 2 ·''-11 -2ос-'[1 о о]1 '- О Охарактеризующие свойства объекта, являются заданными, а матрица К регулятора -изменяемой.Качество работы такой системы определяется расположениемна комплексной плоскости собственных чисел замкнутой системы:х = (А+ВКС)х.Поставим следующую оптимизационную задачу. При заданном диапазоне изменения элементов матрицы К от-4до+4подо-31брать эти элементы таким образом, чтобы собственные числа замкнутой системы равнялись[- 5, - 3, - 1]. В такой постановке задачаявляется многокритериальной (три критерия) и соответствует задаче достижения цели .Решение.
На первом этапе создадим m-файл для вычислениясобственных чисел матрицы А+ВКС:function F = eigfun(K,A,B,C)¾ Нахождение собственныхF = sоrt(А+В*К*С)¾Упорядочение собственных чиселendчиселНа втором этапе создадим оптимизирующую функцию:А=[ - 0.5 О О; О - 2 10; О 1 - 2 ];В= [ 1 О· -2 2· О 1 ]·'''С= [ 1 О О; О О 1 ];КО= [- 1 - 1; - 1 - 1]; % Задание начальных условийgoal = [- 5,- 3,- 1]; % Задание вектора целейweight = abs(goal);¾ Задание вектора весовых коэффициентовlb = --4*ones(size(КO)); % Нижние границы элементов матрицы Кub = 4*ones(size(КO)); % Верхние границы элементов матрицы К% Установка опции вывода информацииoptions = optimset('Display','iter');eigfun = @(К) sort(eig(A+B*K*C));[K,fval,attainfactor,exitflag,output,lambda] = ...fgoalattain( eigfun,KO,goal,weight,[ ],[ ],[ ],[ ],lb,ub,[ ],options);Ниже приведены результаты вычислений:Iterо123456789101132Fcount61218243036424854606672Attainmentfactorо1.0310.3525-0.1706-0.2236-0.3568-0.3645-0.3645-0.3675-0.3889-0.3862-0.3863Махconstraint1.885210.029980.068630.10710.066540.0078940.000145о0.00015490.008327о4.116е-013Linesearchsteplength11111111111Directionalderivative0.745-0.613-0.223-0.234-0.0812-0.164-0.00515-0.00812- 0.007510.00568- 0.998ProcedureHessian modifiedHessian modified twiceHessian modifiedHessian modifiedHessian modified twiceHessian modifiedHessian modified twice- Local minimum possiЫe.
Constraints satisfied.- fgoalattain stopped because the size of the cuпent search directionis less than twice the default value ofthe step size tolerance and constraintsare satisfied to within the default value of the constraint tolerance.Здесь Iter - число итераций; F-count - количество вычислений функций; Attainment factor коэффициент (уровень достижения) цели; Мах constraint максимальное ограничение; Linesearch steplength - шаг поиска; Directional derivative - норма градиента.Конечное значение матрицы К:К= -4.0000 - 0.2564-4.0000 -4.0000Итоговые значения собственных чиселeigfun(K):ans = - 6.9313 -4.1588 - 1.4099Итоговое значение коэффициента достижения целиattainfactorattainfactor = - 0.3863что говорит о перевыполнении заданных целей в среднем на3 8 % (сравнениеитоговых собственных значений с заданными этоподтверждает).Для получения более приемлемого результата зададим опциюточного достижения всех трех целей:options = optimset(options,'GoalsExactAchieve',3 );После этого повторим поиск оптимального решения.
В результате получимК=-1 .5953 1.2040- 0.4201 - 2.9047eigfun(K)ans = - 5.0000 - 3.0000 - 1.0000attainfactor = - 1.541 Ое-022 .Смоделируем поведение замкнутой системы при начальныхусловиях хо =[1 ;1;1]:[Times, xvals] = ode45(@(u,x)((A + В*К*С)*х),[0,4],хО);plot(Times,xvals)legend('x_ 1(t)','x_ 2(t)','x_3(t)','Location','best')xlabel('t');ylabel('x(t)');Результаты оптимизации приведены на рис.1.5 .33Функцияx(t)1,2...{1,00,80,60,4чена для\\лярной\\\ ' \.\0,2Оfminconпредназнапоиска минимумафункциимногихскапеременных при наличии следующих~'\линейных ограничений:"~-- "'"'"с(х)1\...... ....<О,Ах< Ь,Г"- ~ceq(x) =Aeqx = beq;lb <х <0,5 1 1,5 2 2,5 3 3,5 tО;иЬ(задача нелинейного программиРис.1.5.
Результаты оптимизациирования). Функция записываетсяв видех= fmincon(fun,xO,A,b)х = fmincon(fun,xO,A,b,Aeq,beq)х = fmincon(fun,xO,A,b,Aeq,beq,lb,ub)Еслиотсутствуют ограничения на отдельные компонентысверху или снизу, то соответствующие компоненты векторовub задаются как-оо (lb(i)= -Inf) или+ооx(i)lb и(ub(i) = Inf).Нелинейное условие может быть задано с помощью двухкомпонентной функции[c,ceq] = nonlcon(x),для которой искомая точка минимума должна удовлетворять двумограничениям : с(х)::;; О иceq(x) =О.Обращение:х = fmincon(fun,xO,A,b,Aeq,beq,lb,ub,nonlcon)х = fmincon(fun,xO,A,b,Aeq,beq,lb,ub,nonlcon,options)Если какой-то параметр не используется, вместо него задаетсяпустой аргумент([ ]).Минимизируемойnonlconфункцииfunифункцииограниченийкроме аргумента можно передавать список дополнительных параметровPl, Р2 и т. д:х = fmincon(fun,xO,A,b,Aeq,beq,lb,ub,nonlcon,options,Pl ,P2, ...)[x,fval] = fmincon( ...)[x,fval,exitflag] = fmincon( ...)[x,fval,exitflag,output] = fmincon( ...)[x,fval,exitflag,output,lambda] = fmincon( ...
)[x,fval,exitflag,output,lambda,grad] = fmincon( ... )34Ускорение вычислительного процесса может быть достигнутозаданием формул вычисления градиента и/ или гессиана:[x,fval,exitflag,output,lambda,grad,hessian] = fmincon( ...)Аргументы и возвращаемые величины практически аналогичнырассмотренным для функцииfgoalattainкроме тех случаев, когдаимеется:1)дополнительная возвращаемая величинаградиентgrad -функции в точке минимума;2)возможностьфункциизаданиявычисленияoptions = optimset ('Hessian','on'),гессианаНвводомчто должно быть отражено в m-файле:function [f,g,H] = myfun(x)f = ...
% Вычисление целевой функцииg = .. . % Вычисление градиентаН = ... % Вычисление гессиана3) дополнительная возвращаемая величина hessian -гессианН функции в точке минимума. Если действительно найден минимум, то компоненты градиента достаточно малы, а гессиан-положительно определенная матрица, в чем можно убедиться с помощью критерия Сильвестраdet(hes) > О4) возможности дополнительныхопций и различия в их при-менении:LargeScale - может принимать значения 'off' (по умолчанию) и 'on'. В первом случае используется алгоритмсредней размерности, во втором алгоритм большойразмерности .Опции, применяемые только при работе с алгоритмом среднейразмерности:DerivativeCheck;DiffWaxChange;DiffМinChange;LineSearchТурезадает вид алгоритма одномерной оптимизации.Опции, используемые только в алгоритме большой размерности:Hessian -гессиан (в случае матрицы Гессе, задаваемойпользователем);35HessPattem - задание гессиана как разреженной матрицы(это может привести к существенному ускорению поискаминимума) ;MaxPCGiter максимальное число итераций РСGалгоритма (preconditioned conjugate gradient);PrecondВandWidth - верхняя граница начальных условийдля РСG-алгоритма;TolPCG TypicalX 5)допуск на завершение РСG-итераций;типовые значения х;возвращаемая величинаoutput,в данном случае включаю-щая в себя дополнительные компоненты :число РСG-итераций (только при исoutput.cgiterations -пользовании алгоритма большой размерности);конечный шаг поиска (только в случаеoutput.stepsize -применения алгоритма средней размерности);мера оптимальности первого порядoutput.firstorderopt -ка (норма вектора градиента в точке минимума), применяется только при использованииалгоритма большойразмерности).Пример=1.4.Пусть требуется найти минимум функции-х 1х 2х3 при начальном значении хограничении О < х 1 +2х2 +2х3= [10;10;10]f(x)=и при наличии< 72.Решение.