Беллман Р. Прикладные задачи динамического программирования (2013) (1246769), страница 37
Текст из файла (страница 37)
Ма!Ь. Бос., чо1. 6, 1959, р. 799. й К !с 1е г апб й % о !1 о иг г ! х, Втосйазгк еайптаИоп о1 йе шахнпигп о1 а гейгеэа1оп, Апп. Май. Благ, чо1. 23, рр. 462 — 466. ' В. С. Н о г г ! «, А Мейоб 1ог 1.осаИпй йе Махгпщш о1 а ГипсИоп о1 а Вгпй!е Тгаг!аЫе 1п !Ье Ргеэепсе о1 74осэс, 1.!псо!п 1.аЬога!огу, 220-0035, 1960. Е. Л. Ма Вес, Ап Ешр!пса11птсзИйаиоп о1 Ргоссбигеэ 1ог !.осаИпн йе Мах!шиш Реа!с о1 а Ми!Ирус-реа!с Всдгеаэуоп Гипсбоп, 13псо1п 1.аЬогатогу, 220-0046, 1960. Важным приложением общей теории процессов поиска является задача медицинской диагностики и лечения.
Недавно появились следующие работы, касающиеся этого вопроса: В. 5. 1. с 6 1е у апб 1.. В. 1. и з ! с й Всазоп!пй 1оипсуатгоп о1 шс61са! Тйадпоюа, Во!енсе, чо!. 130, !959, рр. 9 — 21. ЬЬ Ма п1е1, Рг1псгр1ев о1 СЬешойегарси1к лсгееп1пй Ргос. Гоигй Вег1се1еу Вугпроз!иш, 1сп1чегаВу о1 Са1Вогп1а Ргезэ, Вег!сс!еуь СаИогп1а, 1962. В. В. %!псе г, Ортнпа1 ойайпоз!к ргосебигез, 1ВЕ Тгапэ. оп Ке- 1!аЬ!01у апс1 Оиа!!!у Соп!го1, чо1. ЩС-9, 1960, рр. !3 — !9.
6 5. Детальное и занимательное обсуждение этик вопросов можно найти в книге: Н. В'е у 1, Вупипе!гу, Рппсегоп 1уп1чегэ!!у Ргезэ, Рппсе!оп, Меж Зешеу, 1952. 66 14 — 20. Материал этих параграфов заилктвован из статьи: В. В е11 ш а п апд В. 0!и за, Оп чапоиз чегюопэ о1 йе дс1есг!се соси ргоЫеш, 1п1оппзггоп апб Соп1го1, чос. 4, 1961, рр. 118 — 13!.
ДОПОЛНИТЕЛЬНАЯ ЛИТЕРАТУРА Существует обширная литература, посвященная приложению теории оптимального поиска к задачам автоматического управления. Основные положения можно найти в книгах: А. А. Ф е л ь д 6 а у и, Вычислительные устройства в автолсатических системах, Физматгиз, 1960. А. А. Пер воза анский, Случайныс процессы в нелинейных автоматических системах, Физматгиз, !962.
5. 5. Ы С Ь а п я, Вупйезй о1 Ор!!шиш соп1го! зуз1ешэ, Мс Огаиг-Н19, Ыечс Тот!с, 1961. Там же имеется более подробная библиография. О чис.«ах Фибоначчи см. Н. Н. Воробьев, Числа Фибоначчи, нзд. '2, изд-во «Наука», 1964. глдвд ч ДИНАМИЧЕСНОЕ ПРОГРАММИРОВАНИЕ И ВАРИАЦИОННОЕ ИСЧИСЛЕНИЕ Е ВВЕДЕНИЕ В следующих главах мы увидим, что целый ряд важных задач, возникающих при исследовании траекторий, многошаговых процессов производства и, наконец, в области управления с обратной связью можно сформулировзть в терминзх вариационного исчисления.
Хотя аппарат эзоп теории играе~ важную роль при аналитическом рассмотрении многих классов вариационных задач, он до сих пор мало использовался при численном решении проблем современной науки и техники. Чтобы объяснить это явление, мы изложим здесь основы вариационного исчисления, а затем подробно обсудим трудности, которые встречаются на пути численного решения вариационными методами. К задачам гакого рода мы дадим подход с помощью динамического программирования и покажем, каким образом можно обойти или преодолеть некогорые иа этих трудностей. Затем мы коротко покажем, как подход с помощью функциональных уравнений, основанный на принципе оптимальности, приводит к основным классическим результагам вариационного исчисления, а также теории Гамильтона †Яко.
Читатель, интересующийся только численным решением процессов нахождения траекторий и процессов управления с обратной связью, может пропустить эту главу при первом чтении. Во всех следующих главах, посвященных соответственно траекторным процессам, многошаговым процессам Фхнкпиоихлы производства (часгный класс пропессов управления с обратной связью экономического происхождения) и задачам управления с обратной связью технического происхождения, мы не будем опираться на результаты этой главы. В главе Х!1, посвященной рассмотрению вычислительных сторон, будет дано решение задачи о брахистохроне методами динзмического программирования.
В приложении мы рассмотрим новый подход, принадлеакащий Брайсону, который является, по-видимому, чрезвычайно многообещающим, поскольку он преодолевает преграду размерности, о которой говорилось ранее. 2. ФУНКЦИОНАЛЫ В обычном анализе имеют дело с задачей макеимизапии или минимизации функции М переменных с =Г(хи хя ..., х,). (5.1) ((у) = ) у (х) Ых, (5.2) определенный для всех функций у(х), непрерывных на [а, Ь). В дальнейшем мы ограничимся рассмотрением функпионалов вида а ! (у) = $ д(у (х), у' (х), х) ах, (5З) а где, как обычно, у'(х) означает производную функции у(х).
фуикпия у(х) будет подчиненз граничным условиям вида у (а) = с„й (у (Ь), у' (Ь)) = се (5.4) Смысл такого рода соотношений будет пояснен ниже. В вариационном исчислении рассматриваются задачи, содержащие функпии от бесконечного числа переменных или, что то же самое, функции от функций. Для обозначения скалярной величины, завися|пей от функции, обычно пользуются термином функционал. Подобно тому как функция есть прзвило сопоставления числз конечному множеству чисел, функционал есть правило сопоставления числа функпии или множеству функций.
Простейшим и наиболее важным примером функпионала является интеграл Римана (гл. и пчвилпионнов исчислвнив Более обшей являегся задача максимизации или минимизации функционала вида ь /(у) = г) я(у(х), г(х), х)ь/х, а (5.5) где Х, у и г связаны дифференциальным уравнением „вЂ” = Н(г, у, х), г (0) = сь (5.6) Вше более общей является задача максимизации или минимизации выражения /(у) = ~ д(г (х), у (х), х) йх+ Ь (г (Ь), у (Ь), Ь), (5.7) а где х, у подчинены (5.6) и, возможно, дополнительным ограничениям. Эта задача называется задачей Больца, а задача отыскания экстремума функции в концевая точке Ь / (у) = Ь (г (Ь), у (Ь), Ь) (5.8) называется в вариационном исчислении задачей Майера. Мы будем называть эту последнюю задачу процессом регулирования по конечному состоянию.
Обе задачи являются частными случаями задачи оптимизации интеграла Римана — Стилтьеса ь /(у)= ~ д(г(х), у(х), х)йО(х), (5.0) а 3. ФОРМАЛЬНЫЙ АППАРАТ ВАРИАЦИОННОГО ИСЧИСЛЕНИЯ Перейдем теперь к описанию основного метода вариационного исчисления и приведем некоторые классические результаты. Мы сделзем это для гого, чтобы сравнить два различных аппарата — аппарат вариационного исчисления и аппарат которую мы не будем рассматривать. В большинстве важных приложений функционал /(у) имеет вид (5.7), где я или Л тождественно равны нулю.
лпплиат Вайявционного нсчислвния 237 динамического программирования. В дальнейшем мы укажем преимущества и неудобства каждого из них. Наиболее вероятно, чго в конечном счете синтез этих двух методов покажет свою способность справляться с действительно сложными задачами оптимального управления и оптимальных траекторий. То, что два метода на самом деле дополняю~ друг друга, будет следовать из приведенной ниже геометрической интерпретзции.
В вариациоином исчислении стараются получить уравнение для оптимизирующей функции. Действуя чисто формально, опускзя многие сложные вопросы существования и единственности решения, которые возникают в самом начале, исследуем задачу нахождения функции у (х), минимизирующей функционал Ь (5.10) Будем применять непосредственное обобщение вариационного подхода, используемого для функций от конечного числа переменных. В действительности основное уравнение вариационного исчисления было получено Эйлером путем перехода к пределу от конечного к бесконечному.
Как следует ожидать по аналогии с обычным анализом, условия, которые мы получим, будут необходимыми, но, вообще говоря, недостаточными. Пусть у (х) означает минимизирующую функцию. Мы можем считать, что она дает относительный минимум. Если «(х)— любая «близкаяа к ней функция, то должно быть (5.1 1) У(«) ) 1(у). Чтобы выразить тот факт, что «(х) — близкая функция, запишем ее в виде «(х) = у (х) + яд (х), (5.12) где л(х) — пока не определенная функция, а е †мал параметр. Функция «(х) не является наиболее обшей формой близкой функции, но для нас это неважно, поскольку, как отмечено выше, речь идет о необходимых условиях.
Важно понимать, что для получения необходимых условий, мы можем выбрать любой удобный класс близких функций. [гл. и вавилционнои исчислвнив Тогда неравенство (5,11) принимает вид 7(у+к) ~7(у) (5.13) для всех а и а'(х), или в явном виде ь а ~Р(у+яд, у'+яд', х)ах)~Р(у, у', х)с(х. (5.14) а я Чтобы получить отсюдз более полезный результзт, разложим в ряд левую часть как функцию от парзметра я. В этом разложении достаточно сохранить только постоянный и линейный члены, поскольку я предполагается малым параметром.
Тогда получим соотношение а 7(у) а! ~(~уК+~т8) с(х1+ О(аа) ~ 7(у). (5.15) Для того чтобы это неравенство выполнялось как для положигелы<ых, так и для отрицательных значений малого параметра а, мы должны иметь: $ (утаи+ Рх8') с(х = О. а Поскольку д(х) — произвольная функция, это соотношение должно выполняться для всех д(х), имеющих производные на [а, Ь]. Полезно заметить, что уравнение (5.16) можно было бы получить также из условия, что Н,'~й должно быть равно нулю при а=О.
Для того чтобы извлечь отсюда как можно больше, проинтегрируем второе слагаемое в подынтегральном выражении по частям; мы получим; а ~ ~д(х)Є— ~(х) — (Рх)~+[у(х) Гт] =О (517) я Так как сейчас мы имеем дело с необходимыми условиями внутри интересуюшего нас интервала, положим на момент д (а) = 8 (Ь) = О. (5.18) Это равносильно ут~ егждению, что мы фиксируем концы оптимизирующей кривой. В результате получим, что для всех з) ьппввят вавияционного исчислвния 239 допустимых д(х) имеет место ь ~ д(Х) ~ Рт — „— (Ру) )ИХ=О. (5.19) а Если бы (5.19) было спрзведливо для всех х'(х), то, очевидно, служзщая коэффициентом функция была бы равной нулю, т. е. ~„— „— ~„= 0.