Основы ТАУ - Ч-3 Оптимальные, многосвязные и адаптивные системы - Воронов [1970] (1189551), страница 22
Текст из файла (страница 22)
(т Се (5-8) Для нахождения оптимального управления и * (~) можно воспользоваться методом, применяемым в динамическоем программировании. Разобьем интеграл в (5-8) на два интеграла: т ы-~ш т )г'(х, и, 8)~й= ~ г'(х, и, Г)пт4- ~ Р(х, и, г)пг' ее ее ее+ Ш т =Р(хо пое ~о)И+ ~ Р(хе н ~)сИ (5-9) ы+ш 11ервое слагаемое получено в результате разложения в ряд Тейлора по степеням малого й1 первого из интегралов и отбрасывания малых выше первого порядка. 11редположим пока, что за время Ле перемещение определено при некотором фиксированном на интервале М значении и„ и считаем, что в дальнейшем при 1) ~а + Л1 управление оптимально. Тогда в соответствии с принципом оптимальности М'~~ Р(х, и, 8)Ж =Р(х„, и„Г,) М+ш(пМ ~ ~ Р(х, и, 8)сИ)= (т =Р(хз по ~о)И+У*(хо+~1х. тз+Я (5-10) У (х, ц ) = М д„(й' (х, и„т„) + Уз (х, + Лх, Г -)- Д1) ) = =г (хо по еа)+Ма~(у*(хо+ ех ~с+ Ы)).
114 где звездочкой отмечено минимальное значение критерия при заданных ограничениях и ~7У и тз + Л1 =. т =. Т. Через М' мы в зтих формулах обовначили математическое ожидание критерия при некотором определенном перемещении Лх. Но так как Лх величина случайная, то действительное значение статистического критерия должно быть получено путем усреднения величины М по всем гех, т. е.
путем выполнения операции нахождения математического ожидания. Обозначим эту операцию Мд,. Тогда Первое слагаемое как величина определенная из-под анака математического ожидания вынесена. Раскрывая операцию математического ожидания (см. часть 11, стр. 87), получаем (хо (о) =в)(п)Р(хо ™о (о) Л(+ + $ Хо(х +Лх, ( +ЛС)Р(Лх/хю ()(КЛ(Лх)) й (Ьх) Так как за начальную точку хо, то можно принять любую точку начальной траектории, будем опускать индексы «0»: ,7о (х, т) =пйп(г'(х, и, () Л(+ и + ~ .7о(х+Лх, (+Л()Р(Лх(х, ()ь(1о(Лх)~ (5-11) о (ьх) Так как Р— плотность вероятности, то Р(Лх~ х, ()ЬЯ(Лх) =1.
О <Ьо) (5-12) у* (х, () = п)1п((Р (х, и, () Л( т ро (х, () ~ Р (Лх)», х) Ый (Лх) + и (Ьо) +~,' 1 ЛхР(Лх~х,().0(Лх)+" Лг 1 Р(Лх!х,().Я(Лх)+ о (ьх) о (ьх) + --, ~ (Лх)' Р (Лх ! г, х) йй (Лх) + а <Ьо) +( ),, ~ Р(Л*(х, г)(11з(Л*)+ Я (Ьо) ;-а~', ( о*о(л*>*, оно(о*)<-...). О ("Ьо) Учтем равенство (5-12), вынесем Х * (х, <) из-под знака минимума и сократим его с тождественным выражением в левой части; разделим почленно полученное равенство на Л( и устремим Л1 к нулю.
Учтем также, что в соответствии с определением математического ожидания ~ ЛхР(Лх~х, ()((Й(Лх) =7'Лт+тЛ(. Разложим функцию ( * (х+ Лх, (+ Л() в степенной ряд, сохранив в разложении члены до второго порядка малости. Частные производные Х о по х и по Ф, не содержащие переменной интегрирования Лх вынесем из-под знака интеграла. Получим Иэ теории вероятности также известно, что ~ (Лх)' Р (Ьх] х, Г) Г1Я (Ьх) = о'ЛГ+ (т ЬГ)э оЧ0, так как тз (М) ' имеет второй порядок малости. Приняв во внимание все сказанное выше, получим следующее уравнение в частных производных: дХ" .
Г дд* о' дт.г д! и!!в]~(к' н' !) + (Г'+!к) д + 2 д ~ )'' (5-13) (5-14) где ! = 1, 2, ..., у, ..., и, ! ( Г' ~ и; ЬГ, — символ Кронекера, если $ чисто случайный процесс со средним значением и и диспер- сией о'/М, то уравнение Беллмана принимает вид: и д.г* дд* о! д!Х~ [~ — — =шГв Р(х~ п~ Г)+~ (ГвбГд+Г!) д + д д „. (5-15) ! 1 Рассмотрим пример, когда объект описывается линейным дифференциальным уравнением первого порядка: дж! — = в. д! (5-16) На величину и никаких ограничений не накладываем. Задающее воздействие хэ представляет собой марковский случайный процесс. Для математического описания часто оказывается удобным представить марковский случайный процесс как результат воздействия белого шума з (чисто случайного процесса) со средним аначением т = 0 на инерционное звено (5-17) Уравнения (5-16) и (5 17) можно рассматривать как уравнения некоторого эквивалентного объекта, находящегося под воздействием белого шума.
Пусть далее первичный критерий оптимальности задан в виде функционала д,= ~ [(х,— в,) + ГГ'] ГГГ. (5-18) Уравнение (5-13) представляет собою распространение уравнения Беллмана на случайные процессы. Из этого уравнения находятся оптимальное управление и * и Г *.
Для объекта высокого порядка, описываемого уравнениями Уравнение (5 15) при атом примет вид: дХ* . Г ««дХ* дХ* о«д'Х~ д — — =Шдп'((Хд — Х«) +и +и д — Хд д + 2 д д ). (5-19) и Отсюда находим оптимальное управление » дХ* и*= — — — —. 2 дх,' (5-20) Подставим (5-20) в (5-19): дХ* 1 /дХ*~> дХ' а'д'Х* — — = (х — х )' — — ~ — ) — х — + — —. (5-21) д» д > 4 ~дхд) з дх«2 дх1 ' Для решения задачи удобно перейти к «попятному движению>, введя переменную т = Т вЂ” 1. Тогда (5-21) принимает вид: дХ* »»дХ*')«дХ о дду дт 4 ддхд» >д>«2 дх1 ' = (х — х )' — — ( — ) — х — + — †. (5-22) Граничные условия: Х*(х„х«, т=О) =0 для всех х„хз; хд — > оо при х« -> со Х*(х„х, т)-~со В самом деле, при т = 0 имеем т« = $ = Т, и интеграл (5-18) обращается в нуль. Ищем решение уравнения (5-21) Х «(х, т) в виде рида Х* (х, т) = й«(т) + ~т~ й, (т) х» + ~т ', ~ й;, (т) х;х;+..., (5-23) который подставляем в (5-21) и, приравнивая коэффициенты при одинаковых степенях х», находим й».
Сразу убеждаемся, что лишь й, (т) и йм (т) отличны от нуля, причем можно выбрать й» вЂ” — йя. Получаем дифференциальные уравнения относительно й„йдд, йпо й „которые решаем при начальных условиях й, (0) = = Й», (0) = О. В конечном итоге получаем Х*(х„х, т) =й,(т)+ й„(т)х,'+2й,«(т)хдх +й,(т)х, '(5-24) и из (5-20) и (5-24) и* = — Йд, (т) х, — Й,«(т) х,. (5-25) На рис. 5-2 показаны графики, изображающие решение этих уравнений. 117 Дифференцируя правую часть (5-19) по и и приравнивая производную нулю, находим условие ее минимума: Управляющее устройство может быть выполнено по структурной схеме, покааанной на рис. 5-3. Блок В на самом деле не нужен: он лишь показывает, как в соответствии с уравнениями 2 (5-17) чисто случайный процесс 22 преобразуется в марковский Ьг ДВ тэ (2).
Блок В представляет собой объект, блок А — управляющее устройство. Оно состоит ДО го ВО о из двух блоков умножения МЗ, и МЗ,. Сомножители — йм (т) и — к22 (т) вырабатываются в выем числительном устройстве ВУ, ко- торое приближенно можно вы- — се полнить в виде программного Рис. 5-2. устройства, реализующего заранее построенные графики (на рис. 5-2) для решений уравнений относительно коэффициентов Й„кгг, Й22 И 122. 1 г 1 В ! Рис. 5-3.
6-3. Снетемы е независимым накенненнем ннфермацнн В предыдущем параграфе были рассмотрены системы, в которых накопление информации о предшествующем поведении бесполезно и поэтому не производится. Но гораздо чаще накопление информации и последующее ее использование для управления процессом позволяет существенно улучшить управление. Очевидно, что накопление информации может оказаться полезным в тех случаях, когда воздействия на систему представляют собою случайные процессы, более сложные, чем марковские, но даже и в слу- 118 чае марковских процессов накопление информации будет полезным, если измерение полезного сигнала происходит с погрешностью или если результат измерения проходит через канал с шумами.
При наличии накопления и последующей обработки накопленной информации схема системы естественно усложняется. Рассмотрим простейшую разомкнутую систему с накоплением информации (рис. 5-4). В этой схеме беаынерционный объект В на выходе х должен воспроизводить задающее воадействие х . Имеются два безынерционных канала связи с помехами: канал Н„связывающий управляющее устройство А с задающим воздействием х„и канал 6, связывающий объект Н с управляющим устройством. В канале Н, действует шум й„в канале 6 — шум у.
Вследствие наличия шумов входы управляющего устройства у и объекта г отличаются соответственно от задающего воздействия х~ и выработанного управляющим устройством управляющего воздействия и. Кроме того, непосредственно на объект действует хо . у и и х помеха з. у, л с в Требуется выработать такое управляющее воздействие, чтобы показа- Рвс. 5-4. тель оптимальности, или, как его принято называть в задачах подобного рода, функция потерь Иг (х„х), был минимальным. Поскольку, однако, величины х, и х случайные, то и И' оказывается случайной функцией, поэтому при построении оптимального управления надо говорить о минимизации не самой функции И', а некоторых ее вероятностных характеристик.
Будем в качестве вторичного критерия оптимальности использовать математическое оя<идание функции г=М(И'(х, х)) (5-26) и называть это математическое ожидание у д е л ь н ы м р ис к о м. Задающее воздействие ха в рассматриваемых задачах также является случайным процессом. Если бы х, был полностью детерминирован, то задача его измерения теряла бы смысл. Но если х, случайный процесс, то и риск г будет случайной функцией, поэтому для получения регулярного критерия оптимальности г нужно усреднить по всей области й (Х,) возможных сигналов.
В результате такого усреднения находится п о л н ы й или средний риск Л: Н=М(г) = ~ г(Хю Х)Р(Х )~И. (5-27) Так же как и в предыдущем разделе, для того чтобы можно было решить задачу об оптимальном управлении, нужно задаться априори рядом зависимостей и характеристик, а именно; 119 4. Априорные вероятностные характеристики случайного процесса хе (например, плотность вероятности Р (я„)). Отметим, что в практических задачах эти априорные характеристики могут быть заданы пе всегда. 2. Вероятностные характеристики шума Ье з канале 11,.