Диссертация (1145356), страница 17
Текст из файла (страница 17)
(сплошная линия соответствует случаю 1 = 0.01, 2 = 0.1, пунктирная — 1 = 0.1, 2 = 0.01).Рис. 3.7: Зависимость оптимального состояния * = ( ) от момента переключения .Второй случай представляет собой особенный интерес. Так, оказывается,что для малых оптимальная стратегия заключается в максимальной разработке ресурса во время “безопасного” режима. Однако, по мере роста , рискотказа оборудования растет и таким образом ожидаемая прибыль компенсируется риском внезапного окончания игры.
Когда достигает некоторогопорогового значения, оптимальная стратегия трансформируется таким образом, чтобы добыть как можно больше ресурса во время “опасного” режима,поскольку существует лишь маленькая вероятность того, что игра “доживет”до переключения в “безопасный” режим в момент . Отметим, что момент переключения, при котором происходит смена стратегии, может быть определенкак решение уравнения21 (exp(2 ) − 1) − 22 (exp(1 ) − 1) = 0.Глава 3.Дифференциальные игры со случайным моментом окончания. Модификации121Переключение в момент времени, зависящий от состоянияРассмотрим задачу с переключением Ф.Р. в момент времени , определяемыйиз условия ( ) = 0 , ∈ [0, 1], где параметр показывает критический уровень эксплуатации месторождения, при котором происходит изменение «режимов» эксплуатации.Как и в предыдущем случае, задача оптимизации разбивается на две задачина интервалах [0, ) и [, ∞).Рассмотрим задачу на интервале [0, ).
Оптимальное управление имеет следующий вид:* () = ∫︀0 − 0(1 − ()) =(1 − ())0 (1 − )1exp(−1 ).(1 − exp(−1 ))0Для второго интервала имеем:00 2exp(−2 ).* () = ∫︀∞(1 − ()) =exp(−2 )(1 − ())Осталось определить оптимальное время переключения * из условия максимизации функционала суммарного выигрыша на обоих промежутках игры.Получаем:(︂ln 1 +* =1 0 (1−)2 −1 +1 ln(2 0 )21)︂.В предельном случае ( = 0) имеем:(︀)︀ln ex0 + 1 =.Зависимость оптимального времени переключения * от значений параметра для двух различных последовательностей переключения режимов(«опасный—безопасный», «безопасный—опасный») представлена на Рис.
3.8,3.9.Глава 3.Дифференциальные игры со случайным моментом окончания. Модификации122Рис. 3.8: Зависимость времени переключения от параметра для 1 = 0.1; 2 = 0.01Рис. 3.9: Зависимость времени переключения от параметра для 1 = 0.01; 2 = 0.1Глава 3.3.5Дифференциальные игры со случайным моментом окончания. Модификации123Дифференциальные игры со случайным моментомначала игры3.5.1Постановка задачи.
Игра Γ0 (0 , 0 , )Рассмотрим следующую модификацию игры с предписанной продолжительностью Γ(0 , 0 , ). Будем обозначать как Γ0 (0 , 0 , ) дифференциальнуюигру лиц, в которой игра начинается в случайный момент времени 0 и заканчивается в момент времени . Будем считать известной функцию распределения случайной величины 0 : (), ∈ [0 ; ], а также значение фазовойпеременной в момент времени 0 ((0 ) = 0 ).Под выигрышем игрока будем понимать[︂∫︁ (0 , 0 , , 1 .
. . , ) = E−(−0 )ℎ (, (), 1 (), . . . , ())e0]︂d ,(3.5.62)где 0 — случайная величина. Отметим, что в данной постановке мгновенныйвыигрыш игрока дисконтируется при помощи экспоненциальной функции сдисконтирующей ставкой .3.5.2Упрощение выигрыша в игре Γ0 (0 , 0 , )Утверждение 3.5.1. Пусть выполнены предпосылки Теоремы 2.2.2. Тогдав игре Γ0 (0 , 0 , ) интегральный выигрыш игрока , = 1, . . .
, имеетследующий вид:∫︁ (0 , 0 , , 1 . . . , ) =ℎ (( ), ( )) ( )−( −0 ) .0Доказательство. Рассмотрим случай = ∞.]︂∫︁ ∞ [︂∫︁ ∞ (, 0 , 1 , . . . , ) =ℎ ((), ())e−(−0 ) d d ( ) =0(3.5.63)Глава 3.Дифференциальные игры со случайным моментом окончания. Модификации∫︁∞ [︂∫︁ ∞=−(−0 )ℎ ((), ())e∫︁0∞ ∫︁ ∞=0∫︁124]︂d ( )d =ℎ ((), ())e−(−0 ) d ( )d −0∞ ∫︁ ℎ ((),())−ℎ ((), ())e−(−0 ) d ( )d =∫︁ ∞∫︁ ∞0 0=ℎ ((), ())e−(−0 ) d ( )d −0∫︁0∞ ∫︁ −(−0 )−ℎ ((), ())ed ( )d =00∫︁ ∞=ℎ ((), ())e−(−0 ) d−0]︂∫︁ ∞ [︂∫︁ 0−−eℎ ((), ())e d ( )d.
(3.5.64)00Последний интеграл был рассмотрен в § 2.2 как интегральный выигрыш в игреΓ (0 , 0 , ) со случайным моментом окончания . При выполнении условийТеоремы 2.2.2, имеем∫︁∞ [︂∫︁ −ℎ ((), ())e0]︂∫︁∞d ( )d =0(1 − ())ℎ ((), ())e− d.0(3.5.65)Из (3.5.65) и (3.5.64) имеем: (0 , 0 , 1 , . . . , ) =∫︁ ∞∫︁=ℎ ((), ())e−(−0 ) d − e00∞0(1 − ())ℎ ((), ())e− d =∫︁ ∞= ()ℎ ((), ())e−(−0 ) d.0Пример кооперативной дифференциальной игры со случайным моментомначала был рассмотрен в работе [217].Глава 4Игры со случайнойпродолжительностью. Задачаминимизации риска4.1Постановка задачиАльтернативным подходом к задаче максимизации математического ожидания выигрыша является задача минимизации величины, соответствующей тойили иной из мер риска (см.
[37, 39, 312]), многие из которых основаны на вычислении дисперсии или второго момента выигрыша.Рассмотрим систему, описываемую дифференциальными уравнениями(0) = 0 ∈ R .()˙= ((), ()),(4.1.1)Будем полагать, что правые части (4.1.1) удовлетворяют требованиям, сформулированным в Предположении 1.1.1, см. также § 1.1. Пусть функция выигрыша игрока имеет следующий вид:∫︁ℎ((), ()),(4.1.2)0где – случайная величина с функцией распределения (), ∈ [0, ]. Будем рассматривать непрерывно дифференцируемые функции распределения125Глава 4.Игры со случайной продолжительностью. Задача минимизации риска126и положим, что () и () удовлетворяют предположениям A2), B2), C2) из§ 1.4.
Обозначим выигрыш игрока (4.1.2), который является случайной величиной, как (0 , , ), подчеркивая зависимость от параметров 0 , иуправления .В данном разделе рассматривается задача для = 1 игрока, т.е. задача оптимального управления со случайным горизонтом времени. Полученныерезультаты могут быть обобщены на случай игровой постановки для > 1.Далее, положим, что функция ℎ(, ) удовлетворяет следующим условиямрегулярности:1. ℎ(, ) ограничена и непрерывно дифференцируема по и по ;2. ℎ(, ) записывается в виде суммы двух членов: ℎ(, ) = ℎ () + ℎ ()таких что ℎ (0) = 0, ℎ (0) = 0, ℎ (·) – вогнутая функция, ℎ (·) – строговогнутая функция.Классическая задача оптимального управления заключается в определенииуправления ∈ , максимизирующего математическое ожидание функционала , т.е.* = argmax E( (0 , , )),(4.1.3)∈где∫︁ ∫︁ E( (0 , , )) =ℎ(, ) ().0(4.1.4)0Как было показано в § 2.2, выражение (4.1.4) может быть преобразовано кстандартному виду (2.2.7).
Ниже мы рассмотрим случай, когда задача оптимального управления формулируется иным образом.Глава 4.4.2Игры со случайной продолжительностью. Задача минимизации риска127Минимизация дисперсии интегрального выигрышаВ отличие от задачи (4.1.1)-(4.1.3), во многих случаях важно определить управляющее воздействие, минимизирующее неопределенность, возникающую изза стохастической природы задачи (см. [37, 39]). Одной из стандартных мернеопределенности является дисперсия функционала выигрыша, а также основанные на ней меры риска (см.
[37, 39, 312]). Соответствующая задача оптимального управления может быть сформулирована следующим образом: найти допустимое управление * ∈ , такое что[︀]︀* = argmin (0 , , ) ,(4.2.5)∈где ( ) = 2 ( ) − (( ))2 =⎡⎛⎞2 ⎤ ⎛ ⎡ ⎤⎞2∫︁∫︁⎢⎥= ⎣⎝ ℎ()⎠ ⎦ − ⎝ ⎣ ℎ()⎦⎠ =0∫︁=⎛0∫︁ ⎛∫︁ ∫︁ ⎜ℎ() ⎠ () − ⎝⎝0⎞20⎞2⎟ℎ() ()⎠0(4.2.6)0Необходимо сделать несколько замечаний. Во-первых, дисперсия ( )является неотрицательной функцией, т.е.
нижняя граница ( ) равна 0.Один частный случай, когда эта граница достигается соответствует 0 = 0.Можно заметить, что полагая () ≡ 0 мы получаем () ≡ 0 и, следовательно, ( ) = ( ) = 0. Таким образом, тривиальное решение (4.1.1) приводит кдетерминированному значению (4.1.2), что соответствует нулевой дисперсии.Первый интеграл в (4.2.6) упрощается путем интегрирования по частям, вто время как второе слагаемое равно (( ))2 , см. (4.1.4). Таким образом мыГлава 4.Игры со случайной продолжительностью. Задача минимизации риска128получаем ( ) =⎞2⎛ ⎞2⎛ ⎞2 ⎛ ⃒ ∫︁∫︁∫︁∫︁⃒⎜⎟= () ⎝ ℎ() ⎠ ⃒⃒ − () ⎝ ℎ() ⎠ − ⎝ ℎ()(1 − ())⎠ =00⎛⎞2∫︁∫︁⎟ℎ() ⎠ − 2⎜=⎝0⎛0⎛0⎞ℎ() −0⎟ℎ() ()⎠ =0⎛∫︁ 0⎞2∫︁⎜ℎ( ) − ⎝ ()ℎ()⎞2∫︁0∫︁⎟ℎ() ()⎠ − 20∫︁⎜ℎ() − ⎝ ()ℎ()∫︁ℎ()00∫︁ 0∫︁⎜2⎝0⎟ℎ() ()⎠ .0(4.2.7)Введем новые переменные, динамика которых описывается следующимиДУ:˙ = ℎ(, ),(0) = 0,˙ = ℎ(, ) (),(0) = 0.(4.2.8)С использованием новых переменных задача минимизации дисперсии может быть переформулирована следующим образом:V :min (0 , , ) =)︀(︀∫︀− ()ℎ(, )() + ( ) ( ) − 21 ( ) ,0т.ч.
(4.1.1), (4.2.8) выполняются, ∈ .Гамильтониан, соответствующий задаче V , имеет вид(︀)︀ = 1 (, ) + ℎ(, ) 2 + 3 () + ()() .(4.2.9)Будем полагать, что задача оптимального управления регулярна и, следовательно, 0 = −1. Оптимальное управление находится из условия максимиза-Глава 4.Игры со случайной продолжительностью. Задача минимизации риска129ции гамильтониана:* = argmax (, , , , ).(4.2.10)∈Сопряженные переменные удовлетворяют следующим ДУ:˙ 1 = −1 ′ (, * ) − ℎ′ (, * )(2 + ()() + 3 ()),(4.2.11)˙ 2 = − ()ℎ(, * ),˙ 3 = 0,откуда следует, что 3 () = ¯3 = для всех ∈ [0, ].
Далее, краевые условия справа на сопряженные переменные определяются из выражения( ) = −∇( ), откуда получаем ( ) = [0, −( ), (( ) − ( ))] (см.Главу 1.2).Заметим, что ()+2 () = для всех ∈ [0, ] как следует из (()+2 ()) = 0. Более того, можно проверить, что () + 2 () = ( ) + 2 ( ) = 0что в частности означает (0) = 2 (0) = 0. Таким образом, система (4.1.1),(4.2.8), (4.2.11) может быть переписана в следующем виде:˙ = (, * ),(0) = 0 ,˙ = ℎ(, * ),(0) = 0,˙ 1 =−1 ′ (, * )−ℎ′ (, * )(2+ ()() + ¯3 ()), 1 ( ) = 0˙ 2 = − ()ℎ(, * ),(4.2.12)2 (0) = 0,где ¯3 = ( ) + 2 ( ).Определим новые переменные: 1 () = () + 2 (); 2 = ()() + 2 (). Сэтими переменными (4.2.12) трансформируется в˙ = (, * ),(0) = 0 ,˙ 1 = −1 ′ (, * ) − ℎ′ (, * )(2 + ¯1 ()), 1 ( ) = 0˙1 = (1 − ())ℎ(, * ),1 (0) = 0,˙2 = ()(1 − 2 ),2 (0) = 0(4.2.13)Глава 4.Игры со случайной продолжительностью.